Maßnahmen gegen Hass im Netz: Das Wichtigste aus dem Frühling 2023
Aktuelle, kommentierte Ereignisse im Kampf gegen digitalen Hass und ausgewählte Publikationen zum Thema. Diesmal im Rückblick auf das letzte Quartal: Community Event von Das NETTZ +++ Neue Meldestelle gegen Hatespeech in Thüringen +++ Forderung nach Nachbesserungen beim Datenzugang im DSA +++ Mozilla will Inhaltsmoderation neu verstehen +++ Neue Einschränkungen auf Twitter +++ YouTube erlaubt wieder Verschwörungstheorien auf seiner Plattform +++ Bundesregierung will zusätzlichen Beirat für DSA schaffen +++ Urteil schützt Plattformen vor Forderungen der Angehörigen von Opfer terroristischer Gewalt +++ TikTok-Verbot in Montana (USA) +++ Neue Studien zu Skepsis beim Fact Checking, sozialer Identitätsbildung und dem Umgang mit Verschwörungstheorien.
Der Frühling 2023 wartete mit vielen juristischen Debatten zum Thema Hass im Netz auf. Den Startschuss lieferte das Eckpunktepapier für ein »Gesetz gegen digitale Gewalt«,1 das in vielerlei Hinsicht kritisiert wurde: Der Anwendungsbereich bleibe unklar,2 die Vorratsdatenspeicherung werde durch die Hintertür eingeführt,3 die Übertragung des Konzepts der digitalen Gewalt in den strafrechtlichen Kontext sei juristisch fragwürdig.4 Ganz grundsätzlich bringt das Papier auch zivilgesellschaftliche Akteure in die Bredouille, da es auf Konzepte aus deren Praxis zurückgreift, um so ein repressives Gesetzesvorhaben zu legitimieren. Das Vorhaben stieß entsprechend auf ein geteiltes Echo in der interessierten Öffentlichkeit.5 Dabei sprach die Kritik das Problem langfristiger Risiken nicht einmal an, die eine solche Verrechtlichung sozialer Interaktionen birgt. Denn dass Mittel wie das Auskunftsrecht bezüglich der Urheber*innen von »digitaler Gewalt« sich auf einen kaum definierten Tatbestand beziehen, bereitet den Weg für den Missbrauch auch durch Kräfte, die das Gesetz am meisten treffen soll.
Das juristische Vorgehen gegen die Zivilgesellschaft gehört eben zum festen Repertoire von Rechtsaußen-Akteuren. Zu diesem Ergebnis kommt auch eine just erschienene Studie, die sich mit »strategischen Klagen gegen öffentliche Beteiligung« (SLAPPs) auseinandersetzt6 und die Einrichtung der GegenRechtsVersicherung zur Folge hatte, mit der zivilgesellschaftliche Akteure unterstützt werden, die von rechtsextremer Seite verklagt werden. Auch vor diesem Hintergrund sind Alternativen zum Eckpunktepapier gefragt. Eine solche stellte kurz nach der Veröffentlichung des Papiers die Gesellschaft für Freiheitsrechte (GFF).8 In deren Gesetzesvorschlag wird zentral auf richterlich angeordnete Accountsperren gesetzt, die den Unternehmen Beine machen sollen. Doch auch hier ließe sich debattieren, ob der Masse an Hass-Postings wirklich mit solchen Fall-zu-Fall Methoden beizukommen ist. Wie auch im Eckpunktepapier fehlt es hier an einer Differenzierung von verschiedenen Formen der digitalen Öffentlichkeit, weshalb es nicht auszuschließen ist, dass sich die Mühlen der Justiz künftig an Postings mit zweistelliger Reichweite reiben müssen. Zu erwägen wäre daher, ob es für verschiedene Niveaus von Öffentlichkeit nicht unterschiedliche Regeln geben sollte. Denn je größer die Öffentlichkeit ist, die Nutzer*innen erreichen, desto größer der mögliche Schaden und damit die Verantwortung für die eigenen Inhalte.
Eine weitere Methode im Umgang mit Hass-Postings deutete sich im Fall der U21-Nationalmannschaft an, deren schwarze Spieler rassistisch beleidigt worden waren, nachdem sie in einem Länderspiel Elfmeter verschossen hatten. Der DFB wollte daraufhin die Urheber*innen der Postings vor Gericht bringen,9 wobei auch der Einsatz von Künstlicher Intelligenz erwogen wurde. So löblich diese Absicht auch sein mag, so wenig ist sie ein gangbarer Weg für Menschen, die alltäglich unter digitalen Angriffen leiden, setzt ein solches Vorgehen doch entsprechende Ressourcen voraus. Zugleich wäre es, sollte diese Methode doch Schule machen, denkbar, dass dabei KI gegen KI vorgeht. Denn wie Wissenschaftler*innen warnen, könnte die Technik auch Anwendung finden, um Hass verstärkt im Netz zu streuen.10 Zwar versuchen viele Anwendungen, ethisch sauber zu arbeiten, doch es ist wohl nur eine Frage der Zeit, bis neue Tools Verbreitung finden, die zu einer Entgrenzung führen. Auf welchen Plattformen dies geschieht, wird sich zeigen. Fest steht nach diesem Quartal aber schon mal, dass an Meta kein Weg vorbeiführt. Denn mit dem Microblogging-Dienst Threads fordert der Tech-Gigant nun das kriselnde Twitter heraus.11 Punkten will das Unternehmen u.a. mit einem ausgefeilten Moderationskonzept und einer Anbindung ans Fediverse.12
Strategische Interaktion: Aus der Praxis der Zivilgesellschaft
Community Event von Das NETTZ: Seit 2017 findet jährlich das Community Event von Das NETTZ statt und bringt Akteure aus Zivilgesellschaft und Forschung zusammen, die sich im Themenbereich »Hass im Netz« engagieren. Dieses Jahr stand die Veranstaltung unter dem Titel »Delete Cache« und hatte zum Ziel, Tech-Konzerne und Zivilgesellschaft in einen Austausch über Perspektiven für ein Internet ohne Hass zu bringen. Zu der Veranstaltung kamen 170 Personen. Das zentrale Podium diskutierte über gegenwärtige sowie zukünftige Herausforderungen, aber auch Chancen von KI und Tech im Kampf gegen Hass im Netz. Hierzu wurden hochkarätige Gäste aus Tech, Politik und Zivilgesellschaft eingeladen.13 Auch wir als Forschungsstelle der BAG, deren Trägerorganisation Das NETTZ ist, haben mit einem Workshop zu Methoden der digitalen Bildanalyse Einblicke in unsere Forschung gegeben. Dabei gab es auch Feedback, das wertvoll für die weitere Arbeit ist und in unseren kommenden Publikationen Berücksichtigung finden wird.
Neue Meldestelle gegen Hatespeech in Thüringen gelauncht: Der Freistaat Thüringen hat seit diesem Juni eine Hatespeech-Meldestelle, die digitale Anfeindungen aufgrund des Geschlechts, der Herkunft oder der politischen Einstellung registriert. Die Meldestelle sammelt Fälle, die man über eine digitale Maske eingeben kann, und bietet Betroffenen Beratung an. Der Anteil direkt von digitalem Hass betroffener Menschen liegt in Thüringen über dem bundesweiten Durchschnitt. Allerdings fehlt es an verlässlichen Daten und an Einblicke in die Strukturierung von solch diskriminierenden Handlungen. Die neue Stelle soll hier Abhilfe schaffen. Sie wird von der Opferberatungsstelle Ezra organisiert und vom Landespräventionsrat finanziert, der beim Thüringer Ministerium für Inneres und Kommunales angesiedelt ist.
Allianz von Forschenden und NGO fordert freien Zugang zu Daten: In einem offenen Brief an die Europäische Kommission unterbreiteten knapp 70 zivilgesellschaftliche Organisationen Vorschläge, wie der Zugang zu Daten zur Erforschung digitaler Plattformen besser gestaltet werden kann. Kritisiert wird dabei die derzeitige Informationsasymmetrie, bei der Plattformen Zugang zu Nutzer*innendaten haben, während Forscher*innen Einschränkungen begegneten und rechtlichen Unsicherheiten ausgesetzt seien. Der Digital Services Act (DSA) soll dies eigentlich ändern; u.a. verlangt er, dass große Plattformen und Suchmaschinen Daten zu öffentlich zugänglichen Inhalten mit Forscher*innen teilen. Die Unterzeichner*innen bemängeln jedoch, dass der Datenzugriff nur rein projektbezogen genehmigt werden soll und damit am Bedarf von Forscher*innen gehe. Der Zugang solle bestenfalls kostenlos sein und zu fairen, angemessenen Bedingungen gewährt werden. Betont wird auch, dass ein solcher Zugang zur Rechenschaftspflicht der Unternehmen dazu gehöre, wenngleich es ebenso Schutzmaßnahmen bedürfe, um Datenschutzrisiken zu minimieren.
Technische Kuration: Entwicklungen bei den Plattformen
Twitter legt Limit für Anzahl von Views fest: Im Juni schloss sich mit der Academic API die letzte offene Schnittstelle, über die Forscher*innen freien Zugang zu großen Twitter-Datensätzen erhielten. Damit wird Forschung auf Twitter kaum noch bezahlbar: 42.000 $ pro Jahr verlangt der Konzern nunmehr für den Zugriff auf ein eingeschränktes Angebot von Datensätzen. Forscher*innen und App-Entwickler*innen griffen daher auf das Scraping-Verfahren zurück, bei dem – vereinfacht gesagt – Screenshots von Inhalten gemacht und in Daten konvertiert werden. Twitter-Inhaber wollte dies just unterbinden, indem der Zugang zu Tweets nur registrierten Nutzer*innen erlaubt wird. Dies führte zeitweise zur Unbenutzbarkeit Twitters, da die Webseite selbst diesen Zugang benötigt.14 Als weitere Anti-Scraping Maßnahme folgten Limits für die Zugriffe auf Tweets: 6.000 lesbare Tweets für verifizierte User*innen pro Tag, 600 für unverifizierte Nutzer*innen.15 Das hat Folgen für das Verhalten auf Twitter und sorgt für Unzufriedenheit.16 Zugleich werden juristische Klagen gegen den Konzern vorbereitet, da er damit ohne Einverständnis der Nutzer*innen Vertragsänderungen vorgenommen hat.17 Es bleibt abzuwarten, ob Musk in der Konkurrenz mit dem Twitter-Klon Threads solche Maßnahmen aufrechterhalten kann.18
Mozilla steigt in die Inhaltsmoderation ein: Mozilla hat eine Instanz auf Mastodon, dem dezentralen Social-Media-Netzwerk, eingerichtet und setzt auf eine ungewöhnliche Strategie für die Inhaltsmoderation. Unter dem Namen Mozilla.Social verfolgt Mozilla einen Ansatz, der sich deutlich von der Neutralitätsposition vieler Plattformen unterscheidet: Es soll keinerlei belästigende, herabsetzende Sprache toleriert werden; auf Fehlinformationen soll kompromisslos reagiert werden. Schon im Zweifelsfall sollen Beiträge entfernt werden. Die Zielsetzung ist es, Hass-Dynamiken von Beginn an zu unterbinden. Diese Initiative ist Teil von Mozillas Bemühungen, die Zukunft der dezentralisierten sozialen Medien zu erforschen. Dabei fokussiert das Unternehmen auf Content-Moderation und die Schaffung eines Raums, in dem sich Nutzer*innen sicher und geschützt fühlen sollen. Die Plattform ist derzeit noch in einer geschlossenen Beta-Phase.19
YouTube erlaubt Falschinformationen zur Wahl: YouTube kündigte Anfang Juni an, keine Videos mehr pauschal zu entfernen, die fälschlicherweise behaupten, die US-Präsidentschaftswahl 2020 sei gestohlen worden: eine Behauptung, die der ehemalige Präsident Donald Trump aufgestellt hatte.20 Die Entscheidung ist eine Kehrtwende im Umgang mit dem Problem und löst eine im Dezember 2020 eingeführte Richtlinie ab. Die Plattform begründete sie damit, dass die Entfernung solcher Inhalte zwar Desinformation eindämme, aber als Nebefolge auch die politische Meinungsäußerung einschränke, ohne das Risiko von Gewalt oder realen Schäden erheblich zu verringern.21 Dennoch werde YouTube weiterhin Videos verbieten, die Wähler*innen konkret über Abstimmungsdetails irreführen, zum Nichtwählen ermutigen oder demokratische Prozesse manipulativ beeinflussen. Die Richtlinienänderung erfolgt in einer Zeit, in welcher der Wahlkampf für die Abstimmungen 2024 beginnt und Trump weiterhin ohne Beweise behauptet, dass ihm das letzte Mal der Wahlsieg gestohlen worden sei.
Politische Regulation: Maßnahmen von Staat und Behörden
Bundesregierung will zusätzlichen Beirat für DSA schaffen: Die Bundesregierung plant Anpassungen im deutschen Recht, um den EU-weiten DSA zu implementieren. Überraschend wurde ein Beirat vorgeschlagen, der aus Vertreter*innen von Wissenschaft, Zivilgesellschaft und Wirtschaft bestehen und die DSA-Umsetzung koordinieren soll. Der Beirat soll den nationalen Koordinator für digitale Dienste unterstützen und vermutlich bei der Bundesnetzagentur angesiedelt sein. Mit Inkrafttreten des DSA im Februar 2024 werden das Netzwerkdurchsetzungsgesetzt (NetzDG) und das Telemediengesetz abgelöst, was bedeutet, dass Deutschland die direkte Aufsicht über alle Anbieter*innen, einschließlich der großen Online-Konzerne mit Sitz in Irland, verliert. Eine weitere Änderung betrifft die Schlichtungsstellen, die jetzt individuelle Lösungen praktizieren und verpflichtend für Privatanbieter*innen werden sollen.
Urteil schützt Tech-Konzerne vor Klagen durch Angehörige von Terroropfern: Der Oberste Gerichtshof der USA hat in einem Urteil den Internetunternehmen mehr Sicherheiten gewährt, indem er die Klagen von Familien von Terroropfern gegen die Betreiber*innen sozialer Medien zurückwies. In den Fällen Gonzalez vs. Google und Twitter vs. Taamneh wurden Google und Twitter vorgeworfen, auf ihren Plattformen Inhalte des Islamischen Staats bereitgestellt und damit zur Unterstützung des Terrorismus beigetragen zu haben. Der Gerichtshof lehnte damit eine Einschränkung der Section 230 des Communications Decency Act ab, die Internetunternehmen von der Haftung für von Dritten veröffentlichten Inhalten freispricht. Er urteilte einstimmig, dass die Familien keinen Anspruch gemäß eines Bundesgesetzes geltend machen können, das für US-Bürger*innen vorsieht, Schadensersatz für Verletzungen durch internationale Terrorakte einzuklagen. Das Urteil wurde von Befürworter*innen der Meinungsfreiheit gelobt.22
Montana verbietet als erster Bundesstaat TikTok: Der US-Bundesstaat Montana hat die chinesische Kurzvideo-App TikTok aufgrund von Sicherheitsbedenken verboten. Gouverneur Gianforte erklärte, das Verbot schütze vor Überwachung durch die Kommunistische Partei Chinas. Der Gesetzesvorschlag passierte problemlos den republikanisch kontrollierten Kongress. Demnach dürfen ab 1. Januar 2024 App-Stores TikTok nicht mehr anbieten und darf das Unternehmen nicht mehr in Montana tätig sein. Verstöße können mit Strafen von bis zu 10.000 Dollar pro Tag geahndet werden. Nutzer*innen sind von diesen Strafen ausgenommen. Allerdings klagen nun bereits Influencer*innen, dass ihnen mit dem Verbot Einnahmen verloren gehen und das Verbot die Meinungsfreiheit einschränke. TikTok, welches das Verbot als verfassungswidrig kritisierte und selbst Klage einreichte,23 unterstützt derlei Bemühungen.24
Analytische Reflexion: Für die Praxis relevante Studien
Faktenskepsis als Nebeneffekt bei der Bekämpfung von Desinformation: Die Konfrontation mit Maßnahmen zur Bekämpfung von Fehlinformationen, einschließlich Fakten-Checks, Medienkompetenz und Debunking, können eine steigende Faktenskepsis zur Folge haben. Zu dieser Erkenntnis kommt eine internationale Studie von einem Forscher*innen-Team rund um die Zürcher Politikwissenschaftlerin Eva Hoes.25 Die Ergebnisse des sich über die USA, Polen und Hong Kong erstreckenden Online-Survey-Experiments zeigen, dass alle Interventionen zwar erfolgreich den Glauben an Falschinformationen verringern, sich aber auch negativ auf die Glaubwürdigkeit von Tatsacheninformationen auswirken. Das heißt, dass die von Medien und Zivilgesellschaft angewandten Maßnahmen dazu beitragen können, dass Menschen, die mit Fact-Checks konfrontiert werden, auch weniger Fakten vertrauen als jene Kontrollgruppe, die sich keinen Fakten-Checks unterzogen hat. Laut dem Forscher*innen-Team unterstreicht die Studie den Bedarf an neuen Strategien, die den Schaden minimieren und den Nutzen von Interventionen gegen Fehlinformationen maximieren.
Wahrgenommene politische Verortung von Fact-Checkern entscheidend: Die Wirkung von Fakten-Checks hängt von der wahrgenommenen politischen Positionierung des Fact-Checkers ab. Dies bestätigte nun eine sozialpsychologische Studie aus den USA.26 Untersucht wurde, ob und wann Fact-Checks und Gegenrede einen sog. Backfire-Effekt auslösen – also eher eine Verhärtung der eigenen Position auslösen anstatt ein Umdenken. In drei Experimenten (N = 1.217) fanden die Forscher*innen heraus, dass der gegenteilige Effekt einer Fact-Check-Intervention um 52 Prozent wahrscheinlicher ist, wenn dieser von einer als antagonistisch wahrgenommenen politischen Gruppe stammt. Zwar fand die Studie auch heraus, dass die Überprüfung von Fehlinformationen prinzipiell einen positiven Nettoeffekt habe, wenn auch nur einen kleinen, doch sei der Parteilichkeitseffekt insgesamt viel stärker. Demzufolge sind Fakten-Checks (fast) nur effektiv, wenn sie von Personen kommen, die als Mitglieder der eigenen Gruppe oder zumindest als neutrale Autoritäten wahrgenommen werden. Der Effekt der politischen Orientierung war nämlich fünfmal so groß wie der des neutralen Fakten-Checks.
Maßnahmen gegen Verschwörungstheorien evaluiert: Eine Studie von Verhaltensforscher*innen untersuchte in einer Meta-Studie die Wirkung von praktizierten Maßnahmen gegen Verschwörungsglauben.27 Aus 25 Studien (insgesamt N = 7.179) ging hervor, dass Interventionen, die eine analytische Denkweise förderten oder Fähigkeiten zum kritischen Denken vermittelten, sich im Hinblick auf die Veränderung von Menschen mit Verschwörungsüberzeugungen als am wirksamsten erwiesen. Kurzfristige Maßnahmen, die Menschen mit gegenteiligen Meinungen in Konversationen zu beeinflussen und zu überzeugen, haben eher wenige Chancen, so rational dies auch versucht werde. Auch der Vorwurf, Verschwörungstheoretiker*in zu sein, hat oft eher eine Bestätigung der Meinung zur Konsequenz, als dass dadurch Veränderungen angestoßen würden. Die Ergebnisse sind wichtig für die Entwicklung künftiger Forschungsarbeiten und auch der Praxis zur Bekämpfung von Verschwörungsvorstellungen.
Zitationsvorschlag: Forschungsstelle BAG »Gegen Hass im Netz«, »Maßnahmen gegen Hass im Netz: Das Wichtigste aus dem Frühling 2023«, in: Machine Against the Rage, Nr. 3, Sommer 2023, DOI: 10.58668/matr/03.4.
Verantwortlich: Maik Fielitz, Holger Marcks, Harald Sick, Hendrik Bitzmann.
- Bundesministerium der Justiz, »Eckpunkte des Bundeministeriums der Justiz zum Gesetz gegen digitale Gewalt«, 12. Apr. 2023, online hier.
- Siehe z.B. Das NETTZ, »Stellungnahme zu den Eckpunkten für ein Gesetz gegen digitale Gewalt des Bundesministeriums der Justiz durch Das NETTZ gGmbH«, 26. Mai 2023, online hier.
- Siehe z.B. Chaos Computer Club, »Stellungnahme zum Eckpunkte-Papier zum Gesetz gegen digitale Gewalt«, 26. Mai 2023, online hier.
- Siehe z.B. Deutscher Juristinnenbund e.V., »Stellungnahme zu den Eckpunkten des Bundesministeriums der Justiz zum Gesetz gegen digitale Gewalt«, 26. Mai 2023, online hier.
- Siehe Sebastian Meineck, »Eckpunktepapier: Die Fallstricke beim Gesetz gegen digitale Gewalt«, auf: Netzpolitik, 12. Apr. 2023, online hier.
- Cornelius Helmert u.a., Eine Dunkelfeldstudie zum strategischen Einsatz von juristischen Einsatz von juristischen Mitteln durch rechtsextreme Akteur*innen gegen die Zivilgesellschaft, hgg. von Open Knowledge Foundation Deutschland (Jena: Institut für Demokratie und Zivilgesellschaft, 2023), online hier.
- Siehe »GegenRechtsSchutz – ein scharfes Schwert gegen rechts«, auf: FragDenStaat, online hier.
- Gesellschaft für Freiheitsrechte, »Entwurf eines Gesetzes zum Schutz vor digitaler Gewalt auf Online-Plattformen«, 22. Mai 2023, online hier.
- Siehe, »U21-Spieler nach Spiel beleidigt. DFB geht gegen rassistische Hetze vor«, auf: ZDF, 23. Juni 2023, online hier.
- Siehe Tagesspiegel Background, »Medienexperten: KI werde Hass im Netz verstärken«, in: Tagesspiegel, 20. Juni 2023, online hier.
- Siehe »Meta: Facebook-Konzern startet Twitter-Konkurrenten Threads«, in: Zeit, 6. Juli 2023, online hier.
- Siehe Casey Newton, »Meta Unspools Threads«, auf: Platformer, 9. Feb. 2023, online hier.
- Siehe Emine Aslan, »Was Zivilgesellschaft und Tech für ein Netz ohne Hass tun können«, auf: Das Nettz, 27. Mai 2023, online hier.
- Siehe @sysop408@sfba.social | 01. Juli 2023 | 19:02.
- Siehe Wolfgang Schweiger & Christoph Sterz, »Twitter: Musk und die Lesebeschränkung«, auf: Deutschlandfunk, 3. Juli 2023, online hier.
- Reuters, »What Does Twitter ›Rate Limit Exceeded‹ Mean for Users?«, auf: Reuters, 4. Juli 2023, online hier.
- Siehe z.B. @Anwalt_Jun | 2. Juli 2023 | 13:37.
- So wurden bspw. noch am selben Tag die Limits geändert auf 10.000 bzw. 1.000 für die beiden genannten Nutzer*innengruppen.
- Siehe Steve Teixeira, »The Internet Deserves a Better Answer to Social«, auf: Mozilla, 4. Mai 2023, online hier.
- Siehe Shannon Bond, »YouTube Will No Longer Take Down False Claims about U.S. Elections«, auf: NPR, 2. Juni 2023, online hier.
- Siehe The YouTube Team, »An Update on Our Approach to US Election Misinformation«, auf: YouTube Blog, 2. Juni 2023, online hier.
- Siehe Melissa Quinn, »Supreme Court Sides with Social Media Companies in Suits by Families of Terror Victims«, auf: CBS News, 18. Mai 2023, online hier.
- »TikTok vs. Montana«, 22. Mai 2023, online hier.
- Siehe Sapna Maheshwari, »After Montana Banned TikTok, Users Sued. TikTok Is Footing Their Bill« in:New York Times, 27. Juni 2023, online hier.
- Emma Hoes u.a., »Prominent Misinformation Interventions Reduce Misperceptions but Increase Skepticism«, auf: PsyArXiv, 10. Mai 2023, online hier.
- Diego A. Reinero u.a., »Partisans Are More Likely to Entrench Their Beliefs in Misinformation When Political Outgroup Members Fact-Check Claims«, auf: PsyArXiv 11. Mai 2023, online hier.
- Cian O’Mahony u.a., »The Efficacy of Interventions in Reducing Belief in Conspiracy Theories. A Systematic Review«, in: PLoS ONE, Nr. 4, Jg. 18 (2023), e0280902.