Maßnahmen gegen Hass im Netz: Das Wichtigste aus dem Herbst 2022
Aktuelle, kommentierte Ereignisse im Kampf gegen digitalen Hass. Diesmal im Rückblick auf das letzte Quartal: Zivilgesellschaftliche Kampagne gegen Antisemitismus auf TikTok +++ Verleumdungsklage gegen Twitter erfolgreich +++ Milliardenklage gegen Meta in Kenia +++ Neues Twitter-Feature macht Verbreitung von Hass nachvollziehbarer +++ ChatGPT reproduziert Stereotype +++ TikTok kündigt algorithmische Transparenz an +++ Kein TikTok für US-Regierungsangehörige +++ EU-Aufsicht für Twitter beantragt +++ DSA und Mastodon +++ Außerdem neu: Ausgewählte Forschungsarbeiten zum Thema Hass im Netz.
Im Herbst 2022 dominierten Fragen zur Gestaltung von digitalen Plattformen die Debatten über Hass im Netz. Das hängt mit der Übernahme Twitters durch Elon Musk zusammen (siehe dazu unsere Rubrik Blitzlicht). Sie verdeutlicht eindrücklich, dass die Macht über die Gestaltung wichtiger Plattformen mit einem erheblichen Einfluss auf die globale Öffentlichkeit einhergeht – und damit auf das Schicksal der Demokratien. Auch deswegen wurde die Frage hitzig diskutiert, ob man solch einen »Techno-Feudalismus« als Nutzer*innen nicht boykottieren müsse.1
Zugleich zeigt der Aufstand im Iran, dass es globale Plattformen benötigt, um demokratischen Bewegungen in autoritären Systemen ein Sprachrohr zu geben und den Rücken zu stärken. Immerhin gehört es mittlerweile schon zum Playbook der Aufstandsbekämpfung in solchen Systemen, dass sie in Zeiten des politischen Ausnahmezustands dem Internet den Stecker ziehen. Dass der Tech-Mogul Musk den Protestierenden mit seinem Satelliten-Internetdienst Starlink hilft, die Internetsperre zu umgehen, macht die Konstellation nicht weniger zwiespältig.
Die Plattformökonomie ist widersprüchlich. Akteure, die an einer Stelle als Gefährder der Demokratie erscheinen, wirken an anderer Stelle gegen autoritäre Regime. Dass sich Geschäftsinteressen wie eine zweite Haut über den sozialen Kern des Internets legen, versteht sich von selbst. Jedoch weckt der Umstand, dass ein Milliardär die Spielregeln des öffentlichen Diskurses nach eigenem Gusto ändern kann, das Gefühl, dass sich die Demokratie einer solchen Allmacht erwehren muss. In der Rundschau beleuchten wir mitunter die Spielräume, die sich demokratischen Akteuren in dieser Konstellation bieten.
Strategische Interaktion: Aus der Praxis der Zivilgesellschaft
TikTok-Kampagne #GemeinsamGegenAntisemitismus: Hass gegen Jüdinnen und Juden findet sich auf jeder digitalen Plattform, ob in offener oder subtiler Form. Gerade bei audiovisuellen Inhalten wie auf TikTok kann es schwer fallen, dem zu begegnen. Oft sind die jungen Menschen, die diese Plattform vor allem nutzen, nicht dafür sensibilisiert, welche Muster und Codes auf antisemitische Weltbilder hindeuten. Die Bildungsstätte Anne Frank hat deswegen die Aufklärungskampagne #GemeinsamgegenAntisemitismus ins Leben gerufen, um antisemitischer Hetze und Verschwörungserzählungen auf TikTok nachhaltig entgegenwirken.2 Sie arbeitet dabei mit reichweitenstarken Influencer*innen zusammen, die User*innen zum Benennen antisemitischer Inhalte ermutigen sollen. Ein hörenswerter Podcast3 und eine Argumentationshilfe4 begleiten das Projekt.
Verleumdungsklage gegen Twitter erfolgreich: Der Antisemitismusbeauftragte für Baden-Württemberg, Michael Blume, sah sich auf Twitter über Monate hinweg verleumderischen Pädophilie-Vorwürfen ausgesetzt. Obwohl über 40 Tweets mehrfach gemeldet wurden, ließ Twitter sie fast alle online stehen.5 Blume klagte daher – unterstützt von HateAid – gegen das Tech-Unternehmen; es sei für die Verbreitung der Tweets mitverantwortlich. Statt die nach dem Netzwerkdurchsetzungsgesetz (NetzDG) gemeldeten Inhalte auf ihre Rechtswidrigkeit zu überprüfen, habe Twitter bloß seine internen Richtlinien angewandt. Anwalt Chan-jo Jun argumentierte, dass das Persönlichkeitsrecht geschützt werden müsse, selbst wenn die Tweets nicht gegen die Regeln der Plattform verstoßen.6 Das Landgericht Frankfurt a.M. schloss sich dieser Interpretation an und verurteilte Twitter im Dezember 2022 erstinstanzlich.
Milliardenklage gegen Meta in Kenia: Der Tech-Konzern Meta wird in einer in Kenia eingereichten Klage beschuldigt, nicht genug gegen Facebook-Posts vorgegangen zu sein, die den Bürgerkrieg in Äthiopien angeheizt haben sollen.7 Laut Klage, eingereicht von zwei äthiopischen Forschern und dem kenianischen Katiba Institute, hätten die Empfehlungssysteme von Facebook Gewaltaufrufe verstärkt, darunter mehrere, die dem Mord am Vater eines der Forscher vorausgingen.8 Die Kläger fordern die Einrichtung eines Entschädigungsfonds in Höhe von 1,6 Milliarden US-Dollar. Ein wichtiger Hintergrund: Tech-Konzerne wie Meta haben in vielen afrikanischen und asiatischen Ländern weit weniger personelle Kapazitäten für die Moderation von Inhalten abgestellt.9 Schon in Myanmar wurden gezielt Hassinhalte über Facebook lanciert, um den Genozid an den Rohingya zu legitimieren.
Technische Kuration: Entwicklungen bei den Plattformen
Twitter zeigt Views von Tweets an: Seit dem 15. Dezember 2022 zeigt Twitter für alle transparent an, wie oft ein Tweet gesehen wurde.10 Damit soll offenbar demonstriert werden, dass die Plattform lebendiger ist, als es Likes, Retweets und Kommentare nahelegen. Seit seiner Übernahme versucht Musk nämlich insbesondere Werbetreibenden zu beweisen, dass das finanziell angeschlagene Unternehmen nichts an Dynamik verloren hat. Auch für User*innen möchte man damit wohl einen weiteren Nutzungsanreiz neben den Metriken direkter Interaktionen schaffen. Ein Nebeneffekt davon ist, dass damit der analytische Blick auf Reichweiten geschärft wird, da sich nun Zusammenhänge zwischen jenen Metriken, wie etwa Likes und Retweets, und den Views herstellen lassen. So lassen sich etwa die reine Anzahl von Hassinhalten und ihre tatsächliche Virulenz besser ins Verhältnis setzen.
Künstliche Intelligenz mit stereotyper Neigung: Im November 2022 wurde das Programm ChatGPT vom US-Unternehmen OpenAI der Öffentlichkeit zugänglich gemacht: eine künstliche Intelligenz (KI), die im Dialog mit den Nutzer*innen verschiedene Arten von Text erstellen kann.11 Dies nährte Bedenken, dass sich derlei Technik negativ auf die Bildungs- und Kreativbranche auswirken könnte, wenn etwa Nutzer*innen damit erstellte Inhalte als eigene Leistung ausgeben. Auch für den politischen Diskurs könnte sie Folgen haben, da das Programm ja auch von problematischen Inhalten lernt, die online zuhauf zirkulieren. Bereits 2016 hatte der Chatbot Tay von Microsoft aufhorchen lassen, weil er rassistische Inhalte generierte, die er zuvor »erlernt« hatte,12 zum Teil unter gezielter Einwirkung rechtsextremer Akteure.13 Zwar filtert das neue Programm von OpenAI nun unethische Inhalte stärker heraus. Es bleibt aber das Problem bestehen, dass die KI inhärent die Stereotype reproduziert, die den Daten eingeschrieben sind.14
TikTok kündigt algorithmische Transparenz an: Die Kurzvideo-Plattform TikTok will für mehr Klarheit sorgen, warum ihren Nutzer*innen bestimmte Inhalte angezeigt werden.15 Zuletzt stand der Mutterkonzern ByteDance in der Kritik, weil die Feeds keinen Hinweis darauf geben, warum manche Inhalte angezeigt werden – und andere nicht. Insbesondere von zivilgesellschaftlicher Seite wurde beklagt, dass bestimmte Hashtags und Darstellungsformen einem Shadowbanning unterliegen, wodurch marginale Positionen aus der Plattform gedrängt würden.16 Angedacht ist nun, dass es zu jedem Video Informationen geben soll, die seine Sichtbarkeit erklären. Hierzu zählen etwa Interaktionswerte, Followerzahlen, Aktualität und Geolocation.17 Auch für Beobachter*innen ergeben sich damit neue Möglichkeiten, um zu analysieren, warum bestimmte Hassinhalte viral gehen.
Politische Regulation: Maßnahmen von Staat und Behörden
US-Senat verbietet TikTok-Nutzung auf Regierungsgeräten: Der US-Senat hat eine Gesetzesvorlage verabschiedet, die es Bundesbediensteten untersagt, die TikTok-App auf Geräten zu nutzen, die von der Regierung ausgegeben wurden.18 Die Maßnahme ist der jüngste Schritt Washingtons, um den Einfluss chinesischer Tech-Unternehmen zurückzudrängen. Insbesondere ist der Senat besorgt, dass ByteDance, der Konzern hinter TikTok, die Sicherheit der USA bedrohen könnte. Demnach wäre es Peking über die App möglich, an die persönlichen Daten von US-Amerikaner*innen zu gelangen und so Spionage zu betreiben. Schon unter der Trump-Administration gab es Bemühungen, den Dienst im Land abzuschalten; auch jetzt fordern republikanische Politiker*innen gar ein Verbot von TikTok in den USA.19
Forderung nach EU-Aufsicht über Twitter: Das Bundeswirtschaftsministerium hat die Forderung aufgestellt, Twitter in Europa unter direkte Aufsicht der EU-Kommission zu stellen. Damit soll nicht nur ein wettbewerbswidriges Verhalten von Twitter-CEO Elon Musk unterbunden, sondern auch das Risiko für Demokratie, Meinungs-, Informations- und Pressefreiheit durch den Dienst adressiert werden. Dies teilte Staatssekretär Sven Giegold Ende Dezember in einem Brief an die Europäische Kommission mit. Bereits im Oktober 2022, als Musk den Microblogging-Dienst übernahm, war eine erste Reaktion aus Brüssel, dass der Vogel in Europa nach den Regeln der Europäischen Union fliegen werde.20 Ob allerdings Twitter als Gatekeeper eingestuft werden kann, damit eine EU-Aufsicht gemäß Digital Market Act (DMA) greifen kann, wird unter Expert*innen bezweifelt.21
Mastodon und das Gesetz über digitale Dienste: Da der Mikroblogging-Dienst Mastodon wächst, stellt sich die Frage, wie sich der Digital Services Act (DSA) der EU auf die Plattform auswirken könnte.22 Dieser wurde geschaffen, um Probleme bei der Moderation von Inhalten bei größeren Dienstleistern anzugehen. Allerdings ist Mastodon ein dezentrales System mit derzeit mehr als 3.000 Instanzen – alle mit ihren eigenen Nutzer*innen, Richtlinien und Admins.23 Der DSA ist diesbezüglich unklar, wahrscheinlich ist aber, dass jede Instanz als unabhängige Plattform behandelt wird. Sie müssten dann alle eine Reihe von Mindeststandards erfüllen. Dazu gehören eine offizielle Kontaktstelle, eine rechtliche Vertretung, klare Geschäftsbedingungen, halbjährliche Transparenzberichte und die Übermittlung von Informationen über die Entfernung oder Einschränkung von Inhalten an die Melde- und Inhaltsanbieter.
Analytische Reflexion: Für die Praxis relevante Studien
Abstoßungseffekte in der digitalen Interaktion: Viel diskutiert wurde zuletzt eine Studie des Soziologen Petter Törnberg, die sich damit befasst, wie digitale Medien eine »affektive Polarisierung« vorantreiben.24 Entgegen der (vereinfachten) Vorstellung von Echokammern schlussfolgert die Studie, dass die Verhärtung von Fronten weniger durch die Isoliertheit differenter Ansichten zu erklären ist. Vielmehr steigerten sich die Akteure über rege Interaktionen mit anderen Ansichten in einen Lagerkampf hinein. Die Studie verweist damit auf starke Abstoßungseffekte (Reaktanz), denen im Kampf gegen digitalen Hass mehr Aufmerksamkeit zukommen sollte. Zu diesen Ergebnissen spricht auch eine neue Studie zweier Datenwissenschaftler, der zufolge Hassrede häufiger durch moralisierende Sprache hervorgerufen wird.25 Für Strategien, die auf die Minderung von Hassrede abzielen, sind solche Erkenntnisse kritisches Reflexionswissen.
Unbeabsichtigte Folgen von Warnhinweisen: Nicht nur Abstoßungseffekte können im Kampf gegen (digitalen) Hass unbeabsichtigte Folgen erzeugen. Bestimmte Praxen können auch Effekte auf kommunikative und emotionale Systeme haben – und sich so negativ auf Betroffene auswirken. So stellt eine aktuelle psychologische Studie fest, dass die Warnung vor verletzenden Inhalten zu einer Abnahme der Ambiguitätstoleranz führe und sich emotional labile Personen dadurch stärker von vieldeutigen Kommunikaten verletzt fühlten.26 Sie reiht sich damit in eine wachsende Forschungsliteratur ein, mit der sich vorherrschende Praxen im Kampf gegen Hass kritisch reflektieren lassen. Bereits 2020 hatte etwa eine andere psychologische Studie zum Ergebnis, dass Triggerwarnungen zu einem Anstieg von Ängsten bei Personen mit traumatischem Hintergrund führen würden.27
Sachbuch über YouTube jetzt auch in deutscher Sprache:YouTube ist die digitale Plattform mit der weltweit größten Reichweite. Allein 95 Prozent der Jugendlichen in den USA nutzen laut einer Umfrage den Videostreaming-Dienst,28 womit sie andere Plattformen weit in den Schatten stellt. Umso bemerkenswerter ist, dass in den Debatten über digitalen Hass YouTube kaum mehr Erwähnung findet. Generell sind viele Aspekte dieser global dominanten und von Google betriebenen Plattform noch immer wenig erforscht. Der Journalist Mark Bergen schafft hier mit seinem investigativen Sachbuch Abhilfe. Wie sich der Aufstieg zur »globalen Supermacht« vollzog, welche Geschäftsmodelle hinter der Programmierung der Algorithmen stecken und inwiefern YouTube seine gesellschaftliche Verantwortung wahrnimmt, lässt sich in der jüngst auf Deutsch erschienenen Ausgabe nachlesen.29
Zitationsvorschlag: Forschungsstelle BAG »Gegen Hass im Netz«, »Maßnahmen gegen Hass im Netz: Das Wichtigste aus dem Herbst 2022«, in: Machine Against the Rage, Nr. 1, Winter 2023, DOI: 10.58668/matr/01.4.
Verantwortlich: Maik Fielitz, Holger Marcks, Harald Sick, Hendrik Bitzmann.
- Michael Moorstedt, »Netzkolumne: Auf dem Weg zum Techno-Feudalismus«, in: Süddeutsche Zeitung, 6. Nov. 2022, online hier.
- »Unsere TikTok-Kampagne #GemeinsamgegenAntisemitismus«, auf: Bildungsstätte Anne Frank, 2022, online hier.
- Bildungsstätte Anne Frank, »TikTok Talk«, Folgen abrufbar hier.
- Bildungsstätte Anne Frank, »Antisemitismus im Netz. Eine Argumentationshilfe«, 2022, online hier.
- Siehe HateAid, »HateAid gegen Twitter. Verleumdungskampagne gegen Antisemitismusbeauftragten«, Pressemitteilung, 23. Nov. 2022, online hier.
- Siehe Anwalt Jun, »Fragen zum Prozess gegen Twitter«, auf: YouTube, 23. Nov. 2022, online hier.
- Siehe Kerstin Kohlenberg, »Äthiopien: Facebook und der Bürgerkrieg«, in: Die Zeit, 10. Dez. 2022, online hier.
- Siehe »Kenya: Meta Sued for 1.6 Billion USD for Fueling Ethiopia Ethnic Violence«, auf: Amnesty International, 14. Dez. 2022, online hier.
- Siehe Annie Njanja, »Facebook Fails to Detect Calls for Violence in Kenya«, auf: TechCrunch, 29. Juli 2022, online hier.
- Siehe Mitchell Clark, »Twitter Is Now Showing Everyone How Many Views Your Tweets Get«, auf: The Verge, 23. Dez. 2022, online hier.
- Jo Bager, »Facettenreicher Gesprächspartner. Die Text-KI ChatGPT schreibt Fachtexte, Prosa, Gedichte und Programmcode«, in: c’t. – Magazin für Computertechnik; Nr. 1, Jg. 41 (2023), S. 46–47.
- Siehe James Vincent, »Twitter Taught Microsoft’s AI Chatbot to Be a Racist Asshole in Less Than a Day«, auf: The Verge, 24. März 2016, online hier.
- Siehe Thilo Hagendorff, »Rassistische Maschinen?«, in: Matthias Rath, Friedrich Krotz & Matthias Karmasin (Hg.), Maschinenethik. Normative Grenzen autonomer Systeme (Wiesbaden: Springer Fachmedien, 2019), S. 121–134.
- Siehe Davey Alba, »OpenAI Chatbot Spits Out Biased Musings, Despite Guardrails«, auf: Bloomberg, 8. Dez. 2022, online hier.
- Siehe Sara Fischer, »TikTok to Explain Why Videos Are Recommended to Users«, auf: Axios, 20. Dez. 2022, online hier.
- Siehe Chris Köver, »Shadowbanning: TikTok zensiert LGBTQ-Themen und politische Hashtags«, auf: netzpolitik.org, 9. Sept. 2020, online hier.
- Vgl. »Learn Why a Video Is Recommended For You«, auf: Newsroom | TikTok, 20. Dez. 2022, online hier.
- Siehe Reuters, »Senate Votes to Ban TikTok on US Government-Owned Devices«, in: The Guardian, 15. Dez. 2022, online hier.
- Siehe Adi Robertson, »Marco Rubio Pushes TikTok Ban in Congress«, auf: The Verge, 13. Dez. 2022, online hier.
- Siehe @ThierryBreton | 28. Okt. 2022 | 09:52.
- Siehe »Wirtschaftsministerium will schärfere Auflagen für Twitter«, in: Süddeutsche Zeitung, 23. Dez. 2022, online hier.
- Siehe Konstantinos Komaitis, »Can Mastodon Survive Europe’s Digital Services Act?«, auf: Tech Policy Press, 16. Nov. 2022, online hier.
- Siehe Nicolas Kayser-Bril, »The Fediverse Is Growing, But Power Imbalances Might Stay«, auf: AlgorithmWatch, 2. Nov. 2022, online hier.
- Petter Törnberg, »How Digital Media Drive Affective Polarization through Partisan Sorting«, in: Proceedings of the National Academy of Sciences, Nr. 42, Jg. 119 (2022), e2207159119.
- Kirill Solovev & Nicolas Pröllochs, »Moralized Language Predicts Hate Speech on Social Media«, in: PNAS Nexus, Nr. 1, Jg. 2 (2022), pgac281.
- April Bleske-Rechek u. a., »In the Eye of the Beholder. Situational and Dispositional Predictors of Perceiving Harm in Others’ Words«, in: Personality and Individual Differences, Nr. 200 (Januar 2023), 111902.
- Benjamin W. Bellet u. a., »Trigger Warnings and Resilience in College Students. A Preregistered Replication and Extension«, in: Journal of Experimental Psychology: Applied, Nr. 4, Jg. 26 (2020), S. 717–723.
- Siehe Emily A. Vogels, Risa Gelles-Watnick & Navid Massarat, »Teens, Social Media and Technology 2022«, auf: Pew Research Center, 10. Aug. 2022, online hier.
- Mark Bergen, YouTube. Die globale Supermacht (München: Droemer Knaur, 2022).