Maßnahmen gegen Hass im Netz: Das Wichtigste aus dem Winter 2023
Aktuelle, kommentierte Ereignisse im Kampf gegen digitalen Hass und ausgewählte Publikationen zum Thema. Diesmal im Rückblick auf das letzte Quartal: Antisemitismus-Tracker gelauncht +++ Neues Projekt: Der Fabulant +++ Projekt »Elefant im Raum« klärt auf +++ Prebunking-Kampagne auf YouTube gestartet +++ Trump zurück auf allen Plattformen +++ Twitter-Algorithmus offengelegt +++ Erwägung eines Verbots von TikTok +++ Mit KI gegen jugendgefährendende Inhalte +++ Bußgeldverfahren gegen Twitter +++ Neue Studien zur Bedeutung von Offline-Ereignissen für digitalen Hass, zu Angriffen auf Journalistinnen und zur Frage, was Desinformation anrichtet.
Der winterliche Jahresbeginn 2023 brachte diverse Verschiebungen im Bereich der digitalen Kommunikation, die auch langfristig Auswirkungen auf die Verbreitung von Hass im Netz haben dürften. Nachdem Elon Musk Twitter im vergangenen Herbst übernommen hatte,1 kürzten neben Twitter auch viele andere Tech-Konzerne ihre Personalausgaben.2 Insbesondere im Bereich der Public Policy und dem Engagement mit zivilgesellschaftlichen Akteuren wurde gespart, was von letzterer Seite auch dementsprechend bemängelt wurde.3 In diesem Kontext begehrten nun auch Content-Moderator*innen auf und forderten bessere Arbeitsbedingungen,4 bis hin zur Klage gegen Subunternehmen wegen der Unterbindung gewerkschaftlicher Organisierung, wie in Kenia zu beobachten.5 Die schlechten Arbeitsbedingungen dieses Berufsstands sind der Preis für das Funktionieren der Plattformen – darauf weisen verschiedene Untersuchungen hin.6
Zugleich sehen wir einen Boom in der Entwicklung von AI-generierten Sprachmodellen und Chatbots. Google und Microsoft liefern sich einen Wettstreit um die Vorherrschaft in diesem Bereich, wobei Google nun ins Hintertreffen geraten zu sein scheint.7 Denn mit der Veröffentlichung des multimodalen KI-Modells GPT-4 im März hat sich das Unternehmen OpenAI, das von Microsoft ko-finanziert wird, einen Vorsprung verschafft. Das Programm ermöglicht es, viele Prozesse des alltäglichen Lebens an Maschinen auszulagern und Wissensbestände automatisiert aufzubereiten: von Rezeptideen, Hausarbeiten und Werbetexten bis hin zur Programmierung von Bots und Apps.8 Die Macher*innen versicherten, besonders viele Sicherheitsschlaufen durchlaufen zu haben. Doch zeigen nicht nur KI-generierte Bildkreationen bereits das Missbrauchspotenzial, das in solchen Anwendungen steckt.9 In einem Appell äußerten verschiedene Wissenschaftler*innen und Tech-Größen sodann auch ihre Skepsis und setzten sich für ein sechsmonatiges KI-Moratorium ein, um einen besseren Umgang mit der Technik zu finden.10 Einige Länder wie Italien verboten den Zugang gleich komplett.11 Zugleich ist in ChatGPT-Debatten weit seltener die Rede von der Auslagerung von Arbeitsprozesse in den globalen Süden, die unmenschliche Arbeitsbedingungen zeitigt.12
Ruhiger wurde es in den letzten Monaten um das Metaverse, dessen Mutterkonzern Meta bereits präventiv die gesellschaftlichen Auswirkungen seiner immersiven Technologien erforschen lassen will.13 Weiterhin war von dem Unternehmen zu hören, dass es sich einer dezentralen Twitter-Variante widmet und damit in das Microblogging-Geschäft einsteigen möchte.14 Nachdem Twitter immer mehr von finanziellen und technischen Problemen sowie Image-Schäden geplagt ist, sehen mehrere Kontrahent*innen ihre Chance. Die Idee, dass sich ein Großkonzern dezentral aufstellen will und so eventuell auch Nutzer*innendaten von anderen Instanzen abgreift, fordert den basisdemokratischen Anspruch des Fediverse heraus.15 Ganz neu ist die Idee nicht. So finanziert der Twitter-Gründer Jack Dorsey mit Bluesky bereits eine dezentralisierte Twitter-Alternative.16 Dezentralisierung bringt stets auch eine Verantwortungsdiffusion mit sich, die Entscheidungsprozesse undurchsichtig und Kontrolle schwer umsetzbar macht. Wie auch immer die Entwicklungen rund um ChatGPT und Dezentralisierung weitergehen: Das bislang kaum reguliertes Wettrüsten bedarf eine kritische Begleitung von Forschung und Zivilgesellschaft.
Strategische Interaktion: Aus der Praxis der Zivilgesellschaft
Antisemitismus-Tracker gelauncht: Im Kontext des Kriegs in der Ukraine erhalten auch antisemitische Botschaften sowie Deutungen seiner Ursachen und Konsequenzen Aufwind. Der Thinktank Polisphere widmet sich vor diesem Hintergrund der empirischen Erfassung von antisemitischen Inhalten im deutschsprachigen Raum, die sich auf den Krieg beziehen. Ein laufend aktualisiertes Dashboard bietet, flankiert von Analysen, einen Überblick zu antisemitischen und verschwörungsnahen Äußerungen, Narrativen und Akteuren in den sozialen Medien.17 Über 50 Akteure werden über zehn verschiedene Plattformen getrackt; bis April fand das Projekt bereits über 500 antisemitische Äußerungen. Aus den exemplarischen Inhalten werden wiederum Beobachtungen gewonnen und in erste Erkenntnisse übersetzt. Aufgemacht in einem benutzerfreundlichen Design, lässt sich so ein Eindruck von einem Teil antisemitischer Diskurse im digitalen Raum gewinnen. Das Projekt wird gefördert von der Stiftung Erinnerung, Verantwortung und Zukunft.
Projekt zur Einordnung von Verschwörungsmythen gestartet: Der Fabulant ist nicht nur der Name eines neuen Aufklärungsprojekts zu Verschwörungsmythen, das von dem Thinktank modus|zad verantwortet wird.18 Es ist auch der Name eines fiktiven Experten, der Besucher*innen der Webseite spielerisch durch die Themen leitet. Hierzu ordnet er Verschwörungsmythen nach Fantasie, Wahrheitspotential und Gefährlichkeit ein. 15 solcher Mythen – von QAnon über Reptiloiden bis hin zu Flat Earth und Insekten-Zwang – werden angeteasert, kontextualisiert und mit weiterführender Literatur verbunden. Das vom Hessischen Landesprogramm »Aktiv für Demokratie und Gegen Extremismus« geförderte Projekt wartet neben einem Archiv mit einer News-Sektion für relevante Meldungen und einer Exit-Sektion auf, die Informationen für Verschwörungsgläubige und zum Umgang mit ihnen gibt. Als BAG unterstützen wir dieses Projekt mit Datenanalysen und Hintergrundgesprächen.
Projekt zur Erkennung von Rechtsextremismus online beginnt: Das Institut für Medienpädagogik JFF begann im März mit der Ausspielung eines multimedialen Projektformats, das rechtsextreme Phänomene im Internet besser erkennen und einordnen soll. Der Elefant im Raum sensibilisiert für Themen, die Rechtsextreme in sozialen Medien ansprechen und informiert über deren Hintergründe. Anhand von zehn verschiedenen Themen werden monatsweise zwei Formate präsentiert, deren Aufmachung auf junge Nutzer*innen von digitalen Plattformen zugeschnitten ist. Unter dem Titel Nach den Rechten geschaut werden zum einen Instagram-Bilderserien zu abgrenzbaren Themen gepostet.19 Zum anderen rahmt ein Podcast im Gespräch mit eine*r Expert*in die jeweilige Mikro-Kampagne.20 Erste Themen waren Rechtsrock und bedrohte Männlichkeit. Als BAG unterstützen wir auch dieses Projekt mit Datenanalysen und Hintergrundgesprächen.
Technische Kuration: Entwicklungen bei den Plattformen
Deutsche Prebunking-Kampagne auf YouTube gestartet: Bereits im vergangenen Jahr führte der zu Google gehörige Thinktank Jigsaw zwei Prebunking-Kampagnen durch. Im Gegensatz zum Fact-Checking (Debunking) verfolgt Prebunking das Ziel, durch kurze Aufklärungsvideos bei den Rezipient*innen eine Resilienz gegen Desinformationen auszubilden, indem sie auf die wesentlichen Funktionsweisen von Manipulationstechniken hingewiesen werden. Der Vorteil von dieser Präventionsmaßnahme ist, dass sie Desinformationen bereits im Vorfeld begegnet. Während die erste Kampagne zur Aufklärung über Manipulationstechniken in enger Zusammenarbeit mit der Universitäten von Bristol und Cambridge entstanden,21 legte die zweite Kampagne einen regionalen Fokus auf Osteuropa. Hier widmete sich das Prebunking explizit rassistischen Narrativen gegen Geflüchtete aus der Ukraine im Kontext des russischen Angriffskriegs. Mitte Februar kündigte Jigsaw an, eine ähnliche Maßnahme noch in dieser Jahreshälfte in Deutschland durchführen zu wollen.22
Trump zurück auf Instagram, Facebook und YouTube: Zwei Jahre nach der Verbannung Donald Trumps aus dem digitalen Mainstream aufgrund des Vorwurfs der Anstiftung zur Gewalt sind die temporär gesperrten Accounts des Republikaners von Meta und Google/YouTube reaktiviert worden. Der Facebook-Konzern Meta rechtfertigte seine Entscheidung damit, dass die Gefahr, die zur Wahl 2021 von Trump ausging, heute nicht mehr gegeben sei. Die Öffentlichkeit solle hören können, was Politiker*innen sagen, damit sie an der Wahlurne eine fundierte Entscheidung treffen können, so Meta mit Blick auf die Möglichkeit, dass Trump wieder als Präsidentschaftskandidat aufgestellt werde.23 YouTube argumentierte ähnlich.24 Trump, der bereits zuvor von Twitter-CEO Musk replatformt wurde, nutzte bisher nur Facebook wieder intensiv (Stand: April 2023). Dass er sein einst präferiertes Medium Twitter (noch) nicht nutzt, dürfte mit seinem Exklusivvertrag mit dem floppenden Alternativmedium Truth Social zusammenhängen.25
Twitter-Algorithmus offengelegt: Nachdem Twitter-CEO Musk schon lange angekündigt hatte, den Empfehlungsalgorithmus der Plattform offenzulegen, war es am 31. März endlich soweit: Der Quellcode für viele Teile von Twitter, einschließlich des Algorithmus, der die Sichtbarkeit der Tweets steuert, die in der Timeline angezeigt werden, wurde öffentlich zugänglich gemacht. In einer Pressemitteilung rief »Twitter 2.0« eine »Ära der Transparenz aus«.26 Viele Überraschungen hielt diese vermeintliche Transparenzoffensive jedoch nicht bereit: Posts, die große Interaktion durch Kommentare auslösen, werden am stärksten belohnt; jene, die gemeldet werden, erhalten die stärksten Einschränkungen. Interessant für Hassdynamiken ist die Einteilung von Nutzer*innen in festgelegte Cluster. Dadurch werden die Inhalte personalisiert, die ein*e Nutzer*in angezeigt bekommt. Außerdem erfahren Inhalte Reichweite, wenn sie mit Interessen des Clusters korrelieren. Wenn allerdings Inhalte gepostet werden, die sich thematisch vom Clusterprofil unterscheiden – sogenannte »Out of Network«-Inhalte –, wird deren Reichweite beeinträchtigt.27 Dass der Algorithmus außerdem auf bestimmte Themen anschlägt, zeigen Einschränkungen in Konversationen zum Ukraine-Krieg.28
Politische Regulation: Maßnahmen von Staat und Behörden
Erwägung von Sanktionen gegen TikTok auch in der EU: Die Aussicht auf regulative Einschränkungen chinesischer Technologien hat mit der Ballon-Affäre im Februar eine neue Dimension erreicht.29 Während die Einschränkung des chinesischen Dienstes TikTok in den USA schon länger debattiert – und in Regierungskontexten bereits praktiziert – wird, steht dort auch ein Komplettverbot zur Debatte.30 Dem Unternehmen wird vorgeworfen, es könne Nutzer*innendaten an die chinesische Regierung übermitteln31 und Einfluss auf politische Propaganda durch artifizielle Amplifizierung nehmen.32 Ähnliche Vorwürfe gibt es auch aus der EU-Kommission, die der Plattform Sanktionen androht, wenn sie den Jugendschutz nicht einhält.33 Bereits jetzt dürfen Parlamentarier*innen der EU TikTok auf ihren Mobiltelefonen nicht mehr nutzen.34 Das EU-Gesetz über digitale Dienste (DSA) vereinfacht eine Sperrung von Plattformen in Zukunft. Innenministerin Nancy Faeser warnte vor der Nutzung von TikTok, schloss ein Verbot aber vorerst aus.35
Mit KI gegen jugendgefährendende Inhalte: Im vergangenen Jahr gingen die Landesmedienanstalten mit dem KI-Tool KIVI an den Start, das das Internet nach frei zugänglicher Pornografie und Extremismus durchforsten soll.36 Das Tool sucht automatisch nach potenziellen Rechtsverstößen im Netz, welche dann von den Mitarbeiter*innen der Anstalten bearbeitet werden. Insbesondere die fehlende Altersbeschränkung bei vielen Plattformen ist der Grund, warum viele Nutzer*innen nun Anzeigen ins Haus bekommen. Allein in Berlin und Brandenburg geschah dies aufgrund pornografischer Inhalte 150 Mal.37 Aber auch die Verwendung verfassungsfeindlicher Kennzeichen und volksverhetzende Inhalte fallen zu 37 Prozent der durch das Tool anvisierten Fälle ins Gewicht.38 Während das Verfahren interne Prozesse optimiert, gibt es zugleich Kritik, weil die Stichwortlisten nicht offen gelegt werden und ohne Transparenz ein Überwachungstool geschaffen werden könnte, das keiner öffentlichen Kontrolle unterliegt.39
BfJ strebt Bußgeldverfahren gegen Twitter an: Das Netzwerkdurchsetzungsgesetz (NetzDG) verpflichtet digitale Plattformen, die ihre Dienste in Deutschland anbieten, gegen volksverhetzende, verleumderische und (strafbare) herabwertende Beiträge vorzugehen, um Nutzer*innen vor Schaden zu schützen. Lassen Plattformen mit mehr als zwei Millionen Nutzer*innen illegale Inhalte 24 Stunden nach deren Meldung unbearbeitet oder legen die Unternehmen keine Transparenzberichte vor, droht ihnen ein Bußgeldverfahren. Mit der Musk-Übernahme von Twitter und der Streichung von Moderationspersonal und Public-Policy-Teams wurden Meldungen häufiger nicht mehr fristgerecht bearbeitet. Die Folge: Das Bundesamt für Justiz (BfJ) wirft dem Unternehmen einen fehlerhaften Umgang mit Nutzerbeschwerden sowie systemisches Versagen im Beschwerdemanagement vor.40 Die Vorwürfe werden vom Amtsgericht Bonn geprüft. Sollte es der Lesart des BfJ folgen, droht Twitter als erstes Unternehmen eine massive Strafzahlung, was internationale Signalwirkung haben könnte.
Analytische Reflexion: Für die Praxis relevante Studien
Neue Studie zu Offline-Online-Dynamiken von digitalem Hass: In einer groß angelegten Studie an der George Washington University untersuchte ein Forschungsteam anhand eines überwachten Machine-Learning-Modells, wann sich Hassrede in extremistischen Communities intensiviert.41 Im Zentrum standen die Plattformen Facebook, Instagram und VKontakte sowie Gab, Telegram und 4Chan. Die Studie stellte fest, dass mit Offline-Ereignissen wie Protesten und Wahlen häufig ein Anstieg von digitalem Hass einhergeht. Das Besondere: Der Hass trifft auch Gruppen und Kontexte, die scheinbar wenig mit dem zugrunde liegenden Ereignis zu tun haben. Beispielsweise stiegen geschlechtsbasierte Abwertungen nach dem Tod von George Floyd an. In den Ausmaßen treten zwischen den Plattformen keine signifikanten Unterschiede auf, trotz Moderationsbemühungen der Mainstream-Plattformen. Die Studie zeigt, dass Hass gegen bestimmte Gruppen nicht unbedingt themenspezifisch ist, sondern in Aufmerksamkeitszyklen gestreuter Hass zu erwarten ist. Auch könne eine restriktivere Moderation nur wenig an den Dynamiken ändern.
Globale Studie zu Angriffen auf Journalistinnen: Das renommierte Reuters Institute for the Study of Journalism veröffentlichte Ende 2022 eine empirische Studie zu digitalen Angriffen auf Journalistinnen. Hierzu interviewte ein Forschungsteam um Julie Posetti knapp 1.100 Journalistinnen aus 15 Ländern über ihre Erfahrungen mit geschlechtsspezifischer Online-Gewalt und wertete 2,5 Millionen Social-Media-Posts mit Bezug auf spezifische Fallstudien aus.42 Die Studie stellt fest, dass geschlechtsspezifische Online-Gewalt besonders schwer an der Schnittstelle von Frauenfeindlichkeit und anderen Formen der Diskriminierung wie Rassismus, Antisemitismus, Homophobie und Transphobie wiegt. Weiterhin wird gezeigt, dass Hass auf Journalistinnen am häufigsten durch koordiniertes Handeln verstärkt wird und Plattformen Betroffene nicht angemessen schützen. Die Studie wurde im Auftrag der UNESCO über einen Zeitraum von drei Jahren durchgeführt und gilt als die umfassendste Bestandsaufnahme der globalen Bedrohung für Journalistinnen.
Neues Buch zu den Mechanismen von Desinformation: Im Februar erschien das Buch Foolproof des Sozialpsychologen Sander van der Linden.43 Hierin vergleicht der Cambridge-Professor mit Schwerpunkt auf Persuasionsforschung Falschinformationen mit einem Virus, der die kognitiven Verzerrungen der Menschen ausnutzt. Anschließend an bestehende Forschung zum Confirmation Bias bekräftigt er das Argument, dass Menschen dazu neigen, Informationen zu akzeptieren, die mit vorhandenen Überzeugungen übereinstimmen und Informationen ablehnen, die das nicht tun. Dies sei auch der Grund, warum Medienkompetenz kein Allheilmittel sei. Denn nur etwa vier Prozent der Teilnehmenden an seinen Tests konnten alle ihnen vorgelegten Falschmeldungen richtig identifizieren. Van der Linden empfiehlt, durch gelegentliche Observation von desinformierenden Nachrichten sich dauerhaft stärker von ihnen zu immunisieren. Sich diese kleinen Dosen zu »impfen«, helfe am effektivsten für einen souveränen Umgang mit Informationen – weit mehr als das nachträgliche Entlarven. In anderen Worten: »Prebunking« geht vor »Debunking«.
Zitationsvorschlag: Forschungsstelle BAG »Gegen Hass im Netz«, »Maßnahmen gegen Hass im Netz: Das Wichtigste aus dem Winter 2023«, in: Machine Against the Rage, Nr. 2, Frühling 2023, DOI: 10.58668/matr/02.4.
Verantwortlich: Maik Fielitz, Harald Sick, Hendrik Bitzmann, Holger Marcks.
- Siehe dazu unsere Analyse im Blitzlicht der letzten Ausgabe.
- Siehe Antonia Mannweiler, »Was steckt hinter der großen Entlassungswelle der Tech-Firmen?«,auf: Tagesschau, 20. Jan. 2023, online hier.
- Siehe Fanny Potkin & Paresh Dave, »Twitter’s Top Global Policy Official Departs as Layoffs Continue«, auf: Reuters, 22. Dez. 2022, online hier; sowie Steven Lee Myers & Nico Grant, »Combating Disinformation Wanes at Social Media Giants«, in: New York Times, 14. Feb. 2023, online hier.
- Siehe »Content-Moderator-Summit: Warum die Unsichtbaren aufbegehren«, auf: Social Media Watchblog, 14. März 2023, online hier.
- Siehe »Content Moderators Sue Meta over Alleged ›‹Union-Busting‹ in Kenya«, auf: Reuters, 20. März 2023, online hier.
- Siehe z.B. Mary L. Gray & Siddharth Suri, Ghost Work. How to Stop Silicon Valley from Building a New Global Underclass (Boston: Houghton Mifflin Harcourt, 2019); sowie Sarah T. Roberts, Behind the Screen (New Haven: Yale University Press, 2019).
- Siehe Simon Hurtz, »Microsoft Bing: Das KI-Rennen mit Google ist eröffnet«, in: Süddeutsche Zeitung, 8. Feb. 2023, online hier.
- Siehe Patrick Hannemann, »So haben Sie die KI noch nie betrachtet: GPT-4 wird alles umkrempeln«, auf: CHIP, 21. März 2023, online hier.
- Siehe Julia Klaus, »Fake-Bild mit Daunenjacke. Warum das Papst-Foto nicht nur witzig ist«, auf: ZDF, 27. März 2023, online hier.
- Siehe Kim Rixecker, »Dramatischer Appell: Wissenschaftler und Tech-Größen fordern KI-Moratorium«, auf: t3n, 29. März 2023, online hier.
- Siehe Shiona McCallum, »ChatGPT Banned in Italy over Privacy Concerns«, auf: BBC News, 1. Apr. 2023, online hier.
- Siehe Daniel Leisegang, »Globaler Süden: Prekäre Klickarbeit hinter den Kulissen von ChatGPT«, auf: Netzpolitik, 20. Jan. 2023, online hier.
- »Supporting Independent Metaverse Research Across Europe«, auf: Meta, 7. Dez. 2022, online hier.
- Siehe Andrew Hutchinson, »Meta’s Developing a Decentralized Twitter Alternative, According to Reports«, auf: Social Media Today, 10. März 2023, online hier.
- Siehe Casey Newton, »Meta Is Building a Decentralized, Text-based Social Network«, auf: Platformer, 10. März 2023, online hier.
- Siehe Kay Nordenbrock, »Bluesky: Jack Dorseys Twitter-Alternative jetzt im App-Store – aber nur mit Einladung«, auf: t3n, 1. März 2023, online hier.
- Siehe www.antisemitismus-im-ukrainekrieg.de.
- Siehe www.derfabulant.de.
- Siehe dazu hier.
- Siehe hier.
- Siehe Fred Lewsey, »How to ›Inoculate‹ Millions against Misinformation on Social Media«, auf: University of Cambridge, 24. Aug. 2022, online hier.
- »Desinformation: Google weitet Kampagne gegen Fake News aus«, in: Handelsblatt, 13. Feb. 2023, online hier.
- Siehe Nick Clegg, »Ending Suspension of Trump’s Accounts With New Guardrails to Deter Repeat Offenses«, auf: Meta, 25. Jan. 2023, online hier.
- Siehe Nico Grant, »YouTube Restores Donald Trump’s Account Privileges«, in: New York Times, 17. März 2023, online hier.
- Siehe Mia Jankowicz, »Trump Wants to Ditch His Deal to Post First on Truth Social and Return to Twitter, Report Says«, auf: Business Insider, 23. Jan. 2023, online hier.
- Siehe »How the Twitter Algorithm Works in 2023«, auf: Steven Tey, 31. März 2023, online hier.
- Siehe Flavio, »Twitter’s Algorithm Source Code Explained«, auf: Tweet Hunter, 3. Apr. 2023, online hier.
- Siehe Kathy Barr, »Musk’s Twitter Downranks Twitter Spaces Regarding the ›Ukraine Crisis‹«, auf: Gizmodo, 3. Apr. 2023, online hier.
- Siehe »Spionage: China beschuldigt USA in Ballon-Affäre«, auf: ZEIT Online, 13. Feb. 2023, online hier.
- Siehe Claudia Sarre, »Anhörung im US-Kongress: Komplettverbot für TikTok?«, auf: Tagesschau, 24. März 2023, online hier.
- Siehe Emily Baker-White, »Leaked Audio from 80 Internal TikTok Meetings Shows that US User Data Has Been Repeatedly Accessed from China«, auf: BuzzFeed News, 17. Juni 2022, online hier.
- Siehe Emily Baker-White, »TikTok’s Secret ›Heating‹ Button Can Make Anyone Go Viral«, auf: Forbes, 20. Jan. 2023, online hier.
- Siehe »Lebensbedrohliche Inhalte: EU-Kommission droht Tiktok mit Verbot«, auf: ZDF, 20. Jan. 2023, online hier.
- Siehe »Chinesische App: EU-Parlament verbietet TikTok auf Dienstgeräten«, auf: ZEIT Online, 1. März 2023, online hier.
- Siehe »Videoplattform: Bundesinnenministerin Nancy Faeser mahnt zu Wachsamkeit bei TikTok«, auf: ZEIT Online, 22. März 2023, online hier.
- Siehe Sebastian Meineck, Tobias Schmid & Philine Janus, »KI in der Medienaufsicht: Was leistet das Tool KIVI?«, auf: Bundeszentrale für Politische Bildung, 6. Okt. 2022, online hier.
- Siehe Sebastian Meineck & Chris Köver, »Abschreckung: Rund 150 Strafanzeigen fürs Twittern von Pornos«, auf: Netzpolitik, 6. Apr. 2023, online hier.
- Siehe Leonhard Pitz, »SLM: Wie die künstliche Intelligenz KIVI nach Pornos und Hetze sucht«, auf: Flurfunk, 26. Feb. 2023, online hier.
- Siehe Sebastian Meineck, »Internet-Kontrolle: Medienaufsicht promotet Überwachungs-KI in der EU«, auf: Netzpolitik, 25. Mai 2022, online hier.
- Siehe, »Bundesamt für Justiz führt Bußgeldverfahren gegen die Twitter International Unlimited Company wegen unzureichenden Umgangs mit Nutzerbeschwerden«, auf: Bundesamt für Justiz, 4. Apr. 2023, online hier.
- Yonatan Lupu u.a., »Offline Events and Online Hate«, in: PLOS ONE, Nr. 1, Jg. 18 (2023), e0278511, online hier.
- Julie Posetti & Nabeelah Shabbir (Hg.), »The Chilling: A Global Study of Online Violence against Women Journalists« (Washington, D.C.: International Center for Journalists, 2022), online hier.
- Sander van der Linden, Foolproof. Why We Fall for Misinformation and How to Build Immunity (Schlumpfhausen: Fourth Estate, 2023).