Maßnahmen gegen Hass im Netz: Das Wichtigste aus dem Sommer 2023
Aktuelle, kommentierte Ereignisse im Kampf gegen digitalen Hass und ausgewählte Publikationen zum Thema. Diesmal im Rückblick auf das letzte Quartal: Mittelkürzungen für zivilgesellschaftliche Projekte +++ Aufklärungskampagne #AFDnee +++ Neue Handreichung zu apokalyptischen Narrativen +++ Entwicklungen auf X (ehem. Twitter) +++ WhatsApp führt Kanalfunktion ein +++ Moderationspraxis im Israel-Gaza-Krieg +++ DSA für große Online-Plattformen in Kraft getreten +++ Entwurf für Digitale-Dienste-Gesetz liegt vor +++ Staatlicher Druck auf Telegram zur Löschung von Hamas-Propaganda +++ Neue Studien zu digitaler Polarisierung, zur Wahrnehmung von Desinformation und zu Effekten von Hass- und Gegenrede.
Der Sommer 2023 war geprägt von digitalen Migrationsbewegungen. Dazu gehört insbesondere, dass der Kurznachrichtendienst X, der bis vor kurzem noch auf den Namen Twitter hörte, zuletzt erneut eine Abwanderung vieler Nutzer*innen zu verzeichnen hatte. Bereits im vergangenen Jahr, kurz nach der Übernahme der Plattform durch Tech-Unternehmer Elon Musk, suchten viele User*innen nach Alternativen, die dann allerdings nicht den Durchbruch hatten, den sich viele erhofften. Während der anfängliche Hype um die Fediverse-Alternative Mastodon abgeebbt ist, steht inzwischen mit Bluesky Social eine weitere Option parat. In der aktuellen Beta-Version ist sie allerdings nur über einen Invite Code zugänglich. Was aber ist ausschlaggebend für diesen Andrang auf ein Netzwerk, das sich noch in der Testphase befindet? Neben den vielen technischen Änderungen, die unten ausführlicher zusammengefasst sind, ist auch das Verhalten von Musk selbst ein gewichtiger Push-Faktor für die Abwanderung.
So machte dieser jüngst insbesondere in Deutschland von sich reden, als er den Beitrag eines pro-russischen Propagandakanals teilte1: ein Video, das die Seenotrettung von Flüchtlingen im Mittelmeer durch deutsche Organisationen zeigt – versehen mit einer Caption, die zur Wahl der AfD aufruft, um einen »europäischen Suizid« zu verhindern. Solche Beiträge von Musk lassen sich kaum noch als Ausrutscher deuten. Schon öfter hat er jetzt als Broker von Propaganda fungiert. Aktuell lässt sich das auch an seinen Nachrichtenempfehlungen zur Situation in Israel/Palästina sehen. Hier schlug er Accounts vor, die mit antisemitischen und manipulativen Inhalten auffallen.2 Obendrein hat sich auch EU-Kommissar Thierry Breton eingeschaltet. Er forderte Musk auf, terroristische Inhalte auf X zu verbieten, wobei er sich auf den Digital Services Act beruft.3 Ob das Verhalten des CEOs allerdings als repräsentativ für die politischen Dynamiken auf der Plattform insgesamt gesehen werden kann, wird in Fachkreisen kontrovers diskutiert.4
Indessen haben sich viele X-User*innen auf Bluesky eingefunden, darunter auch die Antidiskriminierungsstelle des Bundes, die sich zum Abschied von der »Desinformationsplattform« X erklärte.5 Im Gegensatz zu anderen Alternativen läuft Bluesky zentral auf einem Server, wenngleich bereits eine Dezentralisierung angekündigt wurde. Im Oktober konnte die Plattform bereits 1,5-Millionen Nutzer*innen vermelden – Tendenz steigend.6 Ob der Schwung ausreicht, um sich oben zu etablieren, bleibt abzuwarten. Welche Probleme es bei einer digitalen Massenmigration geben kann, haben wir bereits im Winter mit Michael Seemann diskutiert.7 Er betonte, dass neben dem passenden Momentum auch die technischen Affordanzen der neuen Plattform wichtig seien. Sie könnten auch Konflikte bis hin zur Selbstzerfleischung stimulieren. Zeigen muss Bluesky auch, ob es – sollte das Wachstum konstant bleiben –, die Anforderungen an eine große Plattform erfüllen und trotzdem schwarze Zahlen schreiben kann. Davon ist die Aktiengesellschaft nämlich ebenso abhängig wie X –8 und da kann von einer Konsolidierung gerade keine Rede sein.
Strategische Interaktion: Aus der Praxis der Zivilgesellschaft
Mittelkürzungen für zivilgesellschaftliche Projekte: Im Sommer verbreitete sich schnell die Nachricht von finanziellen Einschnitten bei Projekten gegen digitalen Hass. Insgesamt 130 Millionen Euro werden im kommenden Jahr bei den Förderungen durch verschiedene Ministerien eingespart. Betroffen davon sind etwa die Beratungsstelle Hate Aid, die Amadeu Antonio Stiftung, Teile des Bundesfreiwilligendiensts und die Bundeszentrale für politische Bildung (bpb). Inzwischen werden die Kürzungen jedoch parteiübergreifend kritisch diskutiert. Auch in der Zivilgesellschaft regte sich Widerspruch. Eine Petition der Amadeu Antonio Stiftung, zu deren Erstunterzeichner*innen auch Das Nettz gehört,9 schlossen sich bereits über 70.000 Unterstützer*innen an.10 Der öffentliche Druck hatte denn auch Folgen: Erst kürzlich beschloss der Bundestag, dass Hate Aid im Jahr 2024 doch weiter gefördert werde.11 Auch nahm Innenministerin Nancy Faeser die angekündigten Einsparungen von 20 Millionen Euro vorerst wieder zurück. Allerdings stehen Haushaltsverhandlungen noch bevor.12
Aufklärungskampagne #AFDnee: Im Kontext des blauen Umfragehochs initiierte der Verein zur Förderung demokratischer Bildung und Kultur (Demokult e.V.) die Hashtag-Kampagne #AFDnee. Sie soll potenzielle Wähler*innen der AfD zum Nachdenken über die Konsequenzen ihrer Entscheidung anregen. Demokult bezieht sich damit auf ein Papier des Wirtschaftsforschers Marcel Fratzscher (DIW Berlin), wonach gerade diejenigen, die am ehesten die AfD wählen, am meisten unter den anzunehmenden Folgen ihres Programms zu leiden hätten.13 Insbesondere werden damit potenzielle AfD-Wähler*innen an ihre sozio-ökonomischen Interessen erinnert. Dazu setzt die Kampagne auf Bilder, in denen fiktive Menschen aus der Zukunft erklären, aus welchen, meist emotionalen Gründen sie die AfD gewählt haben und welche Folgen deren Politik auf ihre persönlichen und wirtschaftlichen Verhältnisse gehabt hätte. Kritisch zu hinterfragen wäre allerdings, wie sehr ausschlaggebend sozio-ökonomische Interessen für Wahlentscheidungen sind, die auch von anderen Bedürfnissen geprägt sein können.
Neue Handreichung zu apokalyptischen Narrativen: Ob des angeblichen Untergangs des christlichen Abendlandes, der Mär vom Bevölkerungsaustausch oder auch eines viel beschworenen Blackouts im Kontext der Energiekrise:14 Untergangsszenarien finden in vielen politischen Milieus ihren Anklang und können demokratiegefährdende Dimensionen annehmen. Das Zentrum Liberale Moderne hat sich daher im ersten Teil einer neuen Reihe – den »Narrativ Checks« – diesem Problemkomplex gewidmet. Die digitale Handreichung Apokalypse now what führt zunächst grundlegend in die historischen Ursprünge und politischen Bedeutungen von apokalyptischen Erzählungen ein, anschließend versammelt sie mehrere Beiträge, die die Rolle von Untergangsszenarien in verschiedenen Phänomenbereichen verorten.15 Neben der Apokalyptik in Verschwörungserzählungen, im Islamismus oder in der Prepper-Szene wird das Narrativ von der Klimakatastrophe als Sonderfall diskutiert. Weiterhin enthält die Broschüre eine Vorstellung des Projekts Good Gaming,16 praxisrelevante Einschätzungen und ein Glossar.
Technische Kuration: Entwicklungen bei den Plattformen
Entwicklungen auf X (ehem. Twitter): Wie einleitend schon angedeutet, überschlagen sich die Ereignisse um die Plattform X. Nicht nur, dass munter rebrandet wird (Twitter heißt jetzt X, der Vogel wurde durch ein stilisiertes X ersetzt, Tweets sind jetzt Posts), auch technisch wird weiter herumgespielt. So wurden erst kürzlich die Überschriften bei geteilten externen Inhalten abgeschafft, was die Identifikation seriöser Nachrichten erschweren dürfte.17 Zudem wurden weitere Mitarbeiter*innen entlassen, die mit der Eindämmung von Desinformation befasst waren.18 Auch soll erwogen werden, Grundfunktionen von X zu monetarisieren.19 Mit ersten Abos wird bereits in Neuseeland und den Philippinen experimentiert,20 angeblich in der Absicht, die vielen Bots damit zu begrenzen.21 Obendrein fiel der X-CEO im Kontext von Debatten über Antisemitismus auf, nachdem die Anti-Defamation League (ADL) X dazu aufgefordert hatte, die Moderation mit Blick auf antisemitische Inhalte zu verbessern. Musk warf daraufhin der jüdischen Organisation vor, der Reputation der Plattform zu schaden und Werbetreibende zu verschrecken. Antisemitismusforscher David Austin Walsh sieht mit dieser Täter-Opfer-Umkehr eine »rote Linie« überschritten.22 Zuletzt erwog Musk sogar eine Verleumdungsklage gegen die Organisation.23
WhatsApp führt Kanalfunktion ein: Während Instagram bereits Anfang des Jahres bekannt gab, eine Broadcast-Funktion für Creator*innen zur Verfügung zu stellen,24 zog nun auch WhatsApp, der Messenger von Meta, nach.25 Seit September ist es auch dort möglich, one to many zu kommunizieren. User*innen können sich nun einen Kanal erstellen und Nachrichten, Fotos oder Videos an ein größeres Publikum ausspielen, das wiederum über kleine Reactions Feedback geben kann. Inhalte werden allerdings nach 30 Tagen wieder gelöscht und sind dann nicht mehr für die Abonnent*innen einsehbar. Mit dieser Funktion schließt WhatsApp zur Konkurrenz von Telegram auf, die schon vor Jahren eine Kanalfunktion integriert hatte. Zuletzt machte der Dienst jedoch vor allem als Hort verschwörungsideologischer Inhalte von sich reden. Davon unterscheidet sich Whatsapp derzeit deutlich. Während sich auf Telegram Akteure wie Boris Reitschuster, Eva Herrmann und AUF1 oben in den deutschen Charts tummeln, senden auf WhatsApp vor allem Konzerne, Fußballvereine oder Nachrichtenportale.
Moderationspraxis im Israel-Gaza-Krieg: Im Zuge des Terrorangriffs der Hamas auf Israel ist TikTok in den Fokus medialer Aufmerksamkeit gerückt. Wohl nicht zuletzt, weil die audiovisuellen Inhalte von einer eher jungen Zielgruppe konsumiert werden.26 Außerdem wird dem Unternehmen eine Verbindung zur KP Chinas nachgesagt, weswegen mit der Plattform auch geostrategische Interessen assoziiert werden. Der sonst moderatorisch zurückhaltende Social-Media-Riese gab nun binnen einer Woche nach Kriegsbeginn bekannt, welche Maßnahmen er gegen Propaganda und Desinformation ergriffen habe.27 Nach eigenen Angaben wurden in neun Tagen mehr als 500.000 Videos entfernt und über 8.000 Live-Übertragungen gestoppt.28 Aber auch die konkurrierenden Dienste von Meta erklärten, ihre Moderationspraxis anzupassen.29 X hingegen setzt auf crowd-basierte Community Notes. Einer investigativen Recherche zufolge machen diese das Problem jedoch eher schlimmer; andere Studien sehen zumindest keine signifikanten Effekte, da die Inhalte meist zu spät bemerkt würden.30
Politische Regulation: Maßnahmen von Staat und Behörden
DSA für große Online-Plattformen in Kraft getreten: Seit Ende August gilt der Digital Services Act (DSA). Er etabliert auf europäischer Ebene rechtskräftige Standards für digitale Dienste. Zunächst gilt der DSA für Plattformen und Suchmaschinen, die mindestens zehn Prozent aller EU-Bürger*innen erreichen. Ab Februar 2024 wird der Geltungsbereich auf kleinere Dienste ausgeweitet und der bisher freiwillige Code of Practice on Disinformation verpflichtend.31 Der DSA beinhaltet primär einheitliche Regeln bezüglich illegaler Inhalte, Moderation und Transparenz. Dadurch sollen Meldeverfahren niedrigschwelliger gestaltet, alternative Empfehlungssysteme bereitgestellt und ein Datenzugang für die Forschung gewährleistet werden.32 Während erste Plattformen sich auf die Umsetzung einstellen,33 fürchten Kritiker*innen, dass sich kontroverse Themen in verschlossene Kommunikationsräume verlagern.34 Auch unser Beiratsmitglied Wolf Schünemann verweist auf die Fallstricke staatlich repressiver Maßnahmen gegen Desinformationen und macht darauf aufmerksam, dass Zensur ein beliebte Methode autoritärer Regime sei.35
Entwurf für Digitale-Dienste-Gesetz liegt vor: Die DSA-Umsetzung geht mit einigen Unklarheiten bei der nationalen und behördlichen Übersetzung einher. In Deutschland etwa legte das Bundesministerium für Digitales und Verkehr (BMDV) zwar im August den Entwurf für ein Digitale-Dienste-Gesetz vor, das den DSA ergänzen soll, allerdings ist immer noch unklar, welche Institutionen ab Februar als Digital Services Coordinator (DSC) fungieren werden. Als sicher gilt, dass die Bundesnetzagentur (BNtzA) eine zentrale Rolle spielen soll; vermutlich wird sie durch den Bundesdatenschutzbeauftragten (BfDI) und durch die Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ) unterstützt. Umstritten ist wiederum, wie die Beteiligung des Bundesamts für Justiz (BfJ) und der Landesmedienanstalten (LMA) aussehen soll. Ferner fordern Teile der Zivilgesellschaft auch eine Zusammenarbeit mit externen Fachleuten, die Einrichtung eines Beirats und eine kontinuierliche Evaluierung des DSC.36 Die EU forderte die Mitgliedstaaten indessen auf, die Umsetzung zu beschleunigen.37
Staatlicher Druck auf Telegram zur Löschung von Hamas-Propaganda: Bereits beim Aufstieg des Islamischen Staates spielte der Messenger-Dienst Telegram eine wichtige Rolle. Über ein weites Netzwerk wurden damit Propaganda-Statements und -Videos aus den Kriegsgebieten auf die Smartphones weltweit gebracht. Später brüstete sich Telegram damit, entschieden gegen islamistische Hetzer vorgegangen zu sein und die Plattform sicherer gemacht zu haben.38 Im Kontext des Israel-Gaza-Kriegs nimmt der Messenger wieder eine wichtige Rolle ein.39 Hier nun rühmt sich Telegram-CEO Pavel Durov damit, dass seine Plattform eine »einzigartige Quelle für Informationen aus erster Hand« sei.40 Deswegen würden Informationen der Hamas nicht gelöscht; u.a. warne diese ja auch israelische Bürger*innen vor Raketenbeschuss. Tatsächlich war Telegram bisher eine wichtige Plattform für die Terrororganisation. Politischer Druck ändert das gerade. So sollen nach einer Intervention des BKA wichtige Kanäle der Hamas gesperrt worden sein.41
Analytische Reflexion: Für die Praxis relevante Studien
Studien zu Polarisierung in Kooperation mit Facebook: Seit dem Skandal um Cambridge Analytica im US-Wahlkampf 2016 hat Facebook seine Programmierschnittstelle dauerhaft für Forscher*innen geschlossen. In diesem Sommer erschienen erstmals seit der verhängten Blockade vier neue Studien, für die Meta die empirische Grundlage bereitstellte. Die Arbeiten experimentierten u.a. mit manipulierten Variablen, um zu untersuchen, welchen Einfluss die algorithmische Kuratierung des Newsfeeds,42 das erneute Teilen von Postings (Reshares)43 und sogenannter like-minded content44 auf politische Polarisierung haben. Sie kommen weitestgehend zum Schluss, dass sie zwar stark bedingen, was den Nutzer*innen angezeigt wird, ihre politischen Überzeugungen aber nicht signifikant veränderten. Ein viertes Experiment stellte hingegen eine ideologische Polarisierung beim Konsum von Nachrichten fest.45 Kritiker*innen bemängeln, dass Verallgemeinerungen wegen des engen Untersuchungszeitraums schwierig seien,46 aber auch den intransparenten Prozess der Datenbereitstellung.47
Studie zur Wahrnehmung von Desinformation: Im August hat das Projekt Upgrade Democracy der Bertelsmann-Stiftung eine neue Studie zum Thema Desinformation in der EU vorgestellt.48 Insgesamt wurden über 13.000 Bürger*innen aus allen Mitgliedstaaten zu ihrer Wahrnehmung von Desinformation, aber auch zu ihrer Zufriedenheit mit dem Zustand der Demokratie befragt. Über ein Drittel gab dabei an, häufig auf desinformierende Inhalte zu stoßen. Die Hälfte der Befragten sei sich zudem unsicher, inwieweit sie Informationen aus dem Internet vertrauen können. Dennoch stellen weniger als die Hälfte die Informationen auf den Prüfstand; noch weniger greifen zu Interventionen. Der Soziologe Nils C. Kumkar ordnete die Ergebnisse und die daraus abgeleiteten Empfehlungen kritisch ein: Er verwies dabei darauf, dass die Befragung lediglich auf der Wahrnehmung von Desinformation beruhe – über die tatsächliche Verbreitung und Wirkung von Desinformation sage das wenig aus. Es müsse außerdem hinterfragt werden, inwieweit der Diskurs über Desinformation selbst die Wahrnehmung von Desinformation präge.49
Studie zu Effekten von Hass- und Gegenrede: Im September veröffentlichten Kommunikationswissenschaftler*innen der Universität Wien eine Studie, die sich mit den Auswirkungen von Hass- und Gegenrede befasst.50 Konkret gehen sie darin der Frage nach, inwiefern sich Hassrede auf die Vorurteile der Rezipient*innen auswirken. Außerdem wird untersucht, welchen Effekt Gegenrede auf die Wahrnehmung von sozialen Gruppen hat, gegen die sich Hassinhalte richten. Dafür testen sie, ob sich die Ergebnisse früherer Studien, die sich mit Vorurteilen gegenüber Menschen muslimischen Glaubens und Geflüchteten beschäftigten, auch in Bezug auf Chines*innen und Transpersonen replizieren lassen. Die Ergebnisse legen nahe, dass die Wahrnehmung von Hassinhalten zum einen vom nationalen Kontext abhängt, zum anderen davon, welche soziale Gruppe genau online abgewertet wird. Auffallend ist jedoch, dass Personen, die Hassrede bereits im Vorfeld als störend wahrgenommen haben, Gegenrede in Kommentarspalten eher begrüßen. Auf Personen hingegen, die als vorurteilsbehaftet eingeordnet werden, hat Gegenrede einen gegenteiligen Effekt: Ihre Einstellungen gegenüber der sozialen Gruppe radikalisierten sich noch, so dass die Autor*innen sogar von einem »Bumerang-Effekt« sprechen.
Zitationsvorschlag: Forschungsstelle BAG »Gegen Hass im Netz«, »Maßnahmen gegen Hass im Netz: Das Wichtigste aus dem Sommer 2023«, in: Machine Against the Rage, Nr. 4, Herbst 2023, DOI: 10.58668/matr/04.4.
Verantwortlich: Wyn Brodersen, Lena-Maria Böswald, Maik Fielitz, Harald Sick, Holger Marcks.
- Siehe @elonmusk | 29. Sept. 2023 | 16:04.
- Siehe Malte Mansholt, »›Geh weinen, Jude‹: Elon Musk empfiehlt antisemitische Twitterer als Israel-Quelle«, in: Stern, 9. Okt. 2023, online hier.
- Siehe »Fake-News über Krieg in Israel: EU fordert von Online-Dienst X härteres Durchgreifen gegen Fake-News«, auf: Tagesschau, 11. Okt. 2023, online hier.
- Vgl. dazu »›Twitter-Exodus‹ und Desinformation«, auf: Science Media Center Germany, 17. Okt. 2023, online hier.
- Siehe Antidiskriminierungsstelle des Bundes, »Antidiskriminierungsstelle des Bundes verlässt Online-Plattform ›X‹«, auf: Antidiskriminierungsstelle, 11. Okt. 2023, online hier.
- Siehe dazu Bluesky Statistics v0.63, online hier.
- Siehe Forschungsstelle BAG »Gegen Hass im Netz« feat. Michael Seemann, »Black Hole Musk. Was bedeutet Twitter 2.0 für den Hass im Netz«, in: Machine Against the Rage, Nr. 1, Winter 2023, online hier.
- Siehe dazu Martin Fehrensen & Simon Hurtz, »Der blaue Vogel ist tot, lang lebe der blaue Himmel«, auf: Social Media Watchblog, 5. Okt. 2023, online hier.
- Zu den weiteren Unterzeichner*innen gehören u.a. ichbinhier e.V., Bundesnetzwerk Zivilcourage, Gesellschaft für Medienpädagogik und Kommunikationskultur (GMK).
- Amadeu Antonio Stiftung, »Kein Sparkurs bei politischer Bildung – demokratische Brandmauer halten!«, Petition auf: Campact, online hier.
- Siehe »Haushalt 2024: ›Hate Aid‹ wird weiter gefördert« (Haushalt — Ausschuss — hib 782/2023), auf: Deutscher Bundestag, 18. Okt. 2023, online hier.
- Siehe Ralf Pauli, »Bundeskongress Politische Bildung: Faeser nimmt Kürzungen zurück«, in: Die Tageszeitung: taz, 3. Nov. 2023, online hier.
- Siehe Marcel Fratzscher, »Das AfD-Paradox: Die Hauptleidtragenden der AfD-Politik wären ihre eigenen Wähler*innen«, in: DIW aktuell, Nr. 88, 21. Aug. 2023, online abrufbar hier.
- Siehe dazu Forschungsstelle BAG »Gegen Hass im Netz«, »Vom Volkstod zum Blackout? Rechtsextreme Bedrohungsnarrative im Wandel«, in: Machine Against the Rage, Nr. 0, Herbst 2022, online hier.
- Zentrum Liberale Moderne, »Apokalypse Now What«, Aug. 2023, online abrufbar hier.
- Siehe auch »Good Gaming– Well Played Democracy«, auf: Amadeu Antonio Stiftung, online hier.
- Musk macht keinen Hehl daraus, dass er herkömmlichen Medien gegenüber sehr kritisch eingestellt ist (siehe z.B @elonmusk | 2. Okt 2023 | 03:45); er selbst wirbt für das Konzept des partizipativen Journalismus (siehe z.B @elonmusk | 4. Okt 2023 | 09:47). Allerdings besteht der Verdacht, ihm gehe es dabei nicht darum, Medien demokratischer zu machen, sondern darum, die herkömmlichen Medien mit alternativen Informationen zu verdrängen – und damit auch jegliche journalistischen Güteregeln.
- Erin Woo, »Musk’s X Cuts Half of Election Integrity Team After Promising to Expand It«, auf: The Information, 27. Sept. 2023, online hier.
- Auch andere Plattformen ziehen ähnliche Modelle in Erwägung; siehe etwa Sam Schechner, »Meta Plans to Charge $14 a Month for Ad-Free Instagram or Facebook«, in: The Wall Street Journal, 3. Okt. 2023, online hier.
- Siehe »Versuch beim Vorgehen gegen Bot-Accounts: Twitter-Nachfolger X testet Gebühr für Gratis-Nutzer«, auf: Redaktionsnetzwerk Deutschland, 19. Okt. 2023, online hier.
- Siehe Marlena Wessollek, »Elon Musk: X testet Gebühren für Grundfunktionen«, in: Zeit, 18. Okt. 2023, online hier.
- David Austin Walsh, »Elon Musk Has Crossed a Line«, in: New York Times, 11. Sept. 2023, online hier.
- Siehe @elonmusk | 5. Sept. 2023 | 00:24.
- Siehe »Neu: Broadcast-Channels – Eine weitere Möglichkeit für Creator*innen, die Beziehung zu ihren Follower*innen zu vertiefen«, auf: Instagram, 16. Feb 2023, online hier.
- Siehe »WhatsApp-Kanäle weltweit nutzen«, auf: WhatsApp, 13. Sept. 2023, online hier.
- Siehe etwa Farangies Ghafoor & Oliver Voß, »Deutschland-Chefs der Videoplattform: ›Nein, China hat keinen Einfluss auf Tiktok‹«, in: Tagesspiegel, 16. Okt. 2023, online hier.
- Siehe »Our Continued Actions to Protect the TikTok Community During the Israel-Hamas War«, auf: TikTok, 15. Okt 2023, online hier.
- Siehe »Der Krieg in sozialen Medien. TikTok löscht eine halbe Million Videos binnen einer Woche«, in: Spiegel, 16. Okt. 2023, online hier.
- Siehe »Meta’s Ongoing Efforts Regarding the Israel-Hamas War« auf: Meta, 13. Okt. 2023, online hier.
- Vgl. Yuwei Chuai u.a., »The Roll-Out of Community Notes Did Not Reduce Engagement With Misinformation on Twitter«, auf: arXiv, 16. Juli 2023, online hier.
- Siehe »Code of Practice on Disinformation: New Reports Available in the Transparency Centre«, auf: Europäische Kommission, 26. Sep 2023, online hier.
- Zu diesem Problem legte das Weizenbaum-Institut in Zusammenarbeit mit über 70 weiteren Beteiligten aus der Forschung im vergangenen Oktober ein 20 Punkte umfassendes Policy Paper vor: Ulrike Klinger & Jakob Ohme, »Was die Wissenschaft im Rahmen des Datenzugangs nach Art. 40 DSA braucht: 20 Punkte zu Infrastrukturen, Beteiligung, Transparenz und Finanzierung«, auf: SSOAR, 2023, online hier.
- Siehe dazu Pauline Schinkels, »TikTok und die EU. Die Uhr tiktokt«, in: Zeit, 25. Aug. 2023, online hier, Emma Woollacott, »Meta Gives EU Users More Control Over Their Facebook And Instagram Feeds«, in: Forbes, 23. Aug. 2023, online hier; sowie Jon Porter, »Instagram Is Adding a Chronological Feed for Reels and Stories in Europe«, auf: The Verge, 22. Aug. 2023, online hier.
- Siehe Jakob Schirrmacher, »Wenn der Kampf gegen ›Desinformation‹ dazu dient, Meinungen zu unterdrücken«, in: Welt, 28. Jan. 2023, online hier.
- Siehe Wolf J. Schünemann, »In memoriam Li Wenliang: Desinformation zu bestrafen, ist die falsche Therapie«, auf: Netzpolitik, 30. März 2020, online hier.
- Siehe z.B. Stiftung Neue Verantwortung, »Stellungnahme: So wird der Entwurf zum deutschen Digitale-Dienste-Gesetz noch stärker«, auf: Stiftung NV, 21. Aug. 2023, online hier.
- Siehe »Kampf gegen illegale Online-Inhalte: EU-Mitgliedstaaten sollen die Umsetzung des Gesetzes über digitale Dienste beschleunigen«, auf: Europäische Kommission, 19. Okt. 2023, online hier.
- Siehe Counter Extremism Project, Terrorists on Telegram, Mai 2017, online abrufbar hier.
- Siehe Ingrid Lunden, »Telegram CEO, a Criticised but Cited Source of Hamas Videos, Says App Will Continue to Host ›War-Related Content‹«, auf: TechCrunch, 12. Okt. 2023, online hier.
- Siehe Du Rove’s Channel | 13. Okt 2023 | 16:55.
- Siehe Max Hoppenstedt, »Telegram sperrt Hamas-Kanäle nach Anordnung des BKA«, in: Spiegel, 17. Okt. 2023, online hier.
- Siehe Andrew M. Guess u.a., »How Do Social Media Feed Algorithms Affect Attitudes and Behavior in an Election Campaign?«, in: Science, Nr. 6656, Jg. 381 (2023), S. 398–404, online hier.
- Siehe Andrew M. Guess u.a., »Reshares on Social Media Amplify Political News but Do Not Detectably Affect Beliefs or Opinions«, in: Science, Nr. 6656, Jg. 381, S. 404–408, online hier.
- Siehe Brendan Nyhan u.a., »Like-Minded Sources on Facebook Are Prevalent but Not Polarizing«, in: Nature, Nr. 7972, Jg. 620 (2023), S. 137–44, online hier.
- Siehe Sandra González-Bailón u a., »Asymmetric Ideological Segregation in Exposure to Political News on Facebook«, in: Science, Nr. 6656, Jg. 381 (2023), S. 392–398, online hier.
- Siehe z.B. Casey Newton, »How Facebook Does (and Doesn’t) Shape Our Political Views«, auf: Platformer, 9. Feb. 2023, online hier.
- Siehe z.B. Kai Kupferschmidt, »Does Social Media Polarize Voters? Unprecedented Experiments on Facebook Users Reveal Surprises«, auf: Science, 27. Juli 2023, online hier.
- Siehe Kai Unzicker, Desinformation: Herausforderung für die Demokratie. Einstellungen und Wahrnehmungen in Europa, Bertelsmann-Stiftung, 2023, online hier.
- Siehe @FogelVlug | 10. Aug 2023 | 10:24.
- Siehe Svenja Schäfer u.a., »Can We Counteract Hate? Effects of Online Hate Speech and Counter Speech on the Perception of Social Groups«, in: Communication Research, online hier.