Skip to main content

Als im Oktober 2022 bekannt gegeben wurde, dass die Mikroblogging-Plattform Twitter von Elon Musk übernommen wurde, überschlugen sich die Ereignisse sowohl innerhalb des Unternehmens als auch im digitalen Raum der Plattform. Viele Expert:innen befürchten seitdem, dass sich Twitter zu einer Kommunikationsplattform entwickeln könnte, in der Desinformation, Hassrede und Verschwörungstheorien einen größeren Raum einnehmen könnten als zuletzt. Und tatsächlich deuten erste Ad-hoc-Analysen der Inhalte von Twitter darauf hin, dass der Anteil von Hassrede, die Verbreitung von impfkritischen Inhalten und von Desinformationen bezüglich des Klimawandels  seit der Übernahme des Dienstes durch Musk zugenommen haben. Das wird nicht zuletzt auf Veränderungen in der Organisationsstruktur des Unternehmens, in den technischen Features der Plattform und der spezifischen Kultur, welche durch den neuen Eigentümer der Plattform propagiert wird, zurückgeführt: Zum einen gibt es Hinweise darauf, dass das Engagement der Firma im Bereich der Moderation von Inhalten deutlich zurückgefahren wurde – mit dem Verweis auf freie Meinungsäußerung, die damit gesichert werde.

Gleichzeitig wurde – zumindest vorübergehend – ein Feature eingeführt, durch welches die Verifizierung eines Nutzerprofils allein von der Zahlung einer Gebühr abhängig wäre, was unmittelbar zu einer Vielzahl an Accounts führte, die unter dem Qualitätssiegel der Verifizierung Desinformationen verbreiteten

Und schließlich ist die Frage, welche Nutzerkultur sich perspektivisch auf der Plattform entwickeln könnte, nicht unabhängig von den Normen und Werten, die der neue Eigentümer vorlebt, zu betrachten. So können von Musk hergestellte Bezüge zu Desinformationen oder Verschwörungstheorien auch als Signal verstanden werden, dass die propagierte freie Meinungsäußerung eben auch solche Inhalte umfasst.

Kontextabhängigkeit der Verbreitung von Verschwörungstheorien

Das aktuelle Beispiel der Twitter-Übernahme durch Elon Musk und ihrer unmittelbaren Folgen für die Strukturen und Inhalte öffentlicher Kommunikation auf der Plattform zeigt zweierlei:

Zum einen wird der Begriff der Verschwörungstheorie im Alltagsgebrauch und in öffentlichen und politischen Debatten in einer Weise genutzt, die mit dem wissenschaftlichen Verständnis von Verschwörungstheorien nicht unbedingt viel gemein haben muss. Im Alltagsgebrauch geht es häufig um die Ächtung einer spezifischen – und durchaus bekannten – Akteursgruppe oder einzelnen Akteuren als sogenannte Verschwörer oder um politische und sonstige strategische Ziele, wie z. B. die Untergrabung der Vertrauenswürdigkeit von Politiker:innen oder Inhalten, von denen man sich distanzieren will. In diesen Fällen wird der Vorwurf, es handele sich um eine Verschwörung, als eine bestimmte Art des Framings[1] genutzt, um ‚alternative‘ Erklärungen zu fördern. Im wissenschaftlichen Kontext und im Rahmen des NEOVEX Projektes orientieren wir uns hingegen an einem Verständnis von Verschwörungstheorien als Erklärungsvorschläge für historische, aktuelle oder prognostizierte Ereignisse, in denen davon ausgegangen wird, dass die Handlungen oder Prozesse bewusst von einer relativ kleinen und geheimen, mächtigen Gruppe von Verschwörern, die im Verborgenen agieren, vorangetrieben und kontrolliert werden, um verborgene Absichten umzusetzen – nämlich zu ihrem eigenen Vorteil und gegen das Wohl der Gesellschaft und ihrer Bürger oder gegen spezifische unschuldige Opfer zu handeln.[2]

Zum zweiten zeigt das Beispiel eindrücklich die Kontextabhängigkeit der Verbreitung von Verschwörungstheorien. Hier sind zum einen das allgemeine Design und die Architektur von Plattformen relevant, die über die Art und Weise, wie sie den Zugang zur Plattform und die Verbreitung von Inhalten ermöglichen und über ihre Art der Strukturierung von Inhalten wesentlich darüber bestimmen, welche Form von Kommunikationsinfrastruktur etabliert wird.[3] Eng damit verbunden sind Fragen der Governance von Plattformen, aber auch die Praktiken plattformspezifischer Nutzerkulturen und die von diesen Nutzer:innen gelebten Werte und Umgangsformen. Aus all diesen Aspekten resultieren plattformspezifische Affordanzen – also sinnhafte Nutzungsmöglichkeiten einer Plattform für bestimmte Akteure und Ziele in bestimmten Kontexten, die über die technischen Funktionalitäten hinausgehen und sich erst aus dem Zusammenspiel von Technik, gelebten Praktiken und den Wahrnehmungen der Nutzer:innen ergibt.   

Plattforminfrastrukturen und Affordanzen

Beispielsweise können auf Diskussionsplattformen wie 4Chan Nutzer:innen Diskussionen starten und zu ihnen beitragen, ohne sich zu registrieren zu müssen, und anonym Texte und Bilder verbreiten.[4] In ähnlicher Weise bietet Reddit Anonymität, da kein Benutzerkonto erforderlich ist, um auf die meisten Inhalte zuzugreifen, die über eine allgemeine Suche oder die Auswahl bestimmter Subreddits gefunden werden können. Für die Registrierung sind keine persönlichen Daten erforderlich, so dass mehrere und ungültige Personas durch dieselbe Person möglich sind.[5] Auf diese Weise ermöglichen die Plattformfunktionen einen offenen Zugang zu verschiedenen Formen von Inhalten, während die Verknüpfung dieser Inhalte mit bestimmten Akteuren durch die Richtlinien der Plattformen und die entsprechenden Funktionen, die ein hohes Maß an Anonymität bieten, verhindert wird.

Mikroblogging-Plattformen wie (bislang) Twitter und Social-Networking-Plattformen wie Facebook bieten den Nutzer:innen ebenfalls eine Infrastruktur zum Verbreiten von Inhalten an plattformspezifische Teilöffentlichkeiten (Facebook) oder sogar eine potentiell globale Öffentlichkeit (Twitter). Die Erfordernisse dieser Plattformen bringen aber dauerhafte Identitäten der postenden Personen mit sich, da sie eine Form der Registrierung und Selbstdarstellung über Benutzernamen oder Beschreibungen erfordern, die zu identifizierbaren Personas führen[6]  – auch wenn die Bandbreite zwischen Identifizierbarkeit als authentische Person und Pseudonymität weit ist, je nach konkreten Plattformanforderungen und dem Gebrauch von Privatsphäreeinstellungen durch die Nutzer:innen.

Genau an dieser Stelle hat die konkrete Veränderung der Verifizierungsfunktionalitäten durch Twitter, die bedeutete, dass nicht die Authentizität der Accountbetreiber:innen das maßgebliche Kriterium für die Vergabe des Verifizierungsstatus war, unmittelbare Auswirkungen auf das Verhalten der Nutzer:innen und die Gesamtkultur einer Plattform.

Nun ist es nicht so, dass nicht schon vor den aktuellen Veränderungen auf Twitter Verschwörungstheorien verbreitet worden wären. Beispielsweise zeigen Mahl und Kolleg:innen, dass auf der Plattform Verschwörungstheorien wie z.B. die Agenda 21 Theorie, die annimmt, dass die UN vorhabe, 90 % der Weltbevölkerung auszulöschen, diskutiert werden.[7] Auch in der Corona-Pandemie wurden zahlreiche Verschwörungstheorien auf der Plattform Twitter diskutiert, beispielsweise das sich verändernde Narrativ rund um die Verbreitung des 5G Mobilfunkstandards. Bruns und Kollegen zeigen für die Plattform Facebook auf, wie sich dieses Narrativ von der allgemeinen Vorstellung, dass 5G schlecht für die Gesundheit sei zu einer Verschwörungstheorie entwickelte, die davon ausgeht, dass 5G Technologien in Wuhan umfangreich zu Überwachungszwecken eingeführt worden wären und dass die COVID-19 Pandemie nur eine Tarnung sei, um die Konsequenzen des 5G Tests in Wuhan zu verschleiern.[8] Dieses Beispiel zeigt auch, wie die Narration von Verschwörungstheorien auf der Fortentwicklung von existierenden Vorbehalten basieren kann und wie diese, verbreitet durch alternative Nachrichtenangebote im Netz, prominente Politiker:innen oder Influencer:innen, eine breitere Nutzerschaft erreichen und – wie in der Folge des Aufrufs 5G-Masten zu zerstören – sehr reelle Konsequenzen herbeiführen können.

Mahl und Kolleg:innen weisen mit Bezug auf Twitter auch darauf hin, dass sich in den Diskursen rund um Verschwörungstheorien auf der Plattform bislang zwei grobe Typen bzw. Gruppen von Nutzer:innen unterscheiden ließen: einerseits Nutzer:innen, die sich an der Narration und Verbreitung von Vorschwörungstheorien beteiligen, zum zweiten eine Gruppe von Nutzer:innen, die Hashtags mit Bezug zu Verschwörungstheorien verwenden, sich in ihren Inhalten aber explizit gegen die jeweiligen Narrative aussprechen oder sich zumindest nicht unterstützend äußern.[9] Auch wenn Mahl und Kolleg:innen beobachten, dass Debunking Anstrengungen auf der Plattform öfter aus wissenschaftlichen, medizinischen oder journalistischen Kreisen stammen und diese Beiträge von den ‚Verschwörungsgläubigen‘ eher nicht übernommen oder weiterverbreitet werden, so fanden hier Narration und Gegenrede zumindest auf einer Plattform statt. Allerdings schließen die Autor:innen anhand des Retweet-Verhaltens zwischen beiden Gruppen, dass tatsächliche gruppenübergreifende Kommunikation kaum vorkommt. Die Image- und Diskussionsboards wie 4Chan oder Reddit schaffen demgegenüber von vornherein gruppenbasierte, abgeschlossene Diskussionsräume, deren Mitglieder ihre Zugehörigkeit zu einer jeweils spezifischen Gemeinschaft durch Insider-Kürzel und Slang demonstrieren, die von außen schwer zu erkennen und zu verstehen sind,[10] und in denen ‚Außenseiter‘ jenseits der subkulturellen Milieus und ihre Rede ausgeschlossen oder abgelehnt werden.

Fazit

Die Gegebenheiten der technischen Infrastrukturen, die Governance von Plattformen sowie die Praktiken und gelebten Werte innerhalb von plattformspezifischen Nutzerkulturen beeinflussen also in Kombination, welche Nutzungsweisen und welche Kommunikationsstile und Inhalte sich auf Plattformen eher verfestigen.

Veränderungen an den Plattformstrukturen, die zu schwieriger identifizierbaren bzw. verifizierbaren Accounts führen und Governance-Entscheidungen wie die Re-Aktivierung vormals wegen der Verbreitung von Desinformation, Hass und Hetze gesperrter Kanäle wie dem von Donald Trump oder anderen Kanälen, auf denen eindeutig rechtsextremes, antisemitisches oder verschwörungstheoretisches Gedankengut verbreitet wurde, lassen deshalb für die Zukunft nichts Gutes vermuten.


[1] Entman, R. M. (1993). Framing: Toward Clarification of a Fractured Paradigm. Journal of Communication, 43(4), 51–58. https://doi.org/10.1111/j.1460-2466.1993.tb01304.x

[2] Baden, C., & Sharon, T. (2021). BLINDED BY THE LIES? Toward an integrated definition of conspiracy theories. Communication Theory, 31(1), 82–106. https://doi.org/10.1093/ct/qtaa023

[3] Bossetta, M. (2019). The Digital Architectures of Social Media: Platforms and Participation in Contemporary Politics. University of Copenhagen, Faculty of Social Sciences.

[4] Tuters, M., Jokubauskaitė, E., & Bach, D. (2018). Post-Truth Protest: How 4chan Cooked Up the Pizzagate Bullshit. M/C Journal, 21(3). https://doi.org/10.5204/mcj.1422; Frischlich, L., Schatto-Eckrodt, T., & Völker, J. (2022). Rückzug in die Schatten? Die Verlagerung digitaler Foren zwischen Fringe Communities und „Dark Social“ und ihre Implikationen für die Extremismusprävention (Kurzgutachten Nr. 4; S. 1–38). CoRE-NRW connecting Research on Extremism in North Rhine-Westphalia.

[5] Prakasam, N., & Huxtable-Thomas, L. (2021). Reddit: Affordances as an Enabler for Shifting Loyalties. Information Systems Frontiers, 23(3), 723–751. https://doi.org/10.1007/s10796-020-10002-x

[6] Jasser, G., McSwiney, J., Pertwee, E., & Zannettou, S. (2021). ‘Welcome to #GabFam’: Far-right virtual community on Gab. New Media & Society, Online First. https://doi.org/10.1177/14614448211024546; Frischlich, L., Schatto-Eckrodt, T., & Völker, J. (2022). Rückzug in die Schatten? Die Verlagerung digitaler Foren zwischen Fringe Communities und „Dark Social“ und ihre Implikationen für die Extremismusprävention (Kurzgutachten Nr. 4; S. 1–38). CoRE-NRW connecting Research on Extremism in North Rhine-Westphalia.

[7] Mahl, D., Zeng, J., & Schäfer, M. S. (2021). From “Nasa Lies” to “Reptilian Eyes”: Mapping Communication About 10 Conspiracy Theories, Their Communities, and Main Propagators on Twitter. Social Media + Society, 7(2), 1–12. https://doi.org/10.1177/20563051211017482

[8] Bruns, A., Harrington, S., & Hurcombe, E. (2020). ‘Corona? 5G? or both?’: The dynamics of COVID-19/5G conspiracy theories on Facebook. Media International Australia, 177(1), 12–29. https://doi.org/10.1177/1329878X20946113

[9] Mahl, D., Zeng, J., & Schäfer, M. S. (2021). From “Nasa Lies” to “Reptilian Eyes”: Mapping Communication About 10 Conspiracy Theories, Their Communities, and Main Propagators on Twitter. Social Media + Society, 7(2), 1–12. https://doi.org/10.1177/20563051211017482

[10] Nissenbaum, A., & Shifman, L. (2017). Internet memes as contested cultural capital: The case of 4chan’s /b/ board. New Media & Society, 19(4), 483–501. https://doi.org/10.1177/1461444815609313 Frischlich, L., Schatto-Eckrodt, T., & Völker, J. (2022). Rückzug in die Schatten? Die Verlagerung digitaler Foren zwischen Fringe Communities und „Dark Social“ und ihre Implikationen für die Extremismusprävention (Kurzgutachten Nr. 4; S. 1–38). CoRE-NRW connecting Research on Extremism in North Rhine-Westphalia

Annett Heft

Author Annett Heft

More posts by Annett Heft