Digitale Foren wie 4chan und Reddit und soziale Medien wie das nun unter dem Namen „X“ firmierende Twitter spielen eine wichtige Rolle in der Erzählung und Weiterverbreitung von Verschwörungstheorien. Social-Media-Plattformen können dabei sowohl geschützter Entstehungsraum für Verschwörungstheorien sein, wenn sie radikalisierten User*innen unmoderierte, (halb-)öffentliche digitale Räume zur Verfügung stellen, als auch als Hauptmedium zu deren Verbreitung fungieren. Die QAnon-Erzählung ist ein prominentes Beispiel dafür, wie eine neuartige Verschwörungstheorie zunächst in den Nischen digitaler Plattformen entwickelt wurde und sich danach über verschiedene Social-Media-Plattformen ausbreitete und so einem größeren Publikum zugänglich wurde.[1] In diesem exemplarischen Fall fanden sich die Anfänge der Verschwörungstheorie auf der Diskussionsplattform 4chan. Dies ist kein Zufall. Aufgrund seiner Toleranz gegenüber gewaltverherrlichenden und abwertenden Inhalten wird 4chan in der Forschung auch als „Dunkles Soziales Medium“ betrachtet.[2] Jedoch führte erst die weitere Verbreitung auf Plattformen mit breiterer Nutzer*innenbasis wie Reddit, Twitter, Facebook und Youtube zu einer größeren Aufmerksamkeit für QAnon.
Während derartige Verbreitungsdynamiken neuartiger, im Internet geborener Verschwörungstheorien oft im Schlaglicht der Forschung stehen, können auch ältere Narrative online an Popularität gewinnen. So etwa die Verschwörungstheorien des „Großen Austauschs“ und der „Neuen Weltordnung“, die eine geheime jüdische Elite beschuldigen die Weißen und christlichen Einwohner*innen der „westlichen Welt“ zu unterjochen und austauschen zu wollen. Das hierdurch transportierte rassistische und antisemitische Weltbild kann zur Online-Radikalisierung führen und gehörte zu den Rechtfertigungen, die der Attentäter von Christchurch 2019 in seinem „Manifest“ für seinen Anschlag anführte[3]. Doch auch wenn der inhaltliche Kern einer Verschwörungstheorie immer gleich bleibt, kann sich der sprachliche Stil der Erzählung mit der digitalen Plattform, auf der sie diskutiert wird, verändern.
Plattformkontext und Sprachstil
Jede Social-Media-Plattform weist unterschiedliche technische und soziale Eigenschaften auf, die zur Verbreitung von Verschwörungstheorien oder deren Eindämmung beitragen können (siehe auch den vorherigen Beitrag zu Plattforminfrastrukturen und die Verbreitung von Verschwörungstheorien in diesem Blog). Neben der vorhandenen (Twitter) oder laxen (4chan) Inhaltsmoderation kann auch – wie im Fall von 4chan – eine höhere Anonymität und Flüchtigkeit der Kommunikation einer ungestraften Verbreitung menschenverachtender Inhalte förderlich sein. Diese Tendenz wird auf Imageboards wie 4chan dadurch verstärkt, dass durch eine vollständige Anonymität der User*innen, sowie die schnelle, regelmäßige Löschung von Posts eine gesellschaftliche Sanktionierung von menschenverachtenden Aussagen ausgesetzt wird. Eine wichtige Rolle in der politischen Kommunikation in Online-Communities spielt auch die Nutzer*innenkultur, die sich aus dem Zusammenspiel der individuellen Nutzer*innen, der Plattform-Governance und den jeweiligen technischen Eigenschaften entwickelt. Die Interaktion zwischen infrastrukturellen Gegebenheiten einer Plattform und der Nutzer*innenbasis hat einen Einfluss darauf wie Inhalte kommuniziert werden. So können rassistische und antisemitische Inhalte, ob nun ideologisch gefestigt oder als Teil eines rohen, sich teilweise bewusst als grenzwertig verstehenden Internethumors, auf 4chan unverhohlen propagiert werden. Auf Twitter hingegen ist eine Verschleierung der Sprache durch Dogwhistles oder Anspielungen vonnöten, um der Moderation zu entgehen. Den Einfluss, den das Zusammenspiel plattformspezifischer Kontextfaktoren und deren Aneignung durch die Nutzer*innen auf den Inhalt der verbreiteten Verschwörungstheorien hat, nennen Daniela Mahl und Kolleg*innen die „Plattformisierung“ von Verschwörungstheorien.[4]
Eine bedeutende Manifestation der Nutzer*innenkultur ist der Stil des sprachlichen oder visuellen Ausdrucks, der in der Diskussion verschwörungsbezogener Inhalte genutzt wird. Als Sprachstil wird hier die Grammatik, Phonologie und Wortwahl verstanden, die unterhalb der Sachebene eines Textes die Art der Kommunikation bestimmt.[5] Während der faktische Inhalt davon unabhängig sei kann, beeinflusst der Sprachstil die Aufnahme von Informationen bei den Empfänger*innen. Ebenfalls kann gerade in verschwörungstheoretischen Communities durch die Nutzung eines bestimmten sprachlichen Stiles eine Gruppenzugehörigkeit suggeriert werden.
Wie unterscheidet sich der linguistische Stil zwischen verschiedenen Plattformen?
Um die stilistischen Eigenschaften verschwörungsbezogener Online-Kommunikation zu untersuchen haben wir Posts verglichen, die zwischen 2011 und 2021 mit Bezug auf die Theorien des „Großen Austauschs/White Genocide“ und der “New World Order/Illuminati“ auf den Plattformen 4chan, Reddit und Twitter gepostet wurden. In unserer Analyse betrachten wir englischsprachige Posts und Kommentare von 4chan (N = 129.770) und Reddit (N = 162.446), sowie Tweets von Twitter (N = 3.891.474), deren Wortwahl auf einen Bezug zu den genannten Verschwörungstheorien schließen ließen. Um relevante Posts zu identifizieren wurden in einem ersten Schritt alle Posts gesucht, die Wörter mit Bezug auf den „Großen Austausch“ oder „New World Order“ beinhalteten. Diese wurden in der Folge mithilfe einer Machine-Learning-Klassifikation automatisiert als „verschwörungsbezogen“ oder „nicht verschwörungsbezogen“ kodiert. Die Stichprobe umfasst dabei alle Nutzer*innenbeiträge, die in zwei zufällig gewählten Wochen pro Beobachtungsjahr öffentlich gepostet wurden. Die so identifizierten Posts wurden dann mit dem diktionärsbezogenen Analysetool LIWC (Linguistic Inquiry and Word Count)[6] hinsichtlich ihrer sprachlichen Gewissheit, ihrer Komplexität und ihrer Emotionalität untersucht. Der resultierende Gewissheits-Score misst die Nutzung von Wörtern und Phrasen, die eine geringe Nuancierung („Schwarz-Weiß-Denken“) und eine hohe Sicherheit bezüglich des eigenen Arguments erkennen lassen. Emotionalität wird durch die Nutzung emotional besonders positiv oder negativ konnotierter Wörter gemessen. Komplexität analysiert die Länge der Sätze und die Anordnung des Satzbaus. Die Ergebnisse der Untersuchung sind in Abbildung 1 zu sehen.
Grafik a zeigt, dass verschwörungsbezogene 4chan-Inhalte im Median den höchsten Gewissheits-Score aufweisen, gefolgt von Reddit und Twitter. Die Unterschiede sind jeweils statistisch signifikant. Sowohl auf Reddit als auch auf 4chan kommunizieren Nutzer*innen eher in thematisch und personell homogenen Sub-Communities, wie sie für Diskussionsforen typisch sind. Zumindest 4chan ist bekannt dafür, dass die dort aktiven Nutzer*innen größtenteils jung, männlich, weiß und tendenziell politisch rechts eingestellt sind.[7] Die Selbst-Selektion in homogene Diskussionsräume befördert hier augenscheinlich die radikale und weniger nuancierte Kommunikation. Abbildung d,links zeigt, dass der Grad der Gewissheit über den gesamten Zeitverlauf auf 4chan und Reddit etwa konstant bleibt. In Twitter allerdings steigt der Grad an Gewissheit in den Tweets nach einem anfänglichen Absinken spätestens ab 2016 an. Diese Annäherung an das Niveau von 4chan fällt damit in den Zeitraum der US-Präsidenschaftswahl, die Donald Trump schließlich gewann. Weiterhin zeigt sich, dass auf Twitter der Gewissheits-Score im Durchschnitt über dem Reddits liegt, was scheinbar einer Vielzahl an extremen Ausreißern geschuldet ist.
Grafik b zeigt, dass die sprachliche Komplexität auf 4chan am höchsten ist. Auf Twitter, dessen Nutzer*innenbasis von Influencer*innen, Medienvertreter*innen und politischen Akteur*innen dominiert ist, ist die Komplexität wieder leicht, aber statistisch signifikant.
Die Emotionalität (Grafik c) in den Posts auf 4chan und Twitter unterscheidet sich nicht signifikant. Reddit weist aber trotz einer höheren Schwankung zwischen den Posts eine signifikant geringere Emotionalität auf als die beiden anderen Plattformen. Die längsschnittliche Betrachtung in Grafik d, rechts zeigt, dass auf Twitter insbesondere in den frühen Beobachtungsperioden eine höhere Emotionalität gemessen wird als auf Reddit. Auf Twitter gibt es im Gegensatz zu 4chan und Reddit keine direkte Selbst-Selektion der Nutzer*innen in einzelne Diskussionsforen, weshalb trotz oder durch die individuelle algorithmische Sortierung der User-Feeds eine größere Anzahl unterschiedlicher Positionen aufeinandertreffen kann, was wiederum ein Grund für die gemessene höhere Emotionalität in den Diskussionen um die untersuchten Verschwörungstheorien sein könnte.
Fazit
Digitale Foren und soziale Medien spielen eine wichtige Rolle bei der Verbreitung von Verschwörungstheorien. Dabei beeinflusst jede einzelne Plattform die Kommunikation der Nutzer*innen durch ihre individuellen Funktionslogiken. Durch die Interaktion der Nutzer*innen mit den spezifischen technischen Möglichkeiten und Moderationspolitiken der Plattformen[8] und damit, wie sich andere Nutzer*innen auf der Plattform verhalten, entwickeln sich jeweils spezifische Nutzer*innen-Kulturen, in denen über das gleiche Thema unterschiedlich gesprochen wird. Wir haben in diesem Beitrag beleuchtet, wie sich der Stil der Kommunikation über bekannte völkische und antisemitische Verschwörungstheorien auf unterschiedlichen Social-Media-Plattformen entwickelt hat. Es zeigt sich, dass sich der Sprachstil, in dem über Verschwörungstheorien diskutiert wird, zwischen den Plattformen teils stark unterscheidet, sich aber auch im Zeitverlauf verändern kann. Dies kann unter anderem mit den unterschiedlichen technischen Eigenschaften der Plattformen (z.B. ein Zeichenlimit auf Twitter) und mit Radikalisierungstendenzen homogener Nutzer*innen (4chan) begründet werden. Es ist daher lohnenswert nicht nur das „was“ der Kommunikationsinhalte zu erforschen, sondern auch das „wie“, um Verbreitungsstrategien und –dynamiken in den Kommunikationen demokratiefeindlicher Akteur*innen zu verstehen.
[1] de Zeeuw, D., Hagen, S., Peeters, S., & Jokubauskaite, E. (2020). Tracing normiefication: A cross-platform analysis of the QAnon conspiracy theory. First Monday. https://doi.org/10.5210/fm.v25i11.10643
[2] Frischlich, L., Schatto-Eckrodt, T., Völker, J., & Döring, M. (2022). Rückzug in die Schatten? Die Verlagerung digitaler Foren zwischen Fringe Communities und “Dark Social” und ihre Implikationen für die Extremismusprävention (Vol. 4). Bonn International Centre for Conflict Studies (BICC) gGmbH. https://www.ssoar.info/ssoar/handle/document/88143
[3] Davey, J., & Ebner, J. (2019). The Great Replacement’: The violent consequences of mainstreamed extremism. Institute for Strategic Dialogue, 7, 1–36. https://www.isdglobal.org/wp-content/uploads/2019/07/The-Great-Replacement-The-Violent-Consequences-of-Mainstreamed-Extremism-by-ISD.pdf
[4] Mahl, D., Zeng, J., & Schäfer, M. S. (2023). Conceptualizing platformed conspiracism: Analytical framework and empirical case study of BitChute and Gab. New Media & Society, 14614448231160456. https://doi.org/10.1177/14614448231160457
[5] Bucholtz, M., & Hall, K. (2005). Identity and interaction: A sociocultural linguistic approach. Discourse Studies, 7(4–5), 585–614. https://doi.org/10.1177/1461445605054407
[6] Tausczik, Y. R., & Pennebaker, J. W. (2010). The psychological meaning of words: LIWC and computerized text analysis methods. Journal of Language and Social Psychology, 29(1), 24–54. https://doi.org/10.1177/0261927X09351676
[7] de Zeeuw, D., & Tuters, M. (2020). Teh Internet Is Serious Business: On the Deep Vernacular Web and Its Discontents. Cultural Politics, 16(2), 214–232. https://doi.org/10.1215/17432197-8233406
[8] Fielitz, M. & Jaspert, M. (2023). Paradigmen der Plattformpolitik im Umgang mit Hass und Extremismus: eine chronologische Einordnung. In: Institut für Demokratie und Zivilgesellschaft (Hg.). Wissen schafft Demokratie. Schwerpunkt Netzkulturen und Plattformpolitiken, Band 14. Jena, 106–123. https://www.amadeu-antonio-stiftung.de/publikationen/wissen-schafft-demokratie-14-2023/