Skip to main content

Viele zivilgesellschaftliche und wissenschaftliche Projekte beschäftigen sich mit der Dokumentation und Analyse verschwörungstheoretischer, antidemokratischer oder rassistischer Diskurse in den sozialen Medien. Inwiefern die jeweiligen Ergebnisse dieser Bemühungen vom Zeitpunkt der Datenerhebung beeinflusst werden, hat Kilian Bühling erforscht. Die Ergebnisse einer jüngst erschienen Studie fasst er in diesem Beitrag zusammen.

Neuen Twitter-User*innen, die der Social-Media-Plattform im Jahr 2021 beigetreten sind, muss sich ein skurriles Bild geboten haben: Sie hatten viel über die ausfälligen Posts des abgewählten US-Präsidenten Donald Trump gelesen, über Desinformationskampagnen inmitten der COVID-19-Pandemie und die ständig lauernde Gefahr, in einer verschwörungstheoretischen Echokammer zu verschwinden. Doch war Mitte 2021 von vielen zweifelhaften Online-Persönlichkeiten und ihren Beiträgen keine Spur mehr. Im Gegenteil: Die Social-Media-Plattformen gaben sich Mühe, Corona-Fehlinformationen mit Kommentaren zu versehen, die über ihre Faktentreue Aufschluss gaben. Die digitale Welt schien für einen kurzen Moment in Ordnung. Der Grund dafür war freilich die (mittlerweile aufgehobene) Sperrung von Donald Trumps Facebook- und Twitter-Account, sowie weitreichende Moderationsentscheidungen verschiedener Plattformbetreiber, die zu Beitragslöschungen und Accountsperren führten. Die nun unsichtbaren Posts hatten das Zielpublikum aber bereits erreicht. Das US-Kapitol wurde gestürmt und den demokratischen Institutionen den beabsichtigten Schaden zugefügt. Heute, nachdem die Twitter-Sperre von Donald Trump und weiteren Akteur*innen, die aufgrund ihres menschen- und demokratiefeindlichen Verhaltens verbannt wurden, aufgehoben wurde, können alle Benutzer*innen deren abwertende Posts wieder lesen. Schon in diesem kleinen Maßstab zeigt sich: Zu welchem Befund die geneigten Nutzer*innen über den Zustand der digitalen Welt kommen, hängt vom Betrachtungszeitpunkt ab.

Alternative Social-Media-Plattformen und die beständige Sichbarkeit verschwörungstheoretischer Posts

Die großen Social-Media-Konzerne konnten mit ihrer Moderationspolitik den Erfolg verbuchen, dass viele der vormaligen rechtsradikalen Hassredner*innen die Mainstream-Plattformen auf Dauer verließen. Doch wo eine Nachfrage herrscht, da entsteht auch bald ein Angebot. Ein schnell wachsendes rechts-alternatives Social-Media-Ökosystem, buhlte um die neuen Nutzer*innen, damit sie sich auf ihren Plattformen möglichst ungehemmt demokratie- und menschenfeindlichen Diskursen widmen. So erfuhren beispielsweise der Twitter-Klon Gab oder der YouTube-Klon BitChute[i] eine Konjunktur in ihrer User-Aktivität. Die aktuell im deutschen Kontext bedeutendste Plattform zur verschwörungstheoretischen und verfassungsfeindlichen Mobilisierung ist jedoch zweifellos Telegram, die als wichtigstes Kommunikationsmittel der Querdenken-Bewegung in Deutschland breitere Bekanntheit erlangte. Der Messenger-Dienst hebt sich von seinen Konkurrenten wie WhatsApp oder Signal dadurch ab, dass er öffentliche Kommunikation ermöglicht: In Broadcast-Kanälen können die jeweiligen Administrator*innen wie in einem Blog Mitteilungen an alle Abonnent*innen schreiben und somit per Knopfdruck tausende Interessent*innen erreichen [ii]. In öffentlichen Chatgruppen können alle Nutzer*innen dann auch mitdiskutieren. Das bedrohliche Potential der Radikalisierung im rechts-verschwörungstheoretischen Milieu auf Telegram[iii] steht deshalb zunehmend im Fokus von zivilgesellschaftlichen Initiativen und Wissenschaftler*innen, die auf die Gefahren der Verbreitung von Verschwörungstheorien hinweisen.

Doch obwohl Moderation und Accountsperren auf Telegram die Ausnahme sind, ist nicht jeder Inhalt, der in öffentlichen Kanälen und Gruppen geteilt wird, für immer sichtbar.

Doch obwohl Moderation und Accountsperren auf Telegram die Ausnahme sind, ist nicht jeder Inhalt, der in öffentlichen Kanälen und Gruppen geteilt wird, für immer sichtbar. Gruppenmitglieder und Administrator*innen können bestehende Posts nachträglich sanktionieren und löschen. Der Grund dafür können persönliche Gemeinschaftsnormen[iv], Scham[v] oder Angst vor den Konsequenzen[vi] sein. Wie eingangs beschrieben können Nachrichten auf diese Art viele Menschen erreichen und doch – im Rückblick – unsichtbar bleiben.

Forscher*innen müssen im Umgang mit sämtlichen Social-Media-Daten daher stets reflektieren, inwiefern Nachrichtenlöschungen die eigenen Ergebnisse systematisch verzerren könnten. In der nun erschienenen Studie „Message Deletion on Telegram: Affected Data Types and Implications for Computational Analysis“ wurde daher eine Stichprobe von rechts-verschwörungstheoretischen Telegram-Chats auf nachträgliche Löschungen hin untersucht. Dafür wurden 25 Kanäle und 25 Gruppen halbstündlich aufgerufen, um alle neuen Posts zu registrieren und einer möglichen Löschung zuvorzukommen. Mithilfe dieser möglichst vollständigen Erhebung soll abgeschätzt werden, inwiefern es durch die Löschungen zu systematischen Verzerrungen in Forschungsergebnissen kommen kann.

Abbildung 1: Verteilung gelöschter und ungelöschter Nachrichten über die Zeit (a) und nach Kommunikationskanal (b).

Bereits ein erster Überblick zeigte dabei, dass in den untersuchten Telegram-Kanälen nach fünf Tagen im Durchschnitt lediglich 88% der gesendeten Nachrichten abrufbar sind. Nach sieben Monaten sind es nur noch 83%. In Chat-Gruppen werden noch mehr Nachrichten gelöscht: Nach fünf Tagen sind nur noch 64% der Nachrichten lesbar, nach sieben Monaten sind es gerade einmal 52%. Grund für diese Diskrepanz können der Einsatz von Moderator*innen und Chat-Bots in den Gruppen sein.

Nach fünf Tagen sind im Durchschnitt lediglich 88% der gesendeten Nachrichten abrufbar sind. Nach sieben Monaten sind es nur noch 83%. In Chat-Gruppen sind es nach sieben Monaten sind es gerade einmal 52%.

Auch die Art der gelöschten Nachricht unterscheidet sich zwischen diesen beiden Arten der öffentlichen Kommunikation: In Chat-Gruppen sind es vorrangig Textnachrichten, die gelöscht werden. In Kanälen hingegen werden überproportional viele geteilte Nachrichten aus anderen Kanälen, sowie Videos gelöscht.

Nachrichtenlöschungen und ihre Auswirkungen auf computergestützte Analysemethoden

Für quantitative Analysen dieser Kommunikationsdaten wären solche Löschungen weitgehend unproblematisch, solange sie in einer zufälligen Verteilung geschehen. Werden Posts aber nicht zufällig gelöscht, sondern um bestimmte Arten von Inhalten ungesehen (und damit vorgeblich ungeschehen) zu machen, können sie die Forschungsresultate verändern. Deshalb wurden die Ergebnisse verschiedener Analysemethoden geprüft, die in der Erforschung rechter, verschwörungstheoretischer Social-Media-Kommunikation häufig Anwendung finden.

Abbildung 2: Diskursive Muster in gelöschten und ungelöschten Nachrichten, basierend auf Puschmann et al.’s (2022) Diktionär.

Um verschiedene thematische Facetten rechtspopulistischer, verschwörungstheoretischer Diskurse besser bestimmen zu können, wurde kürzlich das Klassifikations-Diktionär „RPC-Lex“ veröffentlicht[vii]. Darin enthalten ist eine ausführliche Liste von Stichwörtern, deren vorkommen in einem Social-Media-Post einen Hinweis auf die in der Nachricht enthaltenen diskursiven Muster geben kann. Vergleicht man gelöschte und ungelöschte Nachrichten, dann wird deutlich, dass islamfeindliche Posts häufig gelöscht werden. Umgekehrt sind elitenfeindliche Nachrichten häufiger unter den dauerhaft lesbaren, als unter den verschwundenen Posts anzutreffen. Unter Unkenntnis der gelöschten Nachrichten würde diese Diktionärsanalyse also den Anteil der islamfeindlichen Posts unterschätzen, während das Aufkommen elitenfeindlicher Nachrichten überschätzt würde.

Vergleicht man gelöschte und ungelöschte Nachrichten, dann wird deutlich, dass islamfeindliche Posts häufig gelöscht werden.

Weitere computergestützte Methoden der Inhaltsanalyse, basierend etwa auf Topic Modeling oder Word Embeddings, nutzen automatisierte Verfahren, um sprachliche Muster und Themen aus großen Textkorpora zu extrahieren. Die nicht-zufällige Löschungen von Posts können auch bei diesen Machine-Learning-Methoden in unterschiedlichem Ausmaß zu Verzerrungen der Forschungsergebnisse führen. Netzwerkanalysen, die die Beziehung von Telegram-Kanälen zueinander betrachten, sowie deren Einbettung in plattformübergreifende Informationsökosysteme[viii], können ebenfalls durch die Nachrichtenlöschungen verzerrt werden. Dabei scheint es jedoch unwahrscheinlich, dass sich die generelle Tendenz der Ergebnisse grundsätzlich ändert.

Was tun?

Angesichts der in dieser Studie herausgestellten Verzerrungspotentiale stellt sich damit die Frage, wie Analyst*innen von Telegram-Daten mit ihren möglicherweise unvollständigen Daten umgehen sollen. Der erste herausgearbeitete Vorschlag lautet: Die Datensammlung sollte so frühzeitig wie möglich beginnen! Je länger der zeitliche Abstand zwischen der ursprünglichen Nachricht und ihrer Sammlung wird, desto höher wird auch die Wahrscheinlichkeit ihrer Löschung. Deshalb lohnt sich außerdem die Phase der Datensammlung längerfristig zu planen, um die Nachrichten eines Telegram-Kanals zu möglichst vielen Zeitpunkten zu erfassen (z.B. täglich oder wöchentlich).

Je länger der zeitliche Abstand zwischen der ursprünglichen Nachricht und ihrer Sammlung wird, desto höher wird auch die Wahrscheinlichkeit ihrer Löschung.

Eine solche Planung ist natürlich nicht immer möglich, weil der Analysezeitraum häufig bereits in der Vergangenheit liegt. Dennoch ist es möglich die Anzahl der fehlenden Nachrichten zu bestimmen, um so wenigstens zu einer Schätzung des Datenverlustes zu kommen. Außerdem lohnt sich, wie immer, die Kooperation unter Wissenschaftler*innen: Vielleicht hat ein*e Kolleg*in denselben Kanal zu einem früheren Zeitpunkt abgerufen, als noch mehr Nachrichten sichtbar waren?

Schlussendlich ist diese Studie ein Beitrag zu einer verlässlichen und reproduzierbaren Methodik in der Analyse einer Plattform, die, zumindest im deutschsprachigen Raum, als Brutkasten demokratiefeindlicher Bewegungen Berühmtheit erlangt hat.

Die vollständige Studie ist durch eine Open-Access-Veröffentlichung frei verfügbar. Sie ist unter dem Titel „Message Deletion on Telegram: Affected Data Types and Implications for Computational Analysis“ der Fachzeitschrift Communication Methods and Measures erschienen und kann hier abgerufen werden: https://doi.org/10.1080/19312458.2023.2183188. Die Studie entstand im Projekt NEOVEX, das im Zuge der Bekanntmachung „Zivile Sicherheit –Gesellschaften im Wandel“ des BMBF im Rahmen des Programms „Forschung für die zivile Sicherheit“ der Bundesregierung gefördert wurde.


[i]  Frischlich, L., Schatto-Eckrodt, T., & Völker, J. (2022). Withdrawal to the Shadows: Dark Social Media as Opportunity Structures for Extremism. CoRE – Connecting Research on Extremism in North Rhine-Westphalia, 3, 39. https://www.bicc.de/publications/publicationpage/publication/rueckzug-in-die-schatten-die-verlagerung-digitaler-foren-zwischen-fringe-communities-und-dark-so/

[ii] Schulze, H., Hohner, J., Greipl, S., Girgnhuber, M., Desta, I., & Rieger, D. (2022). Far-right conspiracy groups on fringe platforms: A longitudinal analysis of radicalization dynamics on Telegram. Convergence: The International Journal of Research into New Media Technologies, 28(4), 1103–1126. https://doi.org/10.1177/13548565221104977

[iii] Ebenda.

[iv] Gagrčin, E. (2022). Your social ties, your personal public sphere, your responsibility: How users construe a sense of personal responsibility for intervention against uncivil comments on Facebook. New Media & Society, 146144482211174. https://doi.org/10.1177/14614448221117499

[v] Almuhimedi, H., Wilson, S., Liu, B., Sadeh, N., & Acquisti, A. (2013). Tweets are forever: A large-scale quantitative analysis of deleted tweets. Proceedings of the 2013 Conference on Computer Supported Cooperative Work, 897–908. https://doi.org/10.1145/2441776.2441878

[vi] Neubaum, G., & Weeks, B. (2022). Computer-mediated political expression: A conceptual framework of technological affordances and individual tradeoffs. Journal of Information Technology & Politics, 0(0), Article 0. https://doi.org/10.1080/19331681.2022.2028694

[vii] Puschmann, C., Karakurt, H., Amlinger, C., Gess, N., & Nachtwey, O. (2022). RPC-Lex: A dictionary to measure German right-wing populist conspiracy discourse online. Convergence: The International Journal of Research into New Media Technologies, 28(4), 1144–1171. https://doi.org/10.1177/13548565221109440

[viii] Heft, A., & Buehling, K. (2022). Measuring the diffusion of conspiracy theories in digital information ecologies. Convergence, 28(4), 940-961. https://www.doi.org/10.1177/13548565221091809

Kilian Bühling

Author Kilian Bühling

More posts by Kilian Bühling