Radikalisierung auf Telegram
Gerade seit Corona und der Impfgegner-Bewegung wird viel über Telegram geredet und geschrieben. Doch wie konnte sich ein einfacher Chatdienst zum Safe Space für Desinformation entwickeln? © imago images / Future Image
Halb privat, halb öffentlich – und sehr oft radikal
16:37 Minuten
Seit Monaten steht Telegram im Fokus schlechter Nachrichten. Gleich zu Beginn dieses Jahres nun geht es weiter mit einer ARD-Recherche, die zeigt: Auf Telegram wird nahezu täglich zum Mord an Politikern aufgerufen. Was ist mit dem Messengerdienst passiert?
Lange Zeit war Telegram in der öffentlichen Wahrnehmung vor allem eine Alternative zu WhatsApp – und damit dem ehemaligen Facebook-Konzern, heute Meta. Der Dienst funktioniert auf allen Geräten. Kurz: Aus Nutzersicht ist es eine gute Chat-App.
Zudem ist Telegram ein beliebter Messenger für Protestbewegungen: In Hongkong, in Weißrussland oder im Iran wird Telegram genutzt, um die Bewegungen zu organisieren und sich vor staatlicher Überwachung zu schützen.
Zulauf aus dem rechtsextremen Milieu
Doch nun häuften sich auch die Stimmen, die die unzureichende Verschlüsselungstechnik von Telegram kritisierten und anmahnten, dass das Unternehmen nicht transparent arbeite, unter anderem weil es den Quellcode nicht veröffentlicht. Die Meinung über die Telegram war also schon immer zwiegespalten.
Im Jahr 2019 verändert sich etwas: In dieser Zeit bekommt Telegram Zulauf aus dem rechtsextremistischen und rechtsterroristischen Milieu. Denn seitdem gehen die etablierten Plattformen verstärkt gegen solche Inhalte und Nutzer vor.
Telegram als Zufluchtsort für radikale Positionen
“Und da wurde Telegram natürlich ein Zufluchtsort für viele, die auf diesen etablierten Plattformen nicht länger gewünscht waren“, sagt Christian Schwieter, Projektmanager in den Bereichen digitale Analyse und Digitalpolitik am Institute for Strategic Dialogue (ISD).
Schwieter hat in einer Studie untersucht, wie Rechtsextreme und Verschwörungsideologen auf Telegram ihre Infrastruktur ausbauen. Er sagt: Einzelne Kanäle hat es schon 2017 gegeben. Aber 2019 ist das Jahr, in dem zum Beispiel die Initiator:innen von Pegida und der rechtsextremen Identitären Bewegung ihre Kanäle dort einrichten.
Doch erst 2020, zur Zeit des ersten Lockdowns, verdoppeln sich die Nutzerzahlen im Vergleich zu 2018. In dieser Zeit gerät die Debatte über Rechtsextreme im Internet auch medial ins Rollen: Denn die mischen sich sehr früh unter die Gegner der Corona-Maßnahmen und Verschwörungsideologen.
Harter Kern wechselt zu anderen Plattformen
Zumindest die großen Plattformen reagieren: Facebook zum Beispiel sperrt Impfgegner-Gruppen. Daraufhin wechseln zwar viele Radikale die Plattform, aber nicht alle sind gleich wieder erfolgreich.
Die Forscher:innen vom ISD sprechen in einem weiteren Report von „dezentralen Blasen“, die dann entstehen. Damit sind Gruppen gemeint, die sich auf alternativen Plattformen um einzelne Personen bilden, nachdem sie zuvor zum Beispiel auf Youtube oder Twitter gesperrt wurden. Diese Personen, zum Beispiel Martin Sellner von der Identitären Bewegung oder der Rechtsextreme Attila Hildmann, spielen hier nun eine Influencer-Rolle.
„Die sind dann in der Lage, viele ihrer Gefolgschaft sozusagen auf diese alternativen Plattformen zu bringen. Das ist dann aber oft der harte Kern dieser Bewegung und nicht mehr diese Massen an Menschen, die vielleicht noch auf Facebook und Co. erreicht werden konnten“, sagt Christian Schwieter.
Hybrid aus sozialem Netzwerk und Chatdienst
Konkret gemeint sind mit solchen alternativen Plattformen wie die sozialen Netzwerke Parler, Gab und VK oder Videoplattformen wie Bitchute oder Rumble, wo Inhalte gar nicht oder kaum moderiert werden – ähnlich wie bei Telegram.
Doch die radikalen Influencer, die nicht gesperrt werden, bleiben bei Facebook, Twitter oder Youtube. „Die Inhalte sind dann teils weniger extremistisch, teils weniger radikal, teils verstoßen sie auch gar nicht gegen bestehende Gesetze. Aber sie nutzen diese Plattform, um ihre Anhänger dann auf diese alternativen Orte zu ziehen“, sagt Schwieter.
Das Feld von alternativen Plattformen ist mittlerweile divers. Telegram ist aber mit Abstand die, auf die am meisten verlinkt wird und die auch die größten Nutzerzahlen hat. Der Dienst bietet den Gruppen viele Möglichkeiten, die Massenkommunikation ermöglichen: Kommentarfunktionen sowie private und öffentliche Chatgruppen mit bis zu 20.000 Mitgliedern. Damit bekommt der Messengerdienst eine Art Hybridcharakter zwischen sozialem Netzwerk und privatem Messenger.
Debatte um Regulierung greift zu kurz
In der öffentlichen Debatte aber wird selten zwischen dem Messenger und den öffentlichen Chats unterschieden, wenn es zum Beispiel darum geht, Telegram zu regulieren.
Ein Grund, warum die Debatte um Regulierung zu kurz greift: Die großen Social Media-Plattformen fallen in Deutschland unter das Netzwerkdurchsetzungsgesetz, das Ende 2017 in Kraft getreten ist. Es zwingt Dienste, innerhalb kurzer Zeit zu reagieren, wenn sie von rechtswidrigen Inhalten erfahren. Für Telegram, als Messenger mit privater Kommunikation, ist aber unklar, ob er Teil dieser Regulierung sein kann.
Mit anderen Mechanismen gegen rechtsradikale Ideologien
Nun rückt immer mehr die Frage in den Mittelpunkt: Wie kann Telegram reguliert werden? Muss zum Beispiel das Netzwerkdurchsetzungsgesetz an solche Hybride angepasst werden?
Für Julian Jaursch, Projektleiter im Bereich „Stärkung digitaler Öffentlichkeit“ bei der Stiftung Neue Verantwortung, hat das Mittel der Techregulierung Grenzen bei der Bekämpfung von radikalisierten Ideologien:
„Die rechtsradikalen Ideologien kriegt man nicht dadurch weg, dass man Facebook reguliert oder Telegram reguliert, sondern da müssen halt andere Mechanismen greifen.“ Regulierung könne grundsätzlich einschränkend wirken oder für Transparenz sorgen. „Aber es kann nicht die grundsätzliche Problematik von Radikalisierung angehen“, sagt Jarusch.
Wird der Digital Services Act Lösungen bieten?
Die eigentliche Frage müsste viel mehr sein: Wie gehen wir um mit dem Problem, dass Rechtsradikale und Extremisten eine große Expertise darin entwickelt haben, online Menschen anzusprechen, die für diese Ideologien gerade offen sind?
An einer möglichen Antwort wird gerade im Digital Services Act der EU gearbeitet. Wenn die Stoßrichtung der aktuellen Entwürfe so bleibt, dann werden die Plattformen verpflichtet, deutlich besser zu kooperieren und Audits zuzulassen, also eine systematische Überprüfung durch unabhängige Stellen. Im Mittelpunkt stehen also weniger die Hasspostings selbst, sondern die Zusammenarbeit mit Plattformen.