Wir sprechen über jene Menschen, die davon ausgehen, dass sie gechipt werden. Wir sprechen über jene Menschen, die davon ausgehen, dass mit der Impfung der Mossad entsprechende Kontrolle über ihr Leben gewinnen würde und wie das dann so weitergeht.
Hass im Netz
Auf Demos wird die Angst vor einem "Great Reset" geschürt - ein Beispiel für "impliziten" Antisemitismus, der besonders schwer automatisiert zu erkennen ist, so Benjamin Fischer. © Getty Images / Christian Ender
Lässt sich Antisemitismus automatisiert erkennen?
14:19 Minuten
Der Verschwörungsglaube greift häufig auf antisemitische Motive zurück. Benjamin Fischer, Aktivist gegen Hass im Netz, erklärt, woher das kommt und mit welchen – auch digitalen – Mitteln sich Desinformation bekämpfen lässt.
Julia Ley: Ob die „Protokolle der Weisen von Zion“, die Behauptung, dass bei 9/11 keine Juden umgekommen seien, weil sie angeblich alle vorab gewarnt wurden oder die Vorstellung, dass „die Zionisten“ die Menschen zwangsimpfen wollen: Verschwörungsmythen haben nicht selten einen antisemitischen Kern oder greifen zumindest auf antisemitische Motive zurück.
Darüber, woher das kommt und mit welchen modernen Mitteln sich Desinformation am besten bekämpfen lässt, spreche ich jetzt mit Benjamin Fischer. Als Programmmanager bei der Alfred-Landecker-Stiftung, die sich dem Kampf gegen Antisemitismus und Hass im Netz verschrieben hat, betreut er vor allem digitale Projekte.
Herr Fischer, ist der Antisemitismus so etwas wie der älteste Verschwörungsmythos der Welt?
Benjamin Fischer: Jein. Von Antisemitismus spricht man eigentlich erst seit Mitte des 19. Jahrhunderts, davor hat man den Begriff des „Antijudaismus“ genutzt. Was man aber in jedem Fall sagen kann, ist, dass der Judenhass nicht nur Tausende Jahre alt ist, sondern – und das hat er sich zu eigen: Er funktioniert auch ohne Jüdinnen und Juden. Und insofern war es auch in der Antike durchaus immer ein gewähltes Mittel, den Hass auf Juden auszuspielen.
Das heißt – und das ist jetzt nichts, was dem Hass auf Juden zu eigen wäre – man hat sich einen „Scapegoat“ gesucht, einen Sündenbock. Und klassischerweise bieten sich hierfür vor allem Minderheiten an. Spannend ist zu sehen, wie oft diese Motive wieder auftreten – sowohl, wenn man in die verschwörungsideologische Szene schaut, aber auch wenn man sich heutigen Antisemitismus anschaut.
Judenhass kommt nicht aus dem Alltag
Ley: Sie haben gerade gesagt: Antisemitismus kommt manchmal auch ohne Juden und Jüdinnen aus. Was heißt denn das genau?
Fischer: Sehr oft sogar. Das heißt, dass Menschen Jüdinnen und Juden hassen können, ohne jemals aktiv in ihrem Leben einer jüdischen Person begegnet zu sein.
Ley: Gerade in der Coronapandemie war ja viel von Verschwörungsmythen, von Verschwörungsgläubigen die Rede – und ich glaube, einige Menschen hatten den Eindruck, dass diese Begriffe etwas inflationär gebraucht wurden. Und einige fühlten sich da vielleicht auch etwas vorschnell in die rechte Ecke oder in die Verschwörungsgläubigen-Ecke gestellt. Daher noch mal die Frage an Sie: Was genau macht denn eigentlich eine Verschwörungserzählung aus?
Fischer: Erst mal ist es total berechtigt, in einer Pandemie, die uns alle, also auch immer noch, an Grenzerfahrungen bringt – ist das jetzt finanziell, ist das sozial, ist das im engsten Familienkreis – es ist völlig normal, da verunsichert zu sein. Insbesondere, wenn niemand in der Regierung in der Lage ist, klare, einfache, finale Antworten zu geben, weil man ja selbst auch überfordert war. Und ich glaube, das ist eine total berechtigte Emotion. Und ich finde es auch berechtigt, wenn Menschen dann zögerlich sind, wenn es um die Informationsaufnahme geht.
Der Begriff der Verschwörung wird für mich eben dann relevant, wenn Menschen ein Weltbild darauf bauen. Wir sprechen also nicht mehr über jene, die verunsichert sind und eben noch mal besonders nachfragen wollen, ob man sich jetzt impfen lassen will oder nicht, oder da in den Dialog treten wollen.
Und das Problem hieran ist, dass man diese Menschen auch nicht mehr mit Fakten erreichen kann oder vom Gegenteil überzeugen kann, dass diese Menschen ganz oft auch in die soziale Isolation abgedrängt werden und teilweise den Kontakt zur eigenen Familie abbrechen aufgrund dieser kruden Thesen.
Die russischsprachige Community wird mobilisiert
Ley: Sie haben ja eingangs schon dargestellt, dass eben sehr viele Verschwörungsmythen und -erzählungen auf rassistischen oder antisemitischen Weltbildern beruhen oder diese zumindest nutzen, auf sie zurückgreifen.
Gleichzeitig gibt es ja dann aber auch den Fall, dass Urheber von Desinformation gezielt versuchen, diese an Minderheiten zu richten. Die russischsprachige Community in Deutschland ist da so ein Beispiel. Was für eine Art von Desinformation verbreitet sich denn da? Und was für Folgen hat das auch ganz konkret hier in Deutschland?
Fischer: Lange schon vor der russischen Invasion der Ukraine ist stark auffällig gewesen, dass es viele Verbindungen zu russischen Geldgebern gab, aber auch zu teilweise wirklich sehr obskuren Institutionen, aus dieser Szene heraus, auch was die Finanzierung angeht.
Gerade auch aus russischen Staatsmedien wurden teilweise Narrative gestreut, die falsch sind, die Unruhe stiften sollten. Diese sollten dann wiederum auch die russischsprachige Community mobilisieren. Ein sehr berühmter Fall passierte 2015: „Wir schaffen das“ war damals der Tenor. Das Land wird dadurch gespalten, die AfD mobilisiert und nutzt das für sich aus und mobilisiert vor allem unter russischsprachigen Deutschen.
Ley: Wir sprechen jetzt von der Flüchtlingsbewegung 2015/2016 und Angela Merkels „Wir schaffen das“, damals.
Fischer: Genau. Damals gab es einen Fall von einem russischsprachigen Mädchen, das angeblich entführt und vergewaltigt wurde. Und einen Tag, nachdem die Anfrage bei der Polizei eingegangen war, konnte man feststellen: Das war eine Fehlmeldung. Sie hatte die Nacht, glaube ich, bei ihrem Freund verbracht. Also, ihr geht es gut. Noch zwei Wochen später hat der russische Außenminister Lawrow offen davon gesprochen, dass ein russischsprachiges Mädchen in Deutschland von Geflüchteten vergewaltigt worden sei.
Putin zielt offen auf die Neue Rechte
Ley: Was für ein Interesse hat denn der russische Staat daran, die russische Politik, so etwas in Deutschland zu streuen?
Fischer: Der russische Staat – also, namentlich eigentlich Putin – hat 2012 offen verkündet, dass es Ziel ist, die sogenannte Neue Rechte aus dem Land heraus zu mobilisieren. Und ganz konkret: Der russische Staat hat eben auch ein Interesse daran, dass westliche Demokratien wie auch Deutschland destabilisiert werden.
Das hat sich gezeigt in Wahlkampagnen, nachweislich, und es zeigt sich eben vor allem anhand der verschwörungsideologischen Szene. Diese Telegram-Gruppen, über die wir hier sprechen, haben nämlich am 23./24. Februar dieses Jahres (dem Beginn der russischen Invasion in der Ukraine, Anm. d. Red.) fast ohne Ausnahme angefangen, Inhalte von Russia Today in Deutschland weiterzuverbreiten, nachdem die Website schon abgeschaltet wurde. Von einem Tag auf den anderen sind diese Gruppen, die sich größtenteils mit Corona befasst haben, plötzlich zum Sprachrohr der russischen Regierung in Deutschland gewonnen.
Und jetzt ist es bei vor allem migrantischen Communities so, dass insbesondere ältere Menschen oft eben noch diese Medien konsumieren. Ich selber habe für einen jüdischen Wohlfahrtsverband gearbeitet. Wir haben viel mit alten Menschen aus der ehemaligen Sowjetunion zu tun gehabt. Die jüdische Community in Deutschland ist zu mehr als 80 Prozent russischsprachig, und entsprechend werden diese Medien dann auch zu Hause konsumiert.
Informationen in mehreren Sprachen anbieten
Ley: Was kann man dem denn dann entgegensetzen, wenn es da auch schon ein großes Misstrauen vielleicht gibt gegenüber deutschen Behörden und Medien?
Fischer: Im Nachhinein ist es offensichtlich, aber man muss sich vorstellen, die Situation im März 2020 war so: Wie viel ist da täglich niedergeprasselt auf uns und wie sehr mussten wir da noch versuchen, uns auch mit der neuen Lage erst einmal vertraut zu machen. Wir haben uns also überlegt, dass es verdammt wichtig ist, Informationen, gesicherte Informationen aus dem Gesundheitsministerium, für entsprechende Communities überhaupt erst mal zugänglich zu machen.
Ley: Das heißt auch in den entsprechenden Sprachen zugänglich zu machen?
Fischer: Genau. Also, wenn täglich ein neues Pressebriefing aus dem Gesundheitsministerium kommt, das aber schon aufgrund von Sprachbarrieren gar nicht bei eben jenen landet, die a) vor allem gesundheitlich betroffen sind – wir sprechen ja über ältere Menschen –, aber b), die diese Informationen vielleicht auch am dringendsten bräuchten, weil sie eben geprägt sind durch, in dem Fall, gezielte Propaganda eines anderen Staates, dann kann man da eine Brücke bauen.
Wir haben das zunächst getan, indem wir diese Briefings regelmäßig übersetzt und dann per E-Mail verschickt haben, den Leuten nach Hause. Wir haben aber natürlich schnell gemerkt, dass die Informationsaufnahme insbesondere bei älteren Menschen weiterhin vor allem über Messenger-Dienste stattfindet. Also haben wir Share Pics erstellt.
Gerade ältere Menschen sind anfällig
Ley: Wie sehr geht es dabei auch um das persönliche Vertrauen zu denen, die dann diese Art von Informationen streuen, in dem Fall eben Ihr Wohlfahrtsverband, weil Sie vielleicht auch schon eine gewisse Legitimität hatten in den Augen derer, die Sie versucht haben, zu erreichen?
Fischer: Es geht vor allem hierum. Ich glaube, ein Fehler der Digitalpolitik der letzten zehn, 15 Jahre war, dass wir oft geglaubt haben, dass vor allem jüngere Menschen anfällig wären für Desinformationen, für Verschwörungsideologien online. Und das stimmt nicht so ganz. Es sind eben vor allem auch ältere Menschen und tatsächlich eben vor allem über Messenger-Dienste. Warum? Weil eben hier ein Vertrauen herrscht.
Diese ganze Gegenöffentlichkeit fußt ja auf dem Grundgedanken, dass man der eigentlichen Öffentlichkeit nicht mehr trauen kann, dass also im Persönlichen eine höhere Form von Ehrlichkeit liegen würde als im öffentlichen Raum. Insofern war das ein zentraler Aspekt, den wir hier berücksichtigen mussten bei der Kampagne.
Mit Algorithmen kodierten Hass erkennen?
Ley: Man muss also sozusagen auch in die privaten Netzwerke reinkommen. Herr Fischer, ein Schwerpunkt ihrer Arbeit ist ja auch die digitale Bekämpfung von Antisemitismus und Hass im Netz, etwa mit dem Projekt „Decoding Antisemitism“. Da geht es darum, antisemitische Hassrede mithilfe von Algorithmen etwa in Kommentarspalten auf Social Media zu erkennen. Wie genau funktioniert denn so was?
Fischer: Das ist ein Projekt, das wir an der Technischen Universität hier in Berlin fördern. Man darf sich das so vorstellen: Da sitzen also jetzt seit nunmehr fast zwei Jahren hoch qualifizierte Linguistinnen in einem Raum, die sich die Kommentarspalten unter den Social-Media-Posts von großen News Outlets, also Zeitungen, anschauen und diese dann immer bewerten. Und was dann passiert – das nennt sich Machine Learning – ist, dass man diese Bewertung, also eine Form des Labelings, in eine Maschine einspeist, also einen Algorithmus. Und je mehr also solcher gelabelter Daten dort eingespeist werden, desto sensibler wird der Algorithmus, wenn es darum geht, zukünftig ähnliche Postings zu erkennen.
Das ist nun eine Technik, die gibt es seit Langem schon. Was hier ganz besonders ist, ist, dass man versucht, implizite Formen des Hasses erkennbar zu machen. Also, um es vielleicht etwas zu veranschaulichen: Wenn ich jetzt sage, „XYZ ist doof“, dann ist das expliziter Hass. Wenn ich jetzt aber sage, „man munkelt, dass Person XYZ im Alltag eher zu den Doofen gehört“, dann ist das eine eher implizite Form des Hasses.
Oder jetzt auf Verschwörungsideologien gemünzt: Es ist ein Unterschied, ob man sagt, „alle Juden sollten sterben“, um es mal drastischer zu formulieren, oder zu sagen „wir wissen ja, wer die Welt beherrscht“. Gemeint sind Jüdinnen und Juden. Es wurde aber nicht explizit ausgesagt.
„Juice“ statt „Jews“ – Hass tarnt sich
Ley: Und das verstehen auch nur die, die vielleicht schon ein Stück weit dieses Weltbild teilen.
Fischer: Genau, oder sich damit eben zum Beispiel auch wissenschaftlich beschäftigt haben. Das Problem bei der Sache ist, wenn wir über Online-Hass insgesamt sprechen, dass der Großteil des Hasses, mit dem wir es zu tun haben, nicht illegal ist und vor allem selten explizit geäußert wird, weil Leute schon verstehen, dass es eine Form von sozialer Achtung gibt gegenüber explizitem Hass, dennoch ihr Gedankengut aber teilen wollen. Und deswegen passiert es ganz oft kodiert.
Ein anderes sehr gutes Beispiel ist, auf Englisch zum Beispiel, damit hatten wir sehr oft zu tun: „Jews“, die Juden, also „J-E-W-S“ wird dann ganz schnell als „J-U-I-C-E“, also als „Juice“, der Saft, geschrieben. Ja, warum? Weil man weiß, dass simplere Formen von Erkennungssystemen dann nicht mehr anspringen. Da steht ja gar nicht mehr Jude oder Jüdin. Aber Leute, die das lesen, verstehen natürlich ganz genau durch das bloße Aussprechen, dass damit Jüdinnen und Juden gemeint sein.
Ley: Also es ist so eine Art Katz-und-Maus-Spiel: Wie schnell kommen wir dem auf die Schliche? Jetzt ist es ja so, dass es diese Art von kodiertem Hass auch in Bezug auf andere Gruppen gibt. Und vor gar nicht allzu langer Zeit, nämlich im Juni dieses Jahres, haben Wissenschaftler von der Harvard Kennedy School in einem sogenannten Diskussionspapier ihre Ergebnisse von einem solchen Projekt vorgestellt.
Und sie zumindest kamen zu dem Ergebnis, dass es für Algorithmen fast unmöglich sei, Hassrede automatisiert zu erkennen, weil Hass sich eben je nach kulturellem Kontext stark unterscheidet, und, so wie Sie es eben selbst geschildert haben, sich auch immer wieder verändert. Setzen wir da vielleicht auch zu viel Hoffnung in die Technik?
Fischer: Jein. Also mit Technik allein wird man das Problem niemals lösen können. Und es gibt derzeit kein bekanntes System auf dem Markt, das es erlaubt, Hass rein automatisiert zu erkennen und dann entsprechend zu labeln und damit umzugehen. Das bedeutet ja nicht immer löschen übrigens, auch ganz wichtig.
Digitale Resilienz fördern
Ley: Man kann es auch mal verbergen.
Fischer: Genau, oder downvoten, da gibt es ganz viele Formen des Umgangs – wie gesagt, auch weil wir rein gesetzlich keine Lösung dafür finden.
Und da sind wir schon auf der zweiten Ebene des Problems. Wir brauchen also nicht nur eine technische Lösung, sondern auch eine politische Lösung. Desinformation ist nicht illegal. Sie ist aber verdammt gefährlich. Mit Verschwörungsideologien ist es genau das Gleiche. Und eben auch mit vielen Formen von Hassrede. Und Antisemitismus ist da nur ein kleiner Teil. Im Grunde genommen geht es um den Umgang mit Hassrede insgesamt und vor allem um die Frage, wie wir als Gesellschaft dazu beitragen können.
Und da bin ich dann nämlich auf der dritten Ebene. Es braucht eine digital resiliente Gesellschaft, eine Gesellschaft, die es versteht, Online-Räume selbst für sich zu nutzen, sie aufzubauen, vor allem aber auch vertrauter im Umgang damit wird. Und wir stehen da tatsächlich noch sehr weit am Anfang in Deutschland.
Ley: Das sagt Benjamin Fischer, Programmmanager bei der Alfred-Landecker-Foundation. Vielen Dank für das Gespräch.