Bot or not?
07:24 Minuten
Ihretwegen soll Donald Trump Präsident geworden sein, und auch in der Coronadebatte mischen sie angeblich kräftig mit: Social Bots wird geradezu Allmacht zugeschrieben. Doch einige Wissenschaftler bestreiten sogar, dass es sie gibt.
Social Bots. Automatisierte Accounts, die im Netz vorgeben, menschlich zu sein, um Meinungen zu beeinflussen - so lauten zumindest die Schlagzeilen.
"Das haben wir jetzt wieder gesehen, quasi zu Coronazeiten. Aber jetzt auch im Kontext von Black Lives Matter", sagt Jonas Kaiser vom Berkman Klein Center for Internet & Society der Harvard University. "Immer mal wieder sagen Kolleginnen und Kollegen, soundsoviele Bots sind in den Diskussionen zu einem bestimmten Hashtag dabei. Und aus dem Grund haben wir eben unsere Arbeit in der Working Paper Reihe veröffentlicht, um eben sozusagen erst mal zu sagen: So, wir zweifeln hiermit öffentlich mal an, was da gerade passiert."
Was taugt das "Botometer"?
Die aktuelle Studie von Jonas Kaiser und einem Kollegen wurde noch nicht durch das Peer-Review-Verfahren von Gutachtern geprüft. Spannend ist sie trotzdem, hinterfragt die Studie nämlich die beliebteste Art automatisiert Social Bots zu erkennen:
"Die erste relativ holzschnittartige Methode war einfach zu sagen: Alle Twitter-Accounts, die mehr als 50 Mal am Tag twittern, sind Bots."
Ein zu fehleranfälliges Verfahren, das trotzdem in Studien rund um das Thema Wahlbeeinflussung durch Social Bots verwendet wurde. Einzelne Accounts zu beobachten, scheint sinnvoller: zu sehen, wem sie folgen, wer ihnen folgt und welche Inhalte sie verteilen. Sinnvoller, aber sehr viel aufwendiger. Eine Kombination ist deshalb das "Botometer" der Indiana University Bloomington. Ein nicht öffentlich einsehbarer Algorithmus. Benutzer müssen einfach tausende Datensätze von Twitter-Accounts in das Programm einspeisen. Die Software spuckt dann für jeden von ihnen einen Wahrscheinlichkeits-Score aus zwischen Null, das heißt Mensch, und eins, das heißt Social Bot.
"Und was wir eben in dem Kontext herausgefunden haben, ist, dass die Werte durchaus fluktuieren, und zwar sowohl über die Zeit als auch über Sprachen", sagt Kaiser.
Getestet wurde über drei Monate, jeden Tag mit fünf Datensätzen, bestehend aus realen englischsprachigen und deutschsprachigen Accounts, aber auch eindeutigen Bots. Einfach zu erkennende Bots, wie @bigbenclock, der jede Stunde einfach "Bong Bong Bong Bing" twittert und damit nicht gerade menschlich wirkt.
"Aber was ist denn ein Bot Detection Tool wert, das quasi die klaren Menschen und klaren Bots nicht richtig erkennen kann?", fragt Jonas Kaiser.
Die Ergebnisse waren letztendlich enttäuschend. Englischsprachige Accounts wurden zwar öfter als Mensch oder Bot erkannt, dennoch ist die Zuverlässigkeitsrate des Programms insgesamt nicht ausreichend. Forscher müssten alles von Hand nochmal nachprüfen. Das passiert aber kaum. Dennoch wird das Tool immer wieder genutzt. Damit sind Ergebnisse schwer reproduzierbar, eigentlich undenkbar für seriöse Studien. Informatiker Florian Gallwitz sieht noch ein anderes Problem:
"Man muss ein bisschen was von Kryptografie verstehen und sehr viel von Mustererkennung. Und man muss bisschen die Möglichkeiten von natürlich sprachlicher Interaktion mit Computern überhaupt verstehen. Das sind aber alles Sozialwissenschaftler, Politikwissenschaftler, Psychologen, Leute, die nicht im Geringsten dazu qualifiziert sind, sich mit der Frage zu beschäftigen, ob das jetzt automatisiert sein könnte."
Zweifel an der Existenz von Social Bots
Florian Gallwitz von der technischen Hochschule Nürnberg gilt als einer der lautesten Social Bot Kritiker. Er bezweifelt ihre Existenz:
"Im Kern ist es wie jede andere Verschwörungstheorie erstmal einen Versuch, die Welt zu verstehen."
Jede Studie, jeden Artikel, jeden Tweet: Alles zu Social Bots schaut er sich ganz genau an, fordert Kollegen auf der ganze Welt dazu auf, ihm echte Social Bots vorzulegen. Ein Beispiel ist die angebliche Entdeckung von Kathleen Carley von der Carnegie Mellon University. Sie sagt: 82 Prozent der Top 50 der einflussreichsten Retweet-Accounts zum Thema Corona sind vermutlich Bots. Eine Studie hat sie dazu noch nicht vorgelegt – nur ein Erklärvideo.
Die darin enthaltenen Beispiele überprüft Florian Gallwitz. Schreibt die Accounts an, die sind teils gekränkt, manche belächeln ihr angebliches Bot-Dasein. Eine Userin ist ihm besonders aufgefallen. Die wollte angeblich nur die Twitter-Trends beeinflussen, sagt Gallwitz.
"In dem Fall ging es um dieses Corona und QAnon, diese Verschwörungstheorie, so ein bisschen in diesem Bereich. Und die hat einfach sich hingesetzt und ein paar Stunden lang alle zehn 20 Sekunden einen Tweet geretweetet."
Daran zeigt sich, wie die Datengrundlage der Untersuchungen ist. Die allzu oft, laut Gallwitz, eher von Geld als Forscherneugierde angetrieben würden. Bedrohung lässt sich gut verkaufen, sollen Social Bots doch Wahlen beeinflussen, Meinungen gezielt verändern, Fake News geschickt verbreiten.
Hinter Social Bots stehen meist Menschen, die sie steuern
Alleine schaffen Social Bots das nicht, aber sie können dabei helfen, meint hingegen Christian Grimme. Dem Informatiker ist der Ansatz von Florian Gallwitz zu dogmatisch. Grimmes Lösung: Die Definition öffnen.
"Aus meiner Sicht ist ein Social Bot so was wie ein übergeordnetes Konzept, das im Prinzip ganz verschiedene Typen, also im Prinzip halb oder ganz automatisierter, Agenten umfasst", sagt er.
Soll heißen: Social Bots in Reinform gibt es so gut wie nicht, in irgendeiner Form würden die immer Menschen steuern.
Doch der Einfluss durch soziale Medien auf politische Überzeugungen sei sehr viel geringer als allgemein angenommen, meint Andreas Jungherr. Ein Tweet, der häufig geteilt wird, verändere noch kein politisches Stimmungsbild.
Drohende Verzerrung der öffentlichen Debatte
Der Politikwissenschaftler warnt daher vor einem anderen Problem, dass die Social Bots in den sozialen Medien auslösen können:
"Was dann aber sehr wichtig im Auge zu behalten ist, dass diese Kampagnen nicht notwendigerweise sich tatsächlich an Individuen richten oder Bürgerinnen und Bürger, sondern dass es häufig alleine auch schon reicht oder das Ziel ist, eben Entscheidungsträger oder auch Journalistinnen und Journalisten zu beeinflussen."
Das Gefährliche dieser Entwicklung ist eine Verzerrung der öffentlichen Debatte, die schon in Bezug auf die Massenmedien mit der Theorie der Schweigespirale beschrieben wurde. Wenn Menschen wirklich glauben, dass 50 Prozent der Debatten um Corona-Lockerungen von Social Bots geführt werden oder 30 Prozent der Tweets zu #blacklivesmatter automatisiert sind, verändert das die Wahrnehmung der Relevanz eines Themas.