Eva Weber-Guskar ist Professorin für Ethik und Philosophie der Emotionen an der Ruhr-Universität Bochum. Sie forscht derzeit zu Themen in der Ethik der Digitalisierung (insbesondere zur emotionalisierten Künstlichen Intelligenz) und zu zeitlichen Aspekten in Theorien des guten Lebens. Außerdem ist sie Gründungsmitglied der Redaktion von philpublica.de, einer Plattform zur Förderung der akademischen Philosophie in der Öffentlichkeit.
Rohingya verklagen Facebook
Tausende Rohingya-Flüchtlinge aus Myanmar beim Grenzübertritt in Palang Khali, Cox's Bazar, Bangladesch. © Getty Images / Paula Bronstein
Algorithmen schüren den Hass
05:11 Minuten
Vor dem Genozid in Myanmar geflohene Rohingya haben Facebooks Mutterkonzern Meta auf 150 Milliarden Dollar Schadenersatz verklagt. Ihr Vorwurf: Der Algorithmus, der Extremismus und Gewalt befördere, sei wissentlich und willentlich eingesetzt worden.
Für eine Anklage braucht es einen Täter und eine Tat. Wegen dieses Grundprinzips konnte Facebook bisher vor dem Gesetz ungeschoren davonkommen, obwohl klar ist, dass die Social Media Plattform eine zentrale Rolle beim Verbreiten von Desinformation und Hassrede spielt. Facebook konnte sich auf den Standpunkt zurückziehen: Wir stellen doch nur eine neutrale Plattform zur Kommunikation bereit. Mit den Inhalten haben wir nichts zu tun.
Drei Dimensionen der Verantwortung
Doch diese Selbstbeschreibung ist angesichts der Anklage der Rohingya endgültig nicht mehr aufrecht zu erhalten. Die Klageschrift führt detailliert Argumente und Belege dafür an, dass und wie Facebook doch als Täter, als tat-verantwortliche (rechtliche) Person, zu begreifen ist.
In der Moralphilosophie werden bei der Zuschreibung von Verantwortung in der Regel drei Elemente für zentral erachtet: Es muss wissentlich, willentlich und zurechenbar gehandelt worden sein – der letzte Punkt heißt, es muss eine kausale Verbindung zwischen Täter und Ereignis vorliegen.
Die 70 Seiten umfassende Klage kann man so lesen, dass genau diese drei Punkte herausgearbeitet werden.
Gezielter Aufbau eines Feindbilds
Der kausale Beitrag Facebooks zum Genozid beginnt damit, dass sich diese Plattform ab 2011 in wenigen Jahren in Myanmar als das vornehmliche öffentliche Informations- und Kommunikationsmedium etabliert hat. In fünf Jahren stieg der Prozentsatz von Smartphones in der Bevölkerung von einem Prozent auf 50 Prozent - mit vorinstalliertem Facebook!
Die dazu nötige Bildung freilich fehlte. Viele vor Ort hielten Facebook selbst für das Internet, man kannte gar keine anderen Websites.
Dies machte sich die Diktatur zunutze, um ihre eigene Macht zu sichern, indem sie über Facebook ein Narrativ von den Rohingya als Bedrohung und gemeinsamem Feindbild verbreitete. Mit zahlreichen Fake-Accounts, die zunächst mit harmloser Unterhaltung begannen, machte sie Stimmung, die sich übertrug.
Hassrede, Fake News und Anstiftung zur Gewalt
Ultranationalistische buddhistische Mönche schlossen sich an. In der Folge ist ein extremer Anstieg an Hassrede, Falschinformationen und Anstiftungen zur Gewalt in den Posts dokumentiert – und zugleich der Beginn der schlimmsten Phase der physischen Verfolgung der Minderheit, die schon lange vorher zu leiden hatte.
Wusste Facebook im sonnigen Paolo Alto von all dem? Die Anklage belegt, dass Facebook schon früh davor gewarnt wurde, wegen der brisanten politischen Lage überhaupt ins Land zu gehen. Später wurde es auf seine fatale Rolle im Geschehen hingewiesen – ohne dass Posts und Accounts im angemessenen Umfang gelöscht worden wären oder genügend Moderatoren mit relevanter Sprachkenntnis eingestellt worden wären.
Mehr Aufmerksamkeit durch negative Emotionen
Aber, so der letzte Punkt, wollte Facebook all das? Facebook wollte nicht Menschen drangsalieren und vertreiben, aber etwas, das einen direkten Einfluss auf das Ausmaß der Gewalt hatte, wollte es durchaus: Nämlich mehr „engagement“ auf seiner Seite, das heißt mehr Likes, Shares und Posts, denn das bringt mehr Einnahmen.
Die Strategie dazu, durch wissenschaftliche Studien gestützt, lautet: mehr Posts mit negativen Emotionen und moralisch empörendem Inhalt zeigen, denn das aktiviert am meisten. Genau darauf wurden die Algorithmen programmiert. Die dadurch gesteigerte, womöglich teilweise erst ausgelöste Gewalt, wurde in Kauf genommen. Das nennt man fahrlässig.
Diese Täterbeschreibung von Facebook ist erst jetzt so detailliert möglich, da die Informationen von Whistleblowerin Frances Haugen und anderen Aussteigern aus Facebook vorliegen.
Die Klage zeigt, zu was Facebook im schlimmsten Fall beiträgt, wenn die Plattform nicht strenger reglementiert und moderiert wird. Egal wie das Gericht entscheiden wird: Es ist schon jetzt deutlich, wie nötig es moralisch ist, dass Facebook mehr tut. Und mehr unterlässt.