Subtiles Stupsen gegen den Terror?
Facebook sucht nach Nutzern, die für Terror-Propaganda anfällig sind, und füttert sie ungefragt mit Gegendarstellungen. Geht das Unternehmen damit einer ethischen Pflicht nach oder ist das Manipulation? Das "Nudging" müsse öffentlich kontrolliert werden, fordert die Politologin Lena Ulbricht.
Facebook hat mehr Nutzerinnen und Nutzer als China Einwohner: nach eigenen Aussagen 1,79 Milliarden. In welcher Art Facebook seine Nutzer beeinflusst, ist also zu Recht von öffentlichem Interesse: Entscheidet Facebook über Wahlen? Verantwortet Facebook, Herr der Filterblasen, gesellschaftliche Polarisierung? Trägt das Unternehmen eine Verantwortung, wenn Terrornetzwerke auf seiner Plattform ihren Nachwuchs rekrutieren?
Lange Zeit hat Facebook darauf beharrt, nicht mehr als ein Technologiekonzern zu sein. Seit Kurzem zeichnet sich ein Umdenken ab: Vor wenigen Tagen hat Mark Zuckerberg in einem programmatischen Post verkündet, dass Facebook die soziale Infrastruktur sein will, auf deren Grundlage eine globale Gemeinschaft entstehen soll, in der sich alle widerfinden. Dazu gehört etwa, dass Facebook terroristische Propaganda algorithmisch erkennt und löscht.
"Die Zeit" hat zudem berichtet, dass Facebook-Nutzer, die aufgrund ihres Nutzerverhaltens als empfänglich für terroristische Botschaften gelten, in die Gegenrichtung gestupst werden: Sie erhalten etwa Empfehlungen für Berichte, in denen Aussteiger dargestellt werden, oder Bilder von getöteten Terroristen. Sie wissen nichts über diese Beeinflussung. Das ist Nudging im Kampf gegen den Terror.
Nicht überzeugend, sondern stimulierend
"Nudging" bezeichnet die bewusste Einflussnahme auf den Kontext, in dem wir Entscheidungen treffen. Dabei werden bestimmte menschliche Neigungen ausgenutzt, wie etwa die Tatsache, dass wir uns übermäßig an unserem sozialen Umfeld orientieren, dass wir träge sind oder manchmal zu optimistisch. Auf dieser Grundlage kann Facebook uns beeinflussen, zum Beispiel indem es bestimmte Grundeinstellungen für den Datenschutz vorgibt oder indem es uns das Verhalten einer bestimmten Peer Group widerspiegelt bzw. vorgaukelt.
Umstritten ist Nudging unter anderem deshalb, weil es Menschen nicht explizit überzeugt, sondern implizit "triggert", also stimuliert. Nudging arbeitet nicht mit Verboten, es reduziert aber faktisch die Handlungsspielräume von Menschen und bedeutet so eine Einschränkung unserer Selbstbestimmung. Ist das legitim?
Das hängt von vielen Umständen ab: der Art und dem Ausmaß der Autonomieeinschränkung, den Zielen und der Ausführung. Bei Facebooks Anti-Terror-Nudging sind die Ziele begrüßenswert: Natürlich sollten wir Menschen davor bewahren, Terrorgruppen beizutreten.
Problematisch ist aber, dass das Verfahren nur in groben Zügen bekannt ist. Wir wissen nicht, was Facebook in Sachen Terrorbekämpfung genau unternimmt. Wie werden Risikopersonen identifiziert? Wie treffsicher sind die entsprechenden Algorithmen? Wie erfolgreich sind die Gegenmaßnahmen? Welche Handlungsspielräume verbleiben Nutzern de facto? Zeigen sich nicht-intendiert Effekte? Gibt es beispielsweise Diskriminierung?
Facebook agiert als Black Box
Dass nur Facebook diese Fragen beantworten kann, nimmt dem Verfahren seine Legitimität. Unsere Selbstbestimmung darf nur dann eingeschränkt werden, wenn andere Personen oder das Gemeinwohl gefährdet sind. Abwägungen dieser Art sind sehr schwierig und sollten nicht einem Unternehmen übertragen werden, das als Black Box agiert.
Mehr Transparenz macht das Instrument auch nicht kaputt. So ist etwa bekannt, dass Facebook Nudging auch nutzt, um Nutzer dazu zu bringen, möglichst viele Daten preiszugeben und die Zeit, die sie online verbringen, auszudehnen. Geschadet hat dieses öffentliche Wissen Facebook bislang nicht.
Damit das Anti-Terror-Nudging also legitim ist, muss es geprüft werden – durch staatliche Akteure oder in deren Auftrag. Dazu braucht es eine Ethikkommission, einen Algorithmen-Audit und eine Evaluation der Effekte des Anti-Terror-Nudgings – und zwar unabhängig.
Lena Ulbricht ist Politikwissenschaftlerin am Wissenschaftszentrum Berlin für Sozialforschung. Sie hat an der HU Berlin über Politikdiffusion promoviert und befasst sich in ihrer aktuellen Forschung mit algorithmenbasierten Entscheidungen und der Regulierung von Big Data.