Algorithmische Entscheidungsprozesse sind längst Teil unseres Alltag: Sie lenken Inhalte in den sozialen Medien, sortieren unsere Warenkörbe – oder zeigen uns automatisierte Bildausschnitte auf Twitter an. Oft passiert das, ohne dass Nutzer und Nutzerinnen die Grundlagen für die Entscheidungen nachvollziehen können. Das Projekt DataSkop will Algorithmen transparenter machen.
Audio Player
Der weiße Mann im Vorschaubild
06:21 Minuten
Nicht alle Fotos haben das 16:9-Format der Vorschau in der Twitter-Timeline. In so einem Fall entscheidet ein Algorithmus, welcher Bildausschnitt dort gezeigt wird – mit auffälligen Ergebnissen, die eine Debatte ausgelöst haben.
Ein Bild im offiziellen Twitter-Client oder der Webseite wird immer im 16:9-Format angezeigt. Das passiert vor allem, weil niemand beim Scrollen durch die Timeline von Hochformat-Fotos gestört werden will. Erst durch einen Klick auf die Vorschau sieht man das Bild in seiner vollen Größe.
Da die wenigsten Fotos dieses 16:9-Format haben, muss Twitter entscheiden, welchen Ausschnitt aus dem Bild es anzeigen soll. Und weil viel zu viele Bilder pro Minute hochgeladen werden, muss diese Entscheidung von einem Algorithmus getroffen werden. Die Kriterien, die dort angelegt werden, sind kein Geheimnis.
"Grundsätzlich geht es dort um Auffälligkeit", erklärt Luca Hammer. "Also das nennt sich Salienz. Man hat das eben mit Personen getestet, also man hat Personen unterschiedliche Bilder gezeigt. Und je nachdem, in welche Bereiche die Personen hingeschaut haben, hat man gesagt, 'okay das ist ein auffälliger Bereich'."
Luca Hammer ist Datenanalyst und beschäftigt sich viel mit den Algorithmen, die Twitter benutzt. Er sagt auch, dass dieser Algorithmus meistens funktionieren würde. Er schafft es, den Ausschnitt zu zeigen, der im Fokus ist oder der die wichtigen Informationen beinhaltet.
In bestimmten Szenarien gibt es Probleme
Nur in bestimmten Szenarien treten die Probleme auf, wenn mehrere Punkte in dem Bild wichtig erscheinen. Wie eben, wenn zwei Gesichter im Fokus sind, aber so weit auseinander, dass nicht beide in den Bildausschnitt passen.
Und genau bei diesen Szenarien zeigt Twitters Algorithmus Vorurteile. Im Laufe der Woche haben Userinnen und User diverse Tests durchgeführt.
Die Ergebnisse: Nicht nur entscheidet sich der Bildalgorithmus für den weißen Senatsführer Mitch McConnell statt des Schwarzen Ex-Präsidenten Barack Obama. Auch der weiße Simpsons-Charakter Lenny wird dem Schwarzen Carl vorgezogen. Und es geht nicht nur um Hautfarbe. Offensichtlich zeigt er auch lieber Männer als Frauen an.
Ein Problem, das Twitter auch einsieht. Der CTO Parag Agrawal hat offen auf die Kritik reagiert: "Wir haben unseren Algorithmus analysiert und er muss fortlaufend verbessert werden. Ich liebe diese öffentlichen, offenen und strengen Tests gerade – und freue mich davon zu lernen."
Öffentliches Fehler-Eingeständnis
Agrawal hat zudem öffentlich gesagt, dass Twitter hier Fehler unterlaufen seien, und hat die kritischen Analysen auf seinem Account retweetet - und so mit einer breiten Öffentlichkeit geteilt.
Auch Liz Kelly aus dem Twitter-PR-Team hat sich zu Wort gemeldet:
»Danke an alle, die uns darauf aufmerksam gemacht haben. Wir haben zwar vor der Veröffentlichung des Algorithmus auf rassistische oder sexistische Vorurteile getestet, aber es ist klar, dass wir noch einige Arbeit vor uns haben. Wir werden unsere Arbeit open-sourcen, sodass andere unsere Ergebnisse reviewen und nachvollziehen können.«
Sollte die Open-Source-Veröffentlichung wirklich stattfinden, würde Twitter einer schon lange im Raum stehenden Forderung nach unabhängiger Überprüfbarkeit von Algorithmen nachkommen.
Werden die Versprechen eingehalten?
Allerdings hat man gerade bei den großen Tech-Konzernen schon häufiger erlebt, dass sie in Krisen-Situationen Kritikerinnen und Kritikern Dinge versprochen haben, die in dieser Form nie eingelöst wurden. Es bleibt also abzuwarten, ob und wie viel Twitter tatsächlich preisgibt.
Doch selbst wenn die Veröffentlichung passieren sollte, für Luca Hammer liegen die Schwierigkeiten tiefer: "Also das Problem beginnt ja schon bei dem Grundsatz, dass man überhaupt einen Algorithmus dafür verwendet. Egal, wie gut der Algorithmus ist, gibt es ja immer das Problem. Er wählt etwas aus."
Und tatsächlich, wenn man an dieser Stelle weiterdenkt, stößt man auf Schwierigkeiten:
"Wir gehen jetzt einmal davon aus, es gibt den perfekten Algorithmus, der genau das macht, was wir wollen. Da muss ich ja immer noch sagen, okay, was möchte ich denn? Möchte ich, dass das 50:50 ist, also, dass es gleich oft Schwarze und gleich oft Weiße auswählt für den Bildausschnitt? Oder möchte ich etwas ganz anderes? Und sobald ich eben diese Entscheidung treffen muss, was möchte ich eigentlich, merke ich, dass der Algorithmus gar nicht das zentrale Problem ist, sondern, dass ich das überhaupt automatisch Entscheiden lasse."
Lösungen ohne Algorithmus
Das Social Network Mastodon, das eine Art Open-Source-Klon von Twitter ist, begegnet diesen Problemen mit Handarbeit. Wer ein Bild hochlädt, kann mit einem Klick selbst bestimmen, was der wichtige Fokuspunkt ist, der auf jeden Fall in dem Ausschnitt zu sehen sein soll.
"Ich persönlich würde so eine Lösung bevorzugen", sagt Luca Hammer, "wobei man natürlich bedenken muss, dass die meisten Menschen eher faul sind und das dann nicht machen werden. Und man muss dann immer noch überlegen, was macht man, wenn eine Person das nicht auswählt. Die einfachste Lösung wäre, dann nimmt man einfach die Mitte vom Bild. Also dass man sagt, wir wollen da nicht den auffälligsten Bereich des Bildes automatisiert auswählen lassen, weil das macht einfach Fehler. Sondern wenn die Nutzerinnen und Nutzer das nicht auswählen, dann nehmen wir einfach die Mitte und fertig."
Das sind zumindest die Wünsche von Datenanalyst Luca Hammer. Ob Twitter wirklich bereit wäre, auf die Klicks, die der Algorithmus auslöst, zu verzichten und im Zweifel einfach einen weißen Bildausschnitt ohne irgendetwas Interessantes zeigen dürfte, ist aber eher fraglich.