Wie negative Schlagzeilen diskriminiert werden
In sozialen Medien gibt es Algorithmen, die autonom entscheiden, welche Daten verbreitet werden. Bei Facebook erscheinen etwa eher gefällige Themen als negative Schlagzeilen. In Berlin haben jetzt Wissenschaftler über die Ethik dieser Methode diskutiert.
Die Unruhen in Ferguson, August 2014. Nach der Erschießung von Michael Brown durch Polizisten brechen in dem US-Städtchen Unruhen aus. Der Technikforscherin Zenynep Tufeci von der University of North Carolina fiel auf, dass die Ereignisse in ihrer Facebook-Timeline lange fehlten. Anders als in anderen sozialen Netzwerken.
Zenynep Tufeci: "Facebook hat ein System in Bewegung gesetzt, dass Dinge bevorzugt, die man mögen kann. Und das macht Nachrichten weniger relevant, die man nicht mögen kann – weil es eben keinen Weg gibt, auszudrücken, dass man etwas wichtig findet, wenn es nur einen Like-Button gibt. Das sind Spielregeln, die Facebook aufgestellt hat. Und diese Regeln diskriminieren eine bestimmte Art von Geschichten."
Nur ein Beispiel von vielen für die ethischen Implikationen von Algorithmen, denen sich in der vergangenen Woche eine Konferenz in Berlin widmete.
Eingeladen vom Center for Internet und Human Rights der Viadrina-Universität in Frankfurt/Oder kamen Sozialwissenschaftler und Juristen, Programmierer, NGO- und Wirtschaftsvertreter aus aller Welt zusammen, um die "Ethik von Algorithmen" zu ergründen – so der Titel der Veranstaltungen.
In vernetzten Gesellschaften erstreckt sich der Einfluss von Algorithmen längst auf fast alle Lebensbereiche. An Dystopien über Maschinen, die uns regieren, mangelt es in Medien und Popkultur nicht. Soziologin Tufeci, Keynote-Speakerin auf der Konferenz, differenziert:
"Algorithmen kann eine Ethik innewohnen insofern, dass ihr Wirken Konsequenzen haben kann, die wir Menschen als unethisch empfinden können. Sie sind etwas neuartiges. Diese Maschinen agieren selbstständig. Ich sage nicht, dass sie lebendig sind. Aber sie haben Handlungsmacht. Sie handeln. Das ist etwas neues: Eine Maschine, die Entscheidungen trifft, als wäre sie eine Art Lebewesen."
Mitunter könnten nicht einmal ihre Programmierer vorhersagen, welche Verknüpfungen Algorithmen herstellen, um bestimmte Ergebnisse auszuspucken, sagt Tufeci. Sie vergleicht die Maschinen mit Kindern, denen man Dinge beibringt und die auf Basis von Erlerntem eigene Wege einschlagen. Dennoch:
"Ich sehe sehr wenig Aufmerksamkeit für das Thema Algorithmenethik. Und das finde ich ziemlich verwunderlich, da diese Systeme alles beeinflussen – von Einstellungspolitik bis hin zur Einstufung als Terrorist."
Doch an welchem Punkt finden ethischen Implikationen überhaupt Eingang in Algorithmen?
Kave Salmatian: "Finden ethische Erwägungen statt während du programmierst? Oder während du den Code laufen lässt? Oder während Du das System designst?"
Der Code und die Architektur können Themen diskriminieren
Kave Salmatian ist Computerwissenschaftler an der Universität Savoie. Er sagt, dass schon Code und die Architektur von Datenbanken auf Modellen und Annahmen ihrer Schöpfer basieren. Und eben auch diskriminieren können. Dennoch gibt es immer Möglichkeiten, gegenzusteuern:
"Das gute an Computerwissenschaften ist, dass Entscheidungen, die man an einem Punkt getroffen hat, nicht irreversibel sind. Aber man muss herausfinden, dass diese Entscheidungen an einem bestimmten Punkt getroffen worden sind. Und dass es viel Anstrengungen bedarf, um die Architektur von Systemen zu verändern."
Im Grund stehe die Debatte über Ethik von Algorithmen noch ganz am Anfang, erklärt Ben Wagner. Er ist Direktor am Frankfurter Center für Internet und Human Rights und hat die Konferenz mitorganisiert.
Regulierungen oder politische Beschränkungen für Algorithmen hält Wagner nicht pauschal für den richtigen Weg:
Ben Wagner: "Welche Algorithmen sind gemeint, in welchem Kontext sind Algorithmen gemeint, wie regulieren Algorithmen, wie werden Algorithmen reguliert – da sind ganz viele Fragen, die noch sehr offen sind. Ich weiss nicht ob Algorithmische Regulierung die Lösung ist, weil dann ja die nächste Frage ist: Regulierung von wem und wie reguliert und so weiter."
Techniksoziologin Tufeci hat bereits konkretere Vorstellung:
"Wenn wir die Maschinen so weitreichende Aufgaben übertragen, brauchen wir irgendeine Form von Zugang, von Überprüfung und von Transparenz."
Sie schlägt verschiedene Maßnahmen vor: Wissenschaftler, die sich dem Verkauf ihrer Technologie in bestimmte Länder widersetzen. Verhaltenskodizes für Unternehmen. Politische Regulierungen. Man müsse ausprobieren, was funktioniere – um Algorithmen und ihre ethischen Implikationen zu bändigen.