Wie sich Stereotype in Suchmaschinen festsetzen
Das Suchsystem bei Google folgt bestimmten Algorithmen. Diese Schemata basieren oft auch rassistischen, sexistischen und anderen Vorurteilen. Dominieren auch im Internet die reichen weißen Männer?
Am Anfang ein kleines Experiment: "…ich sitze vor meinem Laptop, hab Google geöffnet – und jetzt gebe ich in die Suchleiste ein: "Frauen sollten". Und Google ergänzt: "sich rar machen", "keine Rechte haben", "keine Hosen tragen".
Schon 2013 kritisierte die Frauenorganisation der UNO diese vermeintliche "Autocomplete-Wahrheit" in einer großen Kampagne – als diskriminierend.
Corinna Bath: "Das ist immer wieder der Streit zwischen denjenigen, die behaupten, Technik ist neutral – und denjenigen, die wie ich behaupten, Technik ist nicht neutral, sondern kann Diskriminierung auch enthalten."
Corinna Bath von der Technischen Universität Braunschweig. Die Informatikerin beschäftigt sich seit fast 20 Jahren mit der Frage, wie sich Geschlechterstereotype in technische Systeme einschreiben. Denn: zwar basieren die in der Autovervollständigung angezeigten Suchvorschläge Google zufolge auf einem neutralen Algorithmus. Der sie selbstständig unter anderem daraus generiere, wie häufig Nutzer nach einem Wort oder einer Wortgruppe gesucht haben. Und der die ganze Bandbreite der im Netz zur Verfügung stehenden Informationen zu einem Suchbegriff abbilde. Aber:
"Wenn ich jetzt an mein Forschungsprojekt über das Sammeln von Informationen über Sachverhalte denke – allein schon wie ich Informationen aufbereite, diese formalen Sprachen, mit denen dort gearbeitet wird, die können schon einen Bias haben."
Das heißt, sie können bestimmte Annahmen der Programmierer widerspiegeln. Beispielsweise seien bei einigen Methoden, die Informationen im Netz für Rechner besser lesbar machen sollen, nur sehr einfache Satzbildungen zulässig.
"Wenn man sich aber ankuckt, was Menschen schreiben, dann sind die Sachen oft viel komplexer – und dann kann man viele Dinge einfach nicht mehr erfassen."
Wie Suchmaschinen-Algorithmen genau arbeiten, ist in der Regel Firmen-Geheimnis. Es ist nur schwer überprüfbar, welche Quellen wie genau in eine Suche einbezogen werden. Ob Seiten vielleicht stärker herangezogen werden, wenn die Betreiber dafür bezahlt haben, dass sie im Ranking weit oben erscheinen. Es ist dagegen wahrscheinlich, dass Inkongruenzen zwischen Realität und ihrer Abbildung im Netz durch Algorithmen verstärkt werden:
Kate Crawford: "Das hier bekommt jemand zu sehen, der in seine Suchmaschine 'CEO' eintippt…"
Immer noch mehr Männer auf Chefposten
Porträts fast ausschließlich weißer älterer Männer nämlich – kritisierte Kate Crawford, Forschungsleiterin bei Microsoft, auf der Konferenz Re:publica Anfang Mai in Berlin.
Crawford: "Und wenn eine Künstliche Intelligenz jetzt die häufigsten Suchergebnisse zu solchen Suchanfragen scannt, dann lernt sie: So sieht also ein CEO aus! Ein Mann im Anzug."
Die Folge – so zeigt eine Studie der Carnegie Mellon University aus dem letzten Jahr: bestimmte Perspektiven werden für Frauen damit regelrecht unsichtbar. Die Forscher hatten künstliche Web-Accounts angelegt, je zur Hälfte mit männlichen und weiblichen Profilen.
Crawford: "Und viel, viel mehr Männer als Frauen bekamen dann Werbung für hochbezahlte Stellen angezeigt. Wenn aber weniger Frauen von bestimmten Stellen erfahren, bewerben sich auch weniger Frauen darauf und dann werden sie diese Jobs auch nicht bekommen."
Natürlich ist es nicht ausgeschlossen, dass die Unternehmen gezielt nach Männern gesucht haben – und es nicht ein stereotyp trainierter Algorithmus war. Allerdings: Die Folge ist in beiden Fällen ein sich selbst verstärkender Mechanismus: Mehr Männer auf Chef-Posten, mehr Bilder von Männern auf Chef-Posten im Netz.
Crawford: "..und das führt wiederum dazu, dass Anzeigen noch gezielter auf Männer ausgerichtet werden und die dann noch häufiger diejenigen sind, die sich bewerben."
Ansichten technischer Designer schreiben sich im Netz fort
Wer als Designer technischer Systeme mit darüber bestimmen kann, welche Informationen im Netz zu finden sind und was sie bedeuten – dessen Ansichten schreiben sich fort. Nicht nur in Such-Algorithmen, sondern auch in Systemen zur Strafverfolgung. Video-Überwachungssysteme zur Erkennung von Gefahrensituationen etwa werden häufig mit Simulationen von Gewalttaten trainiert.
Jens Hälterlein: "Das macht man dann in der Regel so, dass man so Testvideos dreht, wo man sagt: zwei Personen sollen mal bitte so tun, als ob sie sich prügeln. Und versucht dann da typische Bewegungsmuster rauszufiltern, von denen man annimmt, dass die passieren, bei einer Schlägerei. Wo fraglich ist: sieht das dann wirklich genauso aus, wie eine echte Schlägerei?"
Der Soziologe Jens Hälterlein hat an der Universität Potsdam und der Technischen Universität Berlin zu ethischen Fragen automatisierter Videoüberwachung geforscht.
Hälterlein: "Also: eigentlich will man Material erzeugen, wo dann ein Algorithmus versteht, wie sowas durchschnittlich aussieht. Eigentlich müsste man aber vorher, wenn man sich Szenarien ausdenkt, schon wissen: wie sieht sowas denn durchschnittlich aus. Also es kommen immer die Vorstellungen, Erfahrungswerte der Leute, die sowas simulieren, da mit rein."
Besonders heikel ist das bei Systemen des "Predictive Policing" – Programme, die vorhersagen sollen, wo demnächst wahrscheinlich Straftaten begangen werden. Die Gefahr: So wie das Bild vom weißen, männlichen Chef mit der Erfahrungswelt der Designer von Such-Algorithmen übereinstimmt und diese reproduziert – so schreibt sich das Bild vom nicht-weißen, männlichen Kriminellen aus dem Problemviertel in den Predictive Policing-Systemen fort:
Crawford: "Die Systeme werten eine ungeheure Datenmenge aus – historische Daten aus Polizeiakten zum Beispiel, über Gegenden, in denen es häufig zu Einbrüchen kommt. Diese Gegenden werden in sogenannten Heat-Maps markiert – und die Polizei kann dann dort mehr Beamte hinschicken, die nach verdächtigen Aktivitäten Ausschau halten."
Schwarze haben kaum Chancen auf dem Wohnungsmarkt
Mehr Kontrollen aber führten auch zu mehr Festnahmen, so Kate Crawford. Und wird eine Gegend – in den USA meist ärmere Viertel mit schwarzer Bevölkerung – erstmal auf diese Weise behandelt, verfestigt sich dieser Status weiter. Einer Studie der Harvard-Professorin Latanya Sweeney zufolge bekommen schon jetzt 80 Prozent der Menschen, die im Netz nach Namen suchen, die mit Schwarzen assoziiert werden, Anzeigen präsentiert, die das Wort "Arrest" enthalten. Was die Chancen von Schwarzen bei der Arbeits- und Wohnungssuche erneut verschlechtert – im Vergleich zu Menschen mit "weiß klingenden" Namen. Sucht man nach ihnen, erscheinen diese Anzeigen in nur 20 Prozent der Fälle.
Crawford: "Das heißt: Wenn wir nicht auch den Zusammenhang von Rassismus, Klassenunterschieden und Polizeigewalt im Blick haben, wenn wir solche Systeme programmieren, dann riskieren wir, dass wir uns auf vermeintlich rein datenbasierte Systeme verlassen, die ganz objektiv erscheinen. In die aber Vorurteile und Stereotype strukturell eingeschrieben sind."
Die gute Nachricht: Die Systeme sind von Menschen gemacht – und können von Menschen verändert werden. Erst Ende Juli hatten Forscher von der Boston University kritisiert, dass eines der verbreitetsten Systeme zur Suche nach Wörtern und Wortverbindungen eklatant sexistisch sei. Auf der Basis von Google-News-Texten stellte es Verbindungen her wie: Vater verhält sich zu Doktor wie Mutter zu Krankenschwester. Es gelang den Forschern jedoch, das System so umzuprogrammieren, dass es jetzt andere Wortverbindungen herstellt. Etwa: männlich zu weiblich oder Handtasche zu Brieftasche.
… okay – dann zum Schluss nochmal die Gegenprobe: Ich tippe ein "Männer sollten" – und Google ergänzt: "Röcke tragen".
Das wäre doch schon mal ein Anfang.