Sarah Chander über Datenrassismus

"Die Technik zu verbessern, ändert nichts an dem Problem"

09:58 Minuten
Illustration eines Gitternetzes über einem Gesicht.
Gesichtserkennungssoftware sollte neutral funktionieren und nicht nach schwarzen und weißen Menschen unterscheiden, lauten Forderungen in der derzeitigen Debatte. © imago images / Ikon Images / Gary Waters
Moderation: Jenny Genzmer und Dennis Kogel |
Audio herunterladen
Die Proteste in den USA haben nun auch Einfluss auf die Tech-Konzerne: IBM, Amazon und Microsoft distanzieren sich von ihren Gesichtserkennungssystemen. Die Menschenrechtsaktivistin Sarah Chander fordert noch viel grundlegendere Veränderungen.
Dass Gesichtserkennungssoftware die Diskriminierung ethnischer Minderheiten fördert und zudem bei schwarzen Menschen schlechter funktioniert, ist schon seit längerer Zeit bekannt. Menschenrechtsorganisationen kritisieren auch in Bezug auf andere Technologien, dass sie nicht per se neutral sind und Rassismus in Algorithmen fortgeschrieben wird.
Seit den "Black Lives Matter"-Protesten nach dem gewaltsamen Tod von George Floyd haben nun die Konzerne auf die Kritik an automatisierter Gesichtserkennung reagiert. Anfang der Woche kündigte IBM an, die Entwicklung zu stoppen. Am Mittwoch hat Amazon der Polizei öffentlich verboten, die Amazon-Gesichtserkennungssoftware "Rekognition" zu benutzen, bis genauere staatliche Vorgaben dafür existieren.

Microsoft folgt IBM und Amazon

Am Donnerstag sagte der Chefjustiziar von Microsoft im Interview mit der Zeitung "Washington Post", man wolle die Technologie solange nicht mehr an die US-Polizei verkaufen, bis es einen gesetzlichen Rahmen dafür gebe und dieser müsse auf der Grundlage der Menschenrechte beruhen.
"Es stärkt die Bürgerrechtsbeweung massiv, dass IBM einen Brief an den Kongress geschrieben hat und nicht mehr akzeptieren will, dass ihre Technologie für Massenüberwachung und rassistische Polizeiarbeit eingesetzt wird", sagt Sarah Chander, politische Beraterin bei der Nichtregierungsorganisation European Digital Rights.
Chander sieht in den Reaktionen der Konzerne große Unterschiede: IBM hat sich grundsätzlich gegen automatisierte Gesichtserkennung ausgesprochen. Amazons Ansatz dagegen sei stärker von Technikgläubigkeit geprägt, was Chander kritisiert: Durch bloße Verbesserung der Technologie werde das grundlegende Problem nicht gelöst.

Technik ist nicht neutral

"Die Technik zu verbessern, ändert nichts an dem Problem rassistischer Polizeiarbeit. Wir brauchen eine Gesetzgebung, die ganz klar sagt: 'Es gibt bei Künstlicher Intelligenz, Gesichtserkennung und anderer Technik bestimmte Aspekte, die nicht mit der freien Gesellschaft übereinstimmen, die wir haben wollen.'"
Gesichtserkennung ist nicht die einzige Technologie, in der sich Rassismus fortsetzt. Auch Systeme von "Predictive Policing", die die Wahrscheinlichkeit zukünftiger Straftaten analysieren, basieren auf Datensätzen, die bereits durch rassistische Vorurteile geprägt sind. Zudem werden grundsätzlich die Technik und die computerbasierten Entscheidungen zu wenig hinterfragt.

Von den Werten aus auf Technologie schauen

"Es wird bei der Polizei und den Behörden oft gar nicht gesehen, dass es eine übergriffige Polizeiarbeit gibt, die auch durch rassistische und diskriminierende Datensätze ausgelöst wird. Würden genauso viele weiße Menschen kontrolliert werden, dann würde die Datenlage ganz anders aussehen", sagt Chander.
Die Aktivistin fordert ein stärkeres Eingreifen der Regierungen. Diese sollten die Systeme kontrollieren und deren Macht begrenzen. Doch momentan hätten die Tech-Monopole, die Sicherheitsfirmen oder auch die großen Datensammler, wie das Big Data-Unternehmen "Palantir", zu viel Einfluss. "Es gibt Hoffnung, dass es eine Welt gibt, in der Technik nicht zur Unterdrückung eingesetzt wird. Aber das ist eine sehr andere Welt, als die in der wir leben."
Chander fordert: "Wir brauchen einen demokratischen Dialog darüber, was KI für unsere Gesellschaft tun kann und was nicht. Was wäre ein akzeptabler Einsatz in einer offenen und freien europäischen Gesellschaft? Und da müssen wir erst unsere Werte anschauen und von dort auf die Technologie blicken."
Mehr zum Thema