Gesichtserkennung und ihre Gefahren

Big Brother auf dem Vormarsch

32:23 Minuten
Eine Illustration zeigt einen Frauenkörper mit einer Kamera als Kopf die sich in einem Spiegel betrachtet.
Jeder Einsatz von Gesichtserkennung und Biometrie berührt den Kern unserer Identität, warnt die Datenschutzexpertin Ella Jakubowska. © Getty Images / fStop / Malte Müller
Von Thomas Kruchem · 30.05.2022
Audio herunterladen
Gesichtserkennung mithilfe künstlicher Intelligenz: Der Einsatz biometrischer Überwachung nimmt weltweit zu – an Flughäfen, in Supermärkten, Schulen oder Unis. Die für Behörden und Unternehmen verlockende Technologie ist aber nicht ungefährlich.
London. Stadt der Westminster Abbey, des Buckingham Palace und des ältesten Parlaments der Welt. Schauplatz eines vibrierenden kulturellen Lebens mit zum Beispiel dem Nottinghill Carnival. Alljährlich im August feiern ethnische Minderheiten aus der Karibik und Afrika das größte Straßenfest Europas.
London ist jedoch auch die Stadt mit den meisten Überwachungskameras in Europa. Und 2016 begann Londons Polizei auf dem Nottinghill Carnival mit bis heute andauernden Tests sogenannter Live-Gesichtserkennung: Vom Dach eines Vans aus filmten hochauflösende Kameras die tanzende Menge. Im Innern des Vans glich Erkennungssoftware die Bilder mit einer „Watchlist“ ab, einer Liste gesuchter Personen. Immer wieder wurden feiernde Menschen überprüft.
Geschäftsleute passieren eine Überwachungskamera, die einen großen Schatten an die Wand eines modernen Bürogebäudes in der Finanzviertel City of London wirft.
London ist eines der am stärksten von CCTV-Überwachungskameras erfassten Gebiete in Europa.© Getty Images / Corbis
Das sei Massenüberwachung ohne jede Rechtsgrundlage, meint Rechtsanwalt Kouvakas Ioannis, Mitarbeiter der Datenschutzorganisation Privacy International.

Die Londoner Polizei rechtfertigt solche Massenüberwachung nur ganz allgemein, nicht aber mit konkreten Gründen, wie es internationale Gerichtshöfe fordern. Der Europäische Menschenrechtsgerichtshof zum Beispiel hält eine Massenüberwachung per Gesichtserkennung für vertretbar, wenn eine konkrete Gefahr für die nationale Sicherheit vorliegt.

Auch dann jedoch muss jede Maßnahme tatsächlich nötig und in ihrem Umfang angemessen sein. Allgemeine Befürchtungen, dass es irgendwann einen Terroranschlag geben könnte, sind auf gar keinen Fall ein hinreichender Grund, die Bevölkerung mit Gesichtserkennungstechnologie zu überwachen.

Kouvakas Ioannis

Gesichter in Videobergen zu suchen und mit Datenbanken von Bildern abzugleichen, ähnelt der Suche nach einer Nadel im Heuhaufen. Sicherheitsbehörden jedoch wollen diese Nadel unbedingt finden, um den Bürger noch besser zu schützen – vor Gewaltverbrechen, Terror, Kindesmissbrauch.

Biometrie – ein Aktionsfeld der KI

Eine Lösung bietet sogenannte künstliche Intelligenz, die in den letzten Jahren erheblich verbessert wurde. Sie hilft in immer mehr Bereichen unseres Lebens: Sie diagnostiziert Krankheiten und steuert Operationen, navigiert und errechnet Börsenkurse, erkennt und übersetzt Sprache. Künstliche Intelligenz steuert jedoch auch Raketen und spioniert Smartphones aus. Sie ist nicht nur nützlich, sondern auch gefährlich.
Ein Aktionsfeld künstlicher Intelligenz ist die Biometrie: Menschen werden anhand ihrer DNA, Stimme oder Iris, anhand ihrer Handvenen oder Bewegungsmuster erkannt.
Als eleganteste Methode der Biometrie gilt die Gesichtserkennung durch Foto- und Videoanalyse: Sie kommt ohne Berührung aus; der Betroffene merkt gar nicht, dass sein Gesicht untersucht wird. Bis zu 2000 Datenpunkte vermesse ein Algorithmus, ein Programm der Gesichtserkennung, heißt es auf der Webseite des Wiener Softwareentwicklers DSIRF.

Das Recht auf Anonymität wird berührt

Der Abstand zwischen Augen und Nase wird vermessen, der zwischen Stirn und Ohren, die Struktur der Hautoberfläche, die Form der Lippen. Je mehr Datenpunkte dann auf zwei Bildern übereinstimmen, desto wahrscheinlicher ist es, dass es sich um dieselbe Person handelt.
Jeder Einsatz von Gesichtserkennung und Biometrie jedoch berührt den Kern unserer Identität und unser Recht auf Anonymität im öffentlichen Raum – erklärt Ella Jakubowska. Die britische Datenschutzexpertin arbeitet für die Organisation European Digital Rights, EDRi.
„Der erste Einsatzzweck von Gesichtserkennungstechnologie ist die Authentifizierung, die Sie in der Regel selbst vornehmen: Sie entsperren ihr Smartphone, indem sie Ihr Gesicht mit dem im Telefon gespeicherten Bild abgleichen. Oder Sie identifizieren sich, indem Sie sich an der automatischen Passkontrolle am Flughafen fotografieren lassen und das Bild mit dem in Ihrem Pass verglichen wird“, erklärt sie.
„Diese Art der Gesichtserkennung birgt, wenn sie regelkonform vorgenommen wird, nur geringe Risiken. Denn Sie allein haben ja die Kontrolle über das Bild in ihrem Smartphone oder Pass. Da wird nichts mit einer zentralen Datenbank abgeglichen.“

Biometrische Massenüberwachung ist verboten

Problematischer sei das zweite Einsatzfeld von Gesichtserkennungstechnologie, erklärt Francesco Ragazzi, Professor für Politikwissenschaft an der Universität Leiden und Autor einer Studie zum Thema für das Europäische Parlament.

Sucht dieses System eine einzelne Person, indem es die Gesichter von zahllosen Passanten scannt? Oder sucht das System die Person, indem es Videoaufnahmen aus einem Bahnhof oder einem Einkaufszentrum untersucht? In solchen Fällen haben wir es mit Eingriffen ins Privatleben und die Menschenrechte zu tun – mit biometrischer Massenüberwachung. Und die ist laut Datenschutz-Grundverordnung prinzipiell verboten in der EU, wenn nicht alle Betroffenen zustimmen.

Francesco Ragazzi

Die Datenschutz-Grundverordnung der EU, die auch in Großbritannien gilt, sagt: Ich selbst entscheide, wer was über mich weiß. Auch im öffentlichen Raum darf ich mir meiner Anonymität sicher sein. Ich muss mich frei bewegen können – ohne Furcht vor Konsequenzen oder unangenehmen Nachfragen. Nur so sind meine Grundrechte auf freie Entfaltung der Persönlichkeit und Versammlungsfreiheit garantiert.
In diese Rechte eingreifen darf der Staat nur aus einem Grund, der per Gesetz explizit definiert ist. Der Eingriff muss zudem notwendig, angemessen und auf seinen eigentlichen Zweck begrenzt sein.
Wie sind, vor diesem Hintergrund, all die sogenannten Tests von Gesichtserkennung zu beurteilen, die die Londoner Polizei bis heute durchführt?
Illustration einer Gesichtserkennung. Zu sehen ist ein computer-animiertes männliches Gesicht mit erkennungsdienstlichen Markern und Strukturen.
Die Datenschutz-Grundverordnung der EU, die auch in Großbritannien gilt, sagt: Ich selbst entscheide, wer was über mich weiß.© Getty Images / John Lamb

Die Watchlist ist stark gewachsen

Professor Pete Fussey, Soziologe an der Universität von Essex, hat – eingeladen von der Polizei – eine Studie zu den Tests erarbeitet. Die Watchlist habe zunächst 2000 Personen umfasst, berichtet Fussey am Küchentisch seines Reihenhauses in East London. Inzwischen umfasse die Liste 10.000 Personen: Schwerverbrecher, aber auch Opfer von Verbrechen, potenzielle Zeugen und Leute, die versehentlich auf der Liste gelandet sind.
Von einem konkreten Anlass für die Überwachung von Plätzen wie dem Oxford Circus habe er nie etwas gehört, berichtet Fussey, der eine Woche lang ein Überwachungsteam begleitete.
„In den sechs Tagen, die ich im Überwachungswagen saß, hatten wir 42 sogenannte Matches. 16 wurden von Polizisten, die die Bilder verglichen, gleich aussortiert. Vier Personen gingen in der Menschenmenge verloren. 22 wurden schließlich angehalten und überprüft. 14 davon hatte man falsch identifiziert; nur acht Personen waren tatsächlich von Interesse für die Polizei“, erzählt er.

Dünnes juristisches Eis

Viel Aufwand mit geringem Ertrag – auf zudem juristisch dünnem Eis:
Erstens, sagt Professor Fussey, werde die in der Datenschutz-Grundverordnung vorgeschriebene Zustimmung betroffener Passanten häufig nicht eingeholt. Im Gegenteil: Zeitweise überprüfte die Polizei gezielt Leute, die der Kamera auswichen.
Zweitens hat der Algorithmus der Gesichtserkennung zwar eine hohe Trefferquote von über 99 Prozent. Werden aber Zehntausende Gesichter gescannt, müssen auch bei kleinster Fehlerquote Hunderte Menschen eine Überprüfung über sich ergehen lassen. Und die ist besonders unangenehm in einem Land, wo man traditionell keinen Personalausweis mit sich führt.
Drittens hat die Technologie Probleme, ältere und sehr junge Menschen, Frauen und nicht-weiße Menschen zu erkennen. Die werden deshalb von der Polizei besonders häufig überprüft und damit diskriminiert.
Viertens fehlt für die Überwachungsmaßnahmen die explizite gesetzliche Grundlage. Das kritisierte zum Beispiel am 11. August 2020 der oberste Gerichtshof von England und Wales in einem Verfahren gegen die Polizei von South Wales. Die testet bis heute ebenfalls Gesichtserkennung an belebten Plätzen. Zu deren Verbot konnte sich der Gerichtshof nicht durchringen.

Überwachung ohne dringenden Verdacht

Ein fünftes, besonders schwerwiegendes Rechtsproblem schließlich sei in die Massenüberwachung per Gesichtserkennung quasi eingebaut, erklärt Professor Fussey.

Will die Polizei zum Beispiel den Internetverkehr einer Person überwachen, muss sie eine richterliche Anordnung beantragen. Und sie muss dem Richter Anhaltspunkte für einen dringenden Verdacht auf eine Straftat präsentieren. Nur dann ist die Überwachung des Internetverkehrs zulässig.

Ganz anders läuft Massenüberwachung durch Gesichtserkennung: Da gelten, ohne Mitwirkung eines Richters, zunächst mal wir alle als verdächtig und müssen im Zweifelsfall unsere Unschuld beweisen.

Pete Fussey

Die Londoner Polizei lehnte eine Stellungnahme gegenüber Deutschlandfunk Kultur ab. Doch nicht nur die Polizei betreibt in Großbritannien Gesichtserkennung, sondern auch private Unternehmen wie die Supermarkt-Kette Southern Co-op. Bilder von Kunden, die einen ihrer Läden betreten, werden abgeglichen mit einer Watchlist registrierter Ladendiebe und Randalierer.
Über dem Co-op-Laden in der Londoner Grays Inn Road etwa hängen zwei Kameras, die auch den öffentlichen Gehweg erfassen. Ein Aushang sagt, Co-op überwache den Laden und reiche Aufnahmen an die Polizei weiter.
Zwei Überwachungskameras an einem Ladengeschäft namens St Paul's Co op in London.
Am Co-op-Laden in der Grays Inn Road überwacht die Kamera auch den öffentlichen Gehweg – vermutlich mit Gesichtserkennung.© Thomas Kruchem

„Unser Land ist von Sicherheit besessen“

Wie sehen das zwei zufällig angesprochene Kunden – ein deutsch sprechender Eritreer und ein Lehrer?
„Ich halte das für keine gute Sache. Unser Land ist zu sehr von Sicherheit besessen. Ich will einfach im Supermarkt einkaufen, was ich brauche, und nicht darüber nachdenken, dass man mich fotografiert“, sagt der eine.
„Mir praktisch ist schon passiert, dass die gedacht haben, dass es ich bin. Die haben sogar Fotos gehabt, dass sie 100 Prozent sicher waren, dass ich es war. Ich musste das beweisen, dass ich nicht war. In Holborn, ich glaube Tesco war das“, erzählt der andere.
Eine weitere Supermarktkette, die ihre Läden mit Gesichtserkennung überwacht. Weder Tesco noch Southern Co-op beantworteten Bitten um eine Stellungnahme.

„Ein höchst gefährlicher Präzedenzfall“

Private Gesichtserkennung sei legal, wenn der Kunde sie als Bedingung, ein Geschäft zu betreten, akzeptiert, erklärt Ioannis Kouvakas von der Datenschutzorganisation Privacy International. Dessen ungeachtet sieht er Indizien für Amtsanmaßung – auch bei den Lieferanten von Gesichtserkennungssoftware. Zu den größten in Großbritannien zählt das Unternehmen Facewatch, das sowohl die Polizei als auch private Kunden beliefert.
„Der Chef des Unternehmens Facewatch hat öffentlich gesagt, er tausche Watchlist-Daten mit der Polizei aus; die Polizei überlasse Facewatch Bilder verdächtiger Personen“, erzählt er. „Diese Informationen würden das Unternehmen und seine Kunden nutzen, um Betroffenen den Zugang zu Geschäften zu verwehren. Ich sehe hier einen höchst gefährlichen Präzedenzfall: Die Polizei nutzt private Unternehmen für Massenüberwachung, die sie selbst aus Datenschutzgründen nicht betreiben darf.“
Werfen wir einen Blick auf Deutschland. Hier verzichten private Unternehmen bis heute darauf, Menschen mit Gesichtserkennung zu überwachen. Ganz anders die Polizei.

Polizei nutzt Bildmaterial nach G20-Gipfel in Hamburg

Hamburg 17. Juli 2017: Während eines Treffens der G20-Staatschefs kommt es zu den vielleicht größten Krawallen in der Geschichte der Bundesrepublik. Vermummte werfen Gullydeckel auf Polizisten, Supermärkte werden geplündert, Autos gehen in Flammen auf.
In den folgenden Monaten ermittelt die Polizei mit einer bis dahin selten genutzten Technik – berichtet Hamburgs Datenschutzbeauftragter Thomas Fuchs.

Die Polizei hatte damals umfangreiches Bildmaterial gesammelt – also aus Überwachungskameras, Handyaufnahmen und Ähnliches, insgesamt fast 100 Terabytes Bild- und Videomaterial – und hat dann, um diese unfassbaren Mengen von Materialien auszuwerten, eine Gesichtserkennungssoftware eingesetzt.

Thomas Fuchs

Mit frappierendem Erfolg – resümiert in der Tagesschau vom 7. Juli 2020 Sandra Levgrün, Sprecherin der Hamburger Polizei: „Aus diesem Videomaterial haben sich über 430 Öffentlichkeitsfahndungen ergeben, von denen wir inzwischen 135 Tatverdächtige identifizieren konnten – sodass man summa summarum sagen muss, dass die Ermittlungen wirklich sehr erfolgreich gelaufen sind.“

Ist erlaubt, was nicht verboten ist?

2018, zwei Jahre zuvor, hatte Hamburgs Datenschutzbehörde die Ermittlungen mittels Gesichtserkennung untersagt. Für den Eingriff in die Grundrechte zahlloser Menschen gebe es keine explizite Erlaubnis im Hamburger Polizeigesetz, erklärt der Datenschutzbeauftragte Thomas Fuchs. Es gebe nur eine vage Generalklausel.
„Die Polizei hat, auf Grundlage der polizeilichen Generalklausel, sinngemäß argumentiert: Das ist ja nichts anderes, als wenn Polizisten händisch Bilder miteinander vergleichen, halt nur so ein bisschen schneller mit Software-Unterstützung“, sagt er. „Aber eigentlich war dieser Anwendungsbereich weder erlaubt noch verboten. Da muss man als Datenschutzbehörde dann sagen: Wenn ihr keine Legitimation dafür habt, dann dürft ihr das so auch nicht tun.“
Die Polizei zog gegen das Verbot vor Gericht und siegte in erster Instanz. Die Generalklausel reiche aus, sagten die Richter. Über die Berufung, die die Datenschutzbehörde einlegte, wurde noch nicht entschieden.
Der massive Einsatz von Gesichtserkennung in Hamburg ist bis heute ein Einzelfall in Deutschland. Unter dem Radar der Öffentlichkeit jedoch identifiziert die Polizei längst routinemäßig Straftäter, auch Kleinkriminelle. Die Videoaufnahme zum Beispiel eines Randalierers am Bahnhof wird abgeglichen mit Bildern, über die der Staat verfügt.

Intensive Erprobung der Live-Gesichtserkennung

Parallel werde auch die Technologie der Live-Gesichtserkennung intensiv erprobt, monieren Kritiker, und die Logistik für ihren Einsatz werde ausgebaut.
Am Berliner Bahnhof Südkreuz zum Beispiel testete das Bundesinnenministerium 2017 Massenüberwachung per Gesichtserkennung. Auf den Videos hochauflösender Kameras identifizierten die Behörden Freiwillige, aus denen man eine Suchliste zusammengestellt hatte.
Messdaten ahnungsloser Passanten wurden in den Abgleich einbezogen, unmittelbar danach jedoch gelöscht. Derweil werden in vielen Großstädten immer neue Überwachungskameras installiert. Berlin zählt inzwischen zu den 20 meistüberwachten Städten der Welt.

Kampf um Datenschutz in den USA

Sprung über den Atlantik – in die USA, wo es keine Datenschutz-Grundverordnung gibt. In New York arbeitet Rechtsanwältin Kaitlin Jackson für die Bronx Public Defenders, die jährlich fast 30.000 Strafverfolgte kostenlos verteidigen.
Die Anwältin erzählt von einem Fall, in dem der polizeiliche Einsatz von Gesichtserkennung eine verhängnisvolle Rolle spielte: Eine Überwachungskamera hatte einen Ladendieb gefilmt, der, als ihn ein Sicherheitsmann ansprach, ein Teppichmesser zückte und davonrannte.
Die Polizei verglich dann, mittels Gesichtserkennung, das Video mit ihrer Datenbank von Verdächtigen und Straftätern. Aus den Männern, die dem Ladendieb ähnlich sahen, sortierten Polizisten per Hand den ihrer Meinung nach richtigen heraus.

Die Polizei mailte dem Wachmann das Foto und fragte ihn: ‚Ist das der Mann, den sie gesehen haben?‘ Und natürlich sagte der Wachmann: ‚Ja‘ – so, wie es ihm die Polizisten suggeriert hatten. Man habe den Mann mit Gesichtserkennungstechnologie schon identifiziert, hatten die dem Zeugen gesagt. Er müsse das nur noch bestätigen.

Ein ganz anderes Vorgehen als früher: Da stellte man sechs Personen in eine Reihe und der Zeuge musste die richtige heraussuchen. Jetzt sieht er nur ein Foto, das – mit angeblich fast 100-prozentiger Sicherheit – den Täter zeigt. Das kann natürlich die Erinnerung des Zeugen beeinflussen.

Kaitlin Jackson

Die Anwältin wollte dann zumindest die Bilder der anderen Männer sehen, die dem Verbrecher auf dem Überwachungsvideo ähnelten. Nein, habe die Polizei gesagt. Das behindere die Ermittlungen und gefährde Geschäftsgeheimnisse des Software-Produzenten.

Fragwürdige Ermittlungspraxis

Auch das Gericht habe ihren Antrag auf Einsicht in die Bilder abgeschmettert, erklärt Kaitlin Jackson bitter. Die Auswirkungen von Gesichtserkennung auf die Beweisführung in Strafprozessen würden leider nicht berücksichtigt in Rechtsprechung und Gesetzgebung der USA – mit bisweilen dramatischen Auswirkungen.
„Es gibt ja ein interessantes Paradoxon, wenn Augenzeugen Straftäter identifizieren: Einerseits wissen wir, dass es sich um die vielleicht schwächste Form von Beweisen handelt. Menschen nämlich sind in der Regel schlecht darin, Leute zu identifizieren, die sie nur kurz gesehen haben. Andererseits überzeugt kaum ein Beweis eine Jury so sehr wie die Aussage eines Zeugen: ‚Der war es‘“, erklärt sie.
„Stellen Sie sich nun vor, Sie stehen als Zeuge vor Gericht und grübeln, ob es tatsächlich diese Person war, die sie gesehen haben. Da fühlt es sich doch super an, wenn ihnen ein Polizist gesagt hat: ‚Wir haben den Kerl längst identifiziert mit unserer Technologie. Wir brauchen nur noch Ihre Bestätigung.‘ Wie groß ist da die Versuchung zu denken: ‚Es hängt gar nicht von mir ab. Die Technologie hat die Entscheidung getroffen und ich kann ihr vertrauen.‘“
Der Verdächtige im eben geschilderten Fall, ein Mandant Kaitlin Jacksons, saß sechs Monate in Untersuchungshaft. Um nicht noch länger zu sitzen, ließ er sich schließlich auf einen Deal mit der Staatsanwaltschaft ein. Er bekannte sich schuldig; und die Strafe war mit der verbüßten U-Haft abgegolten.
Die New Yorker Polizei hat eine Bitte von Deutschlandfunk Kultur um Stellungnahme nicht beantwortet.

Gesichtserkennung mit Bildern von sozialen Medien

Ebenfalls in New York hat 2017 der junge Australier Hoan Ton-That das Startup Clearview.ai gegründet. Das Unternehmen füttert seinen Algorithmus der Gesichtserkennung mit Bildern aus dem Internet, aus sozialen Medien wie Facebook und Instagram vor allem. Nach eigenen Angaben 20 Milliarden Fotos hat das Unternehmen bis Mai 2022 zusammengerafft, ohne Betroffene zu fragen. Ende des Jahres sollten es hundert Milliarden sein.
Clearviews Algorithmus habe eine beeindruckend hohe Trefferquote, bestätigen Experten. Entsprechend groß ist die Nachfrage bei der Polizei: Rund 3000 Polizeibehörden in den USA nutzen die Clearview-Software. Polizeibehörden in Kanada, Schweden, Neuseeland und Australien nutzten sie zeitweise. Tausende Verdächtige seien bereits identifiziert worden, sagt das Unternehmen – darunter Dutzende Teilnehmer des Sturms auf das Kapitol am 6. Januar 2021.
Im März 2022 stellte Clearview seinen Algorithmus kostenlos dem Verteidigungsministerium der Ukraine zur Verfügung. Mit der Software sollen die Ukrainer russische Gefallene identifizieren und über deren Profile in sozialen Medien Angehörige informieren, sagt der Clearview-Chef am 18. April 2022 im US Fernsehsender News Nation.
Auch die Identifizierung von Kriegsverbrechern, Saboteuren und Plünderern begrüßt Hoan Ton-That. Ein Ziel seiner App sei es, von Verbrechen und Kriegsverbrechen abzuschrecken.

Geschäftsmodell von Clearview ist umstritten

Zu den nachdenklichen Stimmen gegenüber Clearview zählt der demokratische US-Senator Ron Wyden. Er befürchtet, dass der Super-Algorithmus die Anonymität des Einzelnen im öffentlichen Raum unwiderruflich zertrümmern könnte.
Die Regierungen von Kanada, Australien, Schweden, Großbritannien und Italien haben derweil Clearviews Selbstbedienung im Internet für illegal erklärt. Auch Hamburgs Datenschutzbeauftragter Thomas Fuchs hat sich, nach der Beschwerde eines Bürgers, mit Clearview auseinandergesetzt.
„Das Grundproblem ist, dass Clearview sagt: ‚Wir sind ein amerikanisches Unternehmen, und europäisches Datenschutzrecht interessiert uns überhaupt nicht.‘ Gleichwohl haben sie auf unserer Anhörungsschreiben reagiert und haben dann auch in dem konkreten Einzelfall die gespeicherten biometrischen Daten des Beschwerdeführers gelöscht“, erzählt er.
„Aber die grundsätzliche Frage, dass nämlich das ganze Geschäftsmodell von Clearview mit europäischem Datenschutzrecht überhaupt nicht vereinbar ist – da kommen wir mit unseren auf Europa begrenzten verwaltungsrechtlichen Möglichkeiten nicht ran. Und da, muss man auch sagen, ist Clearview strukturell unerreichbar.“
Eine E-Mail mit der Bitte um ein Interview hat Clearview nicht beantwortet.

Einsatzpraxis von Diktatur bis Kommerz

Derweil nutzen auch immer mehr autoritäre Regierungen Gesichtserkennung zur Massenüberwachung: In China, dem Land mit der höchsten Dichte an Überwachungskameras, kann das System SkyNet beliebige Großstadtbewohner binnen Sekunden identifizieren.
Mit SharpEyes, dem Überwachungsprogramm für Kleinstädte und Dörfer, können Bürger Bilder der Überwachungskameras auf ihrem Smartphone betrachten – und so Blockwart spielen.
In den USA und Australien verbreitet sich vor allem kommerzielle Massenüberwachung: In Einkaufszentren, Casinos, Stadien und Konzerthallen werden Leute mit Hausverbot automatisch abgewiesen. Journalisten und VIPs erhalten Zutritt zu speziellen Bereichen.

Schulen und Universitäten als Einsatzfeld

Ein beliebtes Einsatzfeld sind auch sensible Institutionen: Schulen und Universitäten.
Fliehen, sich verstecken, notfalls kämpfen. In dramatischen Szenen zeigt ein Video des amerikanischen Schuldistrikts Oak Hills bei Cincinnati, wie sich Schüler bei einer Schießerei auf ihrem Campus verhalten sollen. Jahr für Jahr kommt es an Dutzenden US-Schulen zu Schießereien.
Ein Grund dafür, dass Tausende Schulen flächendeckend mit Kameras und Gesichtserkennung überwacht werden, berichtet Neil Selwyn, Professor für Erziehungswissenschaften an der australischen Monash University.

Mithilfe von Gesichtserkennung versuchen die Schulen, nicht autorisierte Personen von ihrem Campus fernzuhalten. Dies bedeutet aber auch, dass die Schüler ununterbrochen überwacht werden. Eine Untersuchung in einem Bezirk in Texas zum Beispiel zeigt, dass es unter den 5000 Schülern dort 164.000 Erkennungen binnen einer Woche gab. Ein Schüler wurde sogar 220-mal erkannt.

Neil Selwyn

An australischen Schulen gebe es kaum Schießereien, erzählt Selwyn, aber ähnlich viele Kameras mit Gesichtserkennung. Die Motive hier: effizienter Schulbetrieb und Kontrolle der Schüler. Vielerorts wird das Kantinenessen per Gesichtserkennung abgerechnet.
Und: „Während der Pandemie sind vielerorts Systeme der Fernüberwachung entstanden: Schüler und Studenten absolvieren Prüfungen jetzt daheim am Laptop. Online-Systeme identifizieren sie und stellen sicher, dass sie nicht schummeln“, erklärt er.
„Kurz: Alles, was früher die Aufsicht im Prüfungsraum machte, erledigt jetzt die Kamera.“ Die auch Augenbewegungen registriert – den möglichen Blick auf einen Spickzettel.
Wie sehen betroffene Kinder und ihre Eltern diese engmaschige Überwachung?
„Wir haben mehrere Umfragen durchgeführt in Australien – mit dem Ergebnis, dass die meisten Eltern Gesichtserkennung an Schulen für gut halten: Das mache die Schule sicherer für ihre Kinder, sagen sie“, sagt Neil Selwyn, „es verhindere, dass Fremde ihnen etwas antun. Die Schüler wiederum schätzen es, bequem zu Hause zu sitzen und Prüfungen von ihrem Schlaf- oder Arbeitszimmer aus abzulegen.“

Ein Überwachungsboom mit Folgen

Sorgen bereitet dem Pädagogen Selwyn das hinter dem Gesichtserkennungsboom stehende Schüler- und Menschenbild: Der ideale Schüler verhält sich möglichst unauffällig. Er lernt nicht im kritischen Dialog und mit viel Experimentierfreude, sondern speichert passiv Wissen. Er wird erzogen zum braven Bürger in einer tendenziell autoritären Gesellschaft.
In der EU und Großbritannien verbietet die Datenschutz-Grundverordnung Gesichtserkennung an Schulen, es sei denn, alle Eltern haben zugestimmt. Insgesamt aber stünden auch Europäer der Gesichtserkennung eher positiv gegenüber, meint der in Leiden lehrende Politik-Professor Francesco Ragazzi.

Wenn wir die Leute fragen, ob sie für Massenüberwachung sind, sagen sie natürlich Nein. Ganz anders, wenn wir sie fragen: ‚Haben Sie ein Facebook- oder Gmail-Konto? Würden sie sich mit ihrem Gesicht ausweisen, um schneller in der Metro oder am Flughafen voranzukommen?‘ Ja, sagen dann die meisten Leute und sind gern bereit, ihre Daten preiszugeben.

Francesco Ragazzi

Menschen in Deutschland kritischer eingestellt

Nur in Deutschland seien die Menschen etwas kritischer, sagt Ragazzi. Da hätten viele noch Nazizeit und Stasi im Hinterkopf. Wirklich skeptisch aber zeige sich nur eine kleine Minderheit.
„Besorgt um ihre Daten sind Leute, die Probleme mit den Behörden haben: politische Aktivisten, Angehörige sexueller Minderheiten, kritische Journalisten. Bei diesen Leuten handelt es sich allerdings um eine sehr kleine Gruppe, um jene kleine Gruppe von Menschen, die in der Tat befürchten müssen, mithilfe der neuen Technologien überwacht zu werden.“
Und dies nicht ohne Grund: Rein technisch ist es heute möglich, Videos aus zahllosen Überwachungskameras abzugleichen mit mehreren Hundert Millionen Führerschein- und Passbildern von EU-Bürgern – und mit Milliarden Bildern aus sozialen Medien.
„Potenziell lässt sich die bestens erprobte Technik problemlos verbinden mit den gewaltigen Mengen gespeicherter Daten über uns. Rein technisch ist es deshalb durchaus möglich, sehr schnell eine Massenüberwachung einzuführen, wie sie in China bereits existiert. Die Daten über die einzelnen Menschen sind vorhanden, die Algorithmen und die Erkennungstechnologie“, sagt er.
Und nicht nur das: Im Zweifelsfall hätten Überwacher Zugriff auch auf die GPS-Daten unserer Autos, Daten aus unseren Smartphone-Apps und irgendwann vielleicht auf Informationen aus unserer DNA. Chinas Regierung sammelt bereits die DNA sämtlicher männlicher Chinesen.

EU arbeitet an einem KI-Gesetz

Um einen solchen Albtraum bei uns zu verhindern, fordern in Europa über 200 Organisationen der Zivilgesellschaft ein kategorisches Verbot von Gesichtserkennung im öffentlichen Raum.
Und die EU-Institutionen arbeiten zurzeit an einem Gesetz über künstliche Intelligenz, dem ersten weltweit. Für die Gesichtserkennung blieben die Regeln der Datenschutz-Grundverordnung und der EU-Richtlinie für Strafverfolgung unverändert gültig, betont Johannes Bahrke, digitalpolitischer Sprecher der EU-Kommission.
„Es ist zunächst einmal verboten, mit klaren Ausnahmen: Suche nach einem vermissten Kind, die terroristische Bedrohung, die unmittelbar ist und konkret, oder Täter oder Verdächtiger schwerer Straftaten. Und auch dann nur durch richterliche Anordnung“, erklärt er. „Dann gibt es auch Beschränkung in Bezug auf die Dauer, auf den Ort, dass man das so eingegrenzt wie möglich nur machen kann.“

„Das ist keine freie und offene Gesellschaft mehr“

„Schöne Worte“ meint der EU-Parlamentarier Patrick Breyer von der Piratenpartei. Doch der Gesetzentwurf der Kommission liste eine lange Latte von Straftaten auf, die mit biometrischer Massenüberwachung verfolgt werden dürfen: Gewaltverbrechen, Terror, Kindesmissbrauch, Geldwäsche und so weiter.
Die Folge: „Es sind ständig Hunderte und Tausende Personen zur Fahndung ausgeschrieben. Das heißt: Es gäbe dauerhaft viele gerichtliche Anordnungen, die so etwas erlauben würden. Und damit, im Endeffekt, dass an jeder Straßenecke gescannt wird, ob man vielleicht in irgendeiner Datenbank zur Fahndung ausgeschrieben ist. Das ist keine freie und offene Gesellschaft mehr“, so der Politiker.

Autor: Thomas Kruchem
Sprecher: Tonio Arango
Regie: Beatrix Ackers
Technik: Jan Fraune
Redaktion: Carsten Burtke

Mehr zum Thema