Großbritannien: Klagen wegen falscher Identifizierung durch Gesichtserkennung
In London und in Manchester wurden zwei Personen jeweils fälschlicherweise von Gesichtserkennungssoftware identifiziert. Nun klagen sie gegen die Londoner Polizei beziehungsweise gegen das Unternehmen Facewatch, das Einzelhändlern ein Gesichtserkennungssystem anbietet. Die Organisation Big Brother Watch unterstützt die Klagen und fordert ein Verbot der umstrittenen Technik.
Einer der Klagenden ist der 38-jährige Shaun Thompson, der sich bei der Initiative Street Fathers gegen Jugendgewalt engagiert. Wie Big Brother Watch mitteilte, war er auf dem Nachhauseweg von seiner Freiwilligenschicht, als ihn das Gesichtserkennungssystem der Londoner Polizei fälschlicherweise als eine gesuchte Person identifizierte.
Die Beamten hielten ihn daraufhin fast 30 Minuten lang fest. Big Brother Watch berichtet, sie hätten wiederholt seine Fingerabdrücke nehmen wollen und ihm mit einer Verhaftung gedroht. Dabei habe Thompson mehrere Ausweisdokumente vorlegen können, aus denen hervorging, dass er nicht die gesuchte Person ist.
Thompson sagte: “Sie sagten mir, ich sei ein gesuchter Mann, versuchten, meine Fingerabdrücke zu bekommen und mir Angst vor einer Verhaftung zu machen, obwohl alle wussten, dass der Computer sich geirrt hatte.” Er sei wütend, dass er wie ein Schuldiger behandelt wurde.
Die Klage gegen die Polizei habe er nun eingereicht, weil er nicht wolle, dass anderen Menschen dasselbe passiere. Gesichtserkennung mache Gemeinschaften nicht sicherer und müsse gestoppt werden.
Polizei nutzt Technik im öffentlichen Raum
Die Londoner Polizei setzt bereits seit mehreren Jahren mobile Einheiten ein, die mit Gesichtserkennung ausgerüstet sind. Bereits in der Testphase hatte es jedoch Kritik gegeben: Wissenschaftler der Universität Essex hatten Probeeinsätze begleitet und dem System im Anschluss eine Fehlerquote von 81 Prozent bescheinigt. Die Wissenschaftler hatten zudem darauf hingewiesen, dass es keine Rechtsgrundlage für den Einsatz von Gesichtserkennung gebe.
Auch Big Brother Watch bemängelt, es fehle eine Rechtsgrundlage und auch das Parlament habe den Einsatz der Technik nicht genehmigt.
Einem Bericht der BBC zufolge nimmt der Einsatz der umstrittenen Technik durch die Londoner Polizei immer weiter zu. Im Jahr 2023 habe die Polizei die Einheiten 23 Mal eingesetzt – in diesem Jahr bereits 67 Mal. Dabei soll es auch zu Fehlerkennungen gekommen sein.
Gesichtserkennung gegen Diebstahl
Auch Einzelhändler in Großbritannien setzen teils Gesichtserkennung ein, um Ladendiebe zu identifizieren. Laut Big Brother Watch hatte im Februar eine 19-Jährige – die von der NGO “Sara” genannt wird – in Manchester in einer Filiale der Kette Home Bargains einkaufen wollen. Das dortige Echtzeit-Gesichtserkennungssystem der Firma Facewatch habe sie fälschlicherweise als Ladendiebin eingestuft. Sie sei daraufhin vom Personal durchsucht, als Diebin bezeichnet und aus dem Geschäft geworfen worden. Außerdem sei ihr gesagt worden, sie habe nun in verschiedensten Geschäften in Großbritannien Hausverbot.
Sara sagte: “Ich habe noch nie in meinem Leben gestohlen und war daher verwirrt, verärgert und gedemütigt, in einem Laden voller Menschen als Kriminelle abgestempelt zu werden.” Den Geschäften sollte der Einsatz von Gesichtserkennung untersagt werden, fordert sie. Ihre Klage richtet sich sowohl gegen Facewatch als auch gegen Home Bargains.
Laut Big Brother Watch hat das Unternehmen Facewatch inzwischen eingeräumt, dass die Software Sara fälschlicherweise erkannt hat. Auch Geschäfte wie Southern Co-op, Flannels und Sports Direct setzen landesweit die Technik in ihren Filialen ein. Der Organisation zufolge können die Kunden des Anbieters untereinander Fotos von Personen, die sie beispielsweise für Diebe halten, weitergeben. Das sei problematisch, weil die von der Gesichtserkennung genutzten biometrischen Daten besonders sensibel sind. Der aktuelle Fall sei dabei nur die “Spitze des Eisberges”. Angaben von Big Brother Watch zufolge würden immer mehr Menschen Hilfe suchen, nachdem sie fälschlicherweise identifiziert wurden.
Datenschutzverstöße
Die NGO hatte bereits im Jahr 2022 Beschwerde bei der britischen Datenschutzbehörde gegen Facewatch eingelegt. Die Behörde hatte festgestellt, dass das Unternehmen gegen den Datenschutz verstoßen hat, unter anderem wegen unrechtmäßiger Datenverarbeitung. Big Brother Watch kritisiert allerdings, dass keine weiteren Schritte eingeleitet wurden.
Recherchen der britischen Zeitung Observer zufolge sollen sich Beamte des Innenministeriums gegenüber der Datenschutzbehörde dafür eingesetzt haben, dass diese zu einem “wohlwollenden” Ergebnis bei ihrer Untersuchung kommt.
Organisation fordert Verbot
Silkie Carlo, Direktorin von Big Brother Watch und Mitklägerin gegen die Londoner Polizei, sagte, die Erlebnisse von Shaun Thompson und Sara seien der Beweis, dass Gesichtserkennung die Rechte der Bevölkerung bedrohe – und verboten werden müsse. “Diese Klagen sind ein wichtiger Schritt, um die Privatsphäre und Freiheit der Öffentlichkeit vor der Orwellschen Live-Gesichtserkennung zu schützen.”
Sie kritisierte: “Gesichtserkennung ist ungenau und gerät im Vereinigten Königreich gefährlich außer Kontrolle. Keine andere Demokratie der Welt spioniert ihre Bevölkerung mit Live-Gesichtserkennung so unbekümmert und beängstigend aus wie das Vereinigte Königreich. Es ist alarmierend, dass die Regierung versucht, ihre Anwendung auf das ganze Land auszuweiten.”
Das britische Innenministerium hatte im April angekündigt, Millionen in Gesichtserkennung investieren zu wollen. Unter anderem sollen von dem Geld neue mobile Einheiten für die Polizei gekauft werden, die in Einkaufsstraßen eingesetzt werden können und mit Live-Gesichtserkennung ausgestattet sind.
Bereits im Herbst 2023 hatte das britische Innenministerium außerdem eine Zusammenarbeit mit Einzelhandelskonzernen angekündigt, darunter große Ketten wie Primark und Marks & Spencer und die Supermarktkette Co-op. Teil der Kooperation ist auch der Einsatz von Gesichtserkennung: Die Einzelhändler sollen Aufnahmen von ihren Überwachungskameras an die Polizei übermitteln, die diese mit ihren Datenbanken abgleicht.
Menschenrechtsorganisationen hatten unter anderem kritisiert, dass Gesichtserkennungssoftware Menschen mit dunkler Hautfarbe häufiger falsch erkennt. Dies könne dazu führen, dass bereits marginalisierte Gruppen eher von der Polizei angehalten und kontrolliert oder von Mitarbeitenden in den Geschäften während ihrer Einkäufe überwacht werden. (js)