Großbritannien: Forscher fordern Verbot polizeilicher Gesichtserkennung

Polizist in London
Die Wissenschaftler der Universität Cambridge haben polizeiliche Testläufe von Gesichtserkennung zwischen 2016 und 2022 untersucht. (Quelle: IMAGO / agefotostock)

Der britischen Polizei sollte der Einsatz von Gesichtserkennungstechnik im öffentlichen Raum untersagt werden. Zu diesem Schluss kommen britische Forschende in einer neuen Untersuchung. Der Einsatz der Technik verstoße gegen ethische und rechtliche Mindeststandards.

Die Wissenschaftler vom “Minderoo Centre for Technology and Democracy” an der Universität Cambridge haben für ihre Studie drei mehrmonatige Einsätze der Technik untersucht: einen durch die Londoner Polizei und zwei durch die Polizei in Südwales.

Ausgewertet wurden zwei Einsätze von Echtzeit-Gesichtserkennungstechnik, bei der alle von den Kameras erfassten Gesichter mit einer Liste von gesuchten Personen abgeglichen wurden. Außerdem wurde der Einsatz von Gesichtserkennungssoftware auf Mobiltelefonen durch die Polizei in Südwales betrachtet. Dort hatten die Beamten Personen mit dem Handy fotografiert und eine Software hatte die Bilder anschließend mit gesuchten Personen abgeglichen.

Die Forscher bewerteten den Einsatz der Technik anhand verschiedener Prüfkriterien, etwa an der Übereinstimmung mit Gesetzen wie dem “Human Rights Act” und den britischen Datenschutzbestimmungen. Auch wurde geprüft, ob die Polizei die Zuverlässigkeit der Technik bewertet und Informationen zu ihren Tests veröffentlicht hat.

Die Forschenden kamen zu einem klaren Ergebnis: Eine ausdrückliche Rechtsgrundlage für den Einsatz von Gesichtserkennung durch die Polizei existiere in Großbritannien bisher nicht. Alle drei untersuchten Fälle hätten den ethischen und rechtlichen Mindeststandards für den Einsatz von Gesichtserkennungstechnologie nicht genügt.

Eingriff in Menschenrechte

So sei der Einsatz der Technik in allen untersuchten Szenarien sehr weitreichend gewesen – und habe möglicherweise gegen das Recht auf Privatsphäre verstoßen. Zudem habe etwa die Polizei in Südwales Echtzeit-Gesichtserkennung bei einer friedlichen Demonstration verwendet und damit in die Rechte auf freie Meinungsäußerung und Versammlungsfreiheit eingegriffen. Die Verwendung der Gesichtserkennung sei in einer demokratischen Gesellschaft auch nicht notwendig.

Die Forschenden kritisieren auch, die Polizei habe die Technologie nicht transparent auf Voreingenommenheit untersucht. Der Einsatz von Gesichtserkennung ist umstritten, weil die Technik als unzuverlässig gilt und Menschen mit dunkler Hautfarbe häufig schlechter erkennt.

Die Polizei von Südwales gab gegenüber dem Guardian an, bisher 61 Menschen festgenommen zu haben, nachdem diese durch Gesichtserkennung identifiziert wurden. Die Forschenden kritisieren hieran, die Polizei habe keine demografischen Daten zu den Verhaftungen veröffentlicht. Daher sei es schwierig zu beurteilen, ob die dort eingesetzte Technologie sogenanntes Racial Profiling fördert – also die Kontrolle von Menschen aufgrund ihres Aussehens oder ihrer vermeintlichen Herkunft.

Keine unabhängige Aufsicht

Darüber hinaus seien nicht alle Einsätze der Technik von einer unabhängigen Ethikkommission überwacht worden. In Südwales sei eine solche Kommission zwar einbezogen worden – in ihr habe es aber keine unabhängigen Expertinnen und Experten für Menschenrechte und Datenschutz gegeben. Auch mit zivilgesellschaftlichen Gruppen sei nicht zusammengearbeitet worden, insbesondere nicht mit besonders betroffenen marginalisierten Gruppen. Die Forschenden mahnen jedoch, Gesichtserkennung bedrohe besonders die Menschenrechte von Minderheiten.

Nach Angaben der Wissenschaftler macht die Polizei in England und Wales zunehmend Gebrauch von der umstrittenen Technik. Zwar handle es sich größtenteils um einen Testbetrieb, die Gesichtserkennung werde dabei aber bereits zu polizeilichen Zwecken verwendet. Die Strafverfolger argumentierten meist mit der Bekämpfung von Terrorismus und schweren Straftaten. Dem halten die Wissenschaftler entgegen, der Einsatz könne leicht auf andere Vergehen oder Personengruppen ausgeweitet werden. Es gebe daher ernsthafte Bedenken, dass die Rechte unschuldiger Menschen verletzt werden könnten.

Anhaltende Kritik an Gesichtserkennung

Diese Auffassung wurde in Großbritannien auch bereits von einem Gericht geteilt: Gegen den Testbetrieb von Echtzeit-Gesichtserkennung in Südwales zwischen Mai 2017 und April 2019 hatte ein Betroffener geklagt. Im Jahr 2020 hatte ein Gericht den Einsatz für unrechtmäßig befunden, weil das Recht auf Privatsphäre des Klägers verletzt wurde. Die Richter hatten außerdem festgestellt, dass die Polizei die eingesetzte Software nicht ordnungsgemäß auf rassistische und geschlechtsspezifische Vorurteile untersucht hatte.

Wissenschaftler der Universität Essex hatten zudem die Testphase der Londoner Polizei begleitet und im Jahr 2019 einen unabhängigen Bericht verfasst. Darin kritisieren sie, es fehle eine gesetzliche Grundlage für den Einsatz der Gesichtserkennung. Zudem bemängelten sie die Erkennungsgenauigkeit: Nur in 19 Prozent der Fälle identifizierte das System Personen korrekt – eine Fehlerquote von 81 Prozent.

Die Londoner Polizei und die Behörde aus Südwales gaben gegenüber dem Guardian an, seit den untersuchten Tests seien Verbesserungen an der Technik vorgenommen worden.

Die britische Menschenrechtsorganisation Liberty kritisiert jedoch, eine genauer arbeitende Technologie würde die Probleme nicht verringern, sondern diskriminierende Polizeiarbeit sogar noch verstärken. Die Organisation kritisiert zudem, bei der Echtzeit-Gesichtserkennung würden sensible biometrische Daten von Menschen ohne deren Wissen oder Zustimmung gesammelt. Der Einsatz sei unrechtmäßig – und müsse verboten werden. (js)