US-Konzerne stellen sich gegen Gesichtserkennung
Erstellt am 12.Juni 2020, 15:14 Uhr | Kategorie: News
Inmitten der US-amerikanischen Proteste verweigern Tech-Konzerne, die Behörden mit Gesichtserkennungs-Software zu versorgen. Den ersten Schritt machte IBM, nun folgen Amazon und Microsoft.
Amazon will seine Gesichtserkennungs-Software ein Jahr lang nicht der Polizei zur Verfügung stellen. Der Konzern hoffe, dass der US-Kongress sich in dieser Zeit auf einen regulierenden Rechtsrahmen für die Technologie einigen könne, erklärte Amazon. Man werde die Software mit dem Namen “Rekognition” aber weiterhin zum Beispiel für Organisationen verfügbar machen, die nach vermissten Kindern suchen, die Opfer von Menschenhändlern geworden sein könnten.
Auch Microsoft will keine Gesichtserkennungs-Software mehr an die US-Polizei verkaufen, bis es eine gesetzliche Regelung gibt. Der rechtliche Rahmen dafür müsse auf Grundlage der Menschenrechte erfolgen, sagte der Chefjustiziar des US-Konzerns Brad Smith der Washington Post.
Erst Anfang der Woche hatte IBM angekündigt, sich aus dem Geschäft mit Gesichtserkennungs-Software komplett zurückzuziehen. Der Computer-Konzern erklärte, man wolle nicht zulassen, dass Technologie für Massenüberwachung, rassistische Diskriminierung und die Verletzung grundsätzlicher Menschenrechte und Freiheiten verwendet wird, hieß es in einem Brief an US-Abgeordnete. CEO Arvind Krishna forderte einen “nationalen Dialog”. Google scheut wegen solcher Bedenken schon seit Jahren davor zurück, Technologie für Gesichtserkennung anzubieten oder öffentlich zugänglich zu machen.
Diskriminierung und Überwachung
Bei der Gesichtserkennung durch Behörden werden zur Identifizierung von Personen Kamerabilder mit Datenbanken abgeglichen. Zuletzt hatte sich in den USA die Kritik am breiten Einsatz von Gesichtserkennung verstärkt, weil damit Überwachung von Menschen und die Diskriminierung einzelner Bevölkerungsgruppen möglich sei. Einige US-Städte wie San Francisco haben den Einsatz solcher Technologien bereits untersagt.
Eine Studie des Massachusetts Institute of Technology (MIT) aus dem Jahr 2018 testete verschiedene Gesichtserkennungsprogramme auf ihre Zuverlässigkeit. Die Programme identifizierten damals aus einer Gruppe dunkelhäutiger Frauen 35 Prozent fälschlicherweise als Männer. Auch heute noch gibt es eine signifikante Fehlerquote.
Befürworter entgegnen, dass mit Gesichtserkennung und Massenüberwachung Straftaten schneller aufgeklärt werden könnten.
Mehr Fehler bei nicht-weißen Menschen
Bei Amazon wird die Technologie unter dem Dach der Cloud-Tochter AWS entwickelt. Für den Konzern ist das Moratorium eine Kurswende. Bisher verteidigte die Firma stets den Einsatz von “Rekognition” bei der Polizei – auch nachdem Forscher nach einer Testreihe kritisiert hatten, dass das Programm mehr Fehler bei Gesichtern mit einer anderen Hautfarbe als der weißen mache.
Amazon konterte, bei den Tests seien falsche Methoden angewandt worden, während die Technologie korrekt funktioniere. Zugleich hatte sich Amazon-Chef Jeff Bezos bereits im Herbst für eine Regulierung der Technologie ausgesprochen. Microsoft fordert das bereits seit 2018 – und war zugleich ein relevanter Lieferant von Gesichtserkennungs-Software.
Clearview hat keine moralischen Einwände
Die amerikanischen Polizeibehörden haben aber Alternativen. So sorgte Anfang des Jahres die umstrittene Firma Clearview AI für Empörung, die eine Datenbank aus Milliarden öffentlich zugänglichen Fotos von Online-Diensten zusammentrug und unter anderem Polizeibehörden darauf zugreifen lässt.
Die Betroffenen wurden darüber nicht informiert. Das Vorgehen gilt als Tabubruch. Unter anderem Google, YouTube und Twitter forderten die Firma auf, das Abgreifen von Bildern aus ihren Anwendungen zu unterlassen. Die New York Times sprach in dem Zusammenhang vom Ende der Privatsphäre. Hierzulande schaltete sich der Hamburgische Datenschutzbeauftragte Johannes Caspar ein und leitete ein Prüfverfahren ein.
Clearview-Chef Hoan Ton-That bekräftigte nach Amazons Ankündigung, die Technologie seiner Firma arbeite korrekt bei allen Hautfarben. Das sei ihm persönlich ein besonderes Anliegen, sagte der Software-Entwickler der Technologie-Website CNET. Dadurch habe man angeblich die falsche Identifizierung von Menschen durch die Polizei verhindert.
Auch die EU beschäftigt sich mit dem heiklen Thema. Eine eingesetzte Kommission stufte die Technologie als “Hochrisiko-Anwendung” ein und dachte zeitweise über ein temporäres Verbot nach. (hcz)