Facebook-Algorithmus kategorisierte schwarze Menschen als Primaten
Ein Facebook-Algorithmus hat schwarze Menschen mit Affen verwechselt: Unter einem Video mit schwarzen Männern wurden Nutzerinnen und Nutzer gefragt, ob sie weitere “Videos über Primaten” sehen möchten. Facebook hat sich entschuldigt und den entsprechenden Empfehlungsmechanismus vorerst abgeschaltet.
Darci Groves, eine ehemalige Content-Design-Managerin bei Facebook, hatte in der vergangenen Woche auf den Vorfall aufmerksam gemacht und ihn als “ungeheuerlich” bezeichnet. Außerdem informierte sie Facebook über ein Forum für aktuelle und ehemalige Mitarbeitende. Das Video über einen rassistischen Vorfall in den USA wurde von der britischen Boulevardzeitung Daily Mail am 27. Juni 2020 veröffentlicht.
Wie die New York Times berichtet, entschuldigte sich Facebook für den “inakzeptablen Fehler”. Das Unternehmen werde den für die Empfehlung zuständigen Algorithmus untersuchen, um zu verhindern, “dass dies noch einmal passiert”. Die eingesetzte künstliche Intelligenz werde zwar laufend verbessert, man sei sich aber bewusst, “dass sie nicht perfekt ist und wir weitere Fortschritte machen müssen”.
Diskriminierende Algorithmen
Facebook nutzt künstliche Intelligenz beispielsweise, um seinen Nutzern verwandte Inhalte zu empfehlen. Kritiker bemängeln schon lange, dass solche Algorithmen bestimmte Gruppen diskriminieren können. So haben Studien etwa gezeigt, dass Gesichtserkennungssoftware Menschen mit dunkler Hautfarbe häufiger falsch erkennt, als weiße Menschen. Bei Frauen mit dunkler Hautfarbe kommt es zu den meisten Fehlerkennungen.
Die Informatikerin Joy Buolamwini hatte bereits 2019 kritisiert, dass die Systeme hauptsächlich mit Bildern weißer Männer trainiert werden. Bei einer von ihr durchgeführten Untersuchung konnten sie selbst bekannte schwarze Frauen wie Oprah Winfrey nicht erkennen.
In den USA wurde zudem mindestens ein Fall bekannt, in dem ein unschuldiger schwarzer Mann aufgrund fehlerhafter Gesichtserkennung verhaftet wurde.
Facebook prüft Algorithmen
Facebook hatte bereits im Juli 2020 angekündigt, seine Algorithmen auf rassistische Vorurteile prüfen zu wollen. Das Wall Street Journal hatte damals berichtet, zuvor sei es Facebook-Mitarbeitern untersagt gewesen, eine solche Untersuchung ohne explizite Genehmigung von hochrangigen Führungskräften durchzuführen.
Dabei hatte es bereits damals Kritik an Facebook gegeben: Das soziale Netzwerk hatte seinen Werbekunden über Jahre hinweg ermöglicht, bestimmte ethnische Gruppen von ihren Anzeigen ausschließen – oder diesen gezielt Werbung anzeigen lassen. Im August 2020 schaltete Facebook die Funktion schließlich ab.
Die ehemalige Facebook-Mitarbeiterin Darci Groves sagte der New York Times zu dem aktuellen Fall, eine Reihe von Fehltritten zeige, dass der Umgang mit Rassismus für Facebook offensichtlich keine Priorität habe. Das Unternehmen könne nicht immer wieder dieselben Fehler wiederholen und anschließend “es tut uns leid” sagen.
Ähnliches Problem bei Google
Auch Google wurde in der Vergangenheit wegen eines ähnlichen Falles kritisiert: Im Jahr 2015 hatte der Dienst “Google Fotos” Bilder von schwarzen Menschen mit dem Schlagwort “Gorillas” versehen. Das Unternehmen hatte sich damals entschuldigt und eine Lösung angekündigt. Über zwei Jahre später hatte das Magazin Wired berichtet, dass Googles Lösung darin bestand, Kategorien wie “Gorilla” oder “Affe” aus der Suche zu entfernen.
Die Organisation AlgorithmWatch hatte 2020 zudem ein Problem bei der Bilderkennungssoftware Google Vision Cloud aufgedeckt: Der Algorithmus hatte ein Thermometer in einer weißen Hand als optisches Instrument eingeordnet – in einer schwarzen Hand als Waffe. Google hatte das Problem anschließend behoben. (js)