Großbritannien: Kameras mit Emotionserkennung an Bahnhöfen getestet

Eingang zum Piccadilly-Bahnhof in Manchester
Gesichtserkennung soll bei den Tests nicht zum Einsatz gekommen sein. (Quelle: IMAGO / Pond5 Images)

An mehreren Bahnhöfen in Großbritannien wurden Tausende Menschen mit Algorithmen überwacht. Das berichtet das Magazin Wired unter Berufung auf Dokumente, die als Antwort auf Informationsfreiheitsanfragen veröffentlicht wurden. Bürgerrechtler haben nun Beschwerde bei der britischen Datenschutzbehörde eingereicht.

Dem Bericht zufolge wurde das System in den vergangenen zwei Jahren an insgesamt acht Bahnhöfen in Großbritannien getestet – darunter viel frequentierte Stationen in London, Leeds, Glasgow und Manchester. Verantwortlich dafür war das Unternehmen Network Rail, das unter anderem den Großteil der britischen Bahnhöfe besitzt und teils betreibt.

Ziel sei es gewesen, bei bestimmten Vorfällen das Personal zu benachrichtigen. Laut Wired sollte das System beispielsweise erkennen können, ob Menschen die Gleise betreten oder ob Bahnsteige überfüllt sind. Darüber hinaus sei aber auch vorgesehen gewesen, sogenanntes “unsoziales Verhalten” zu erkennen – darunter sei auch Rennen, Skateboarden oder auch Rauchen gefallen.

Demografische Informationen

Zusätzlich sei das System aber auch verwendet worden, um das Alter und Geschlecht von Passagieren zu schätzen – und ihre Emotionen, also ob sie beispielsweise glücklich, wütend oder traurig sind. In den Dokumenten zu den Tests sei vermerkt gewesen, dass solche Informationen auch für Werbezwecke verwendet werden könnten. Wie umfassend die Emotionserkennung tatsächlich eingesetzt wurde, ist laut Wired jedoch unklar.

Insbesondere an automatisierter Emotionserkennung gibt es viel Kritik. Die britische Datenschutzbehörde ICO hatte beispielsweise Ende 2022 erklärt, um Emotionen mithilfe von Technik zu analysieren, müssten eine Reihe Daten zu Personen erfasst und verarbeitet werden. Dabei bestehe ein großes Diskriminierungsrisiko.

Der stellvertretende britische Datenschutzbeauftragte Stephen Bonner hatte festgestellt, entsprechende Systeme seien unausgereift – und würden vielleicht auch nie richtig funktionieren.

Studien hatten in der Vergangenheit gezeigt, dass von Gesichtsausdrücken nicht zuverlässig auf Emotionen geschlossen werden kann. Ein finster dreinblickender Mensch ist entsprechend nicht unbedingt wütend. NGOs kritisieren die Technik deshalb auch als aus wissenschaftlicher Sicht zweifelhaft.

Neue und alte Kameras

Für die Tests an den Bahnhöfen wurden laut Bericht zum einen sogenannte smarte Überwachungskameras verwendet, die selbst Objekte oder ähnliches erkennen können sollen. Zum anderen seien Aufnahmen von bestehenden Überwachungskameras mithilfe einer Analysesoftware untersucht worden – diese soll von Amazon stammen. An jedem Bahnhof seien zwischen fünf und sieben Kameras für die Tests verwendet worden.

Das getestete System soll auch in der Lage sein, bei bestimmten Ereignissen automatisch das Bahnpersonal zu alarmieren. Gesichtserkennungstechnik zur Identifizierung von Menschen sei nicht zum Einsatz gekommen.

Network Rail wollte gegenüber Wired keine Fragen beantworten – auch nicht, ob die Technik weiterhin eingesetzt wird. Ein Sprecher erklärte lediglich, man verwende Technologien, um Fahrgäste, Mitarbeiter und die Bahninfrastruktur zu schützen. Das Unternehmen halte sich dabei stets an die einschlägigen Gesetze.

Kritik und Beschwerde

Jake Hurfurt von der britischen Bürgerrechtsorganisation Big Brother Watch, die die Dokumente angefordert hatte, kritisierte gegenüber Wired jedoch, die Einführung und Normalisierung der Überwachungstechnik im öffentlichen Raum “ohne große Konsultation und Gespräche ist ein ziemlich beunruhigender Schritt”. Besonders besorgniserregend sei die Auswertung demografischer Informationen.

Carissa Véliz von der Universität Oxford sagte zu den Tests: “Systeme, die Menschen nicht identifizieren, sind besser als solche, die das tun.” Dennoch mache sie sich Sorgen. “Es gibt einen sehr instinktiven Drang, Überwachung auszuweiten. Menschen sehen gern mehr und weiter. Aber Überwachung führt zu Kontrolle. Und Kontrolle führt zu einem Verlust an Freiheit, der die liberalen Demokratien bedroht”, warnte sie.

Véliz verwies auch auf ähnliche Tests an einer Londoner U-Bahn-Station: Dort wurden die Gesichter von Personen auf den Aufnahmen anfangs noch unkenntlich gemacht. Später wurde davon jedoch abgewichen und es wurden Gesichter von Menschen gespeichert, die des Schwarzfahrens verdächtigt wurden. Auch wurden die Aufnahmen dann länger gespeichert.

Hurfurt von Big Brother Watch erklärte, er habe eine Datenschutzbeschwerde wegen der Tests an den Bahnhöfen eingereicht. Network Rail habe kein Recht gehabt, Technik zur Emotionserkennung “gegen ahnungslose Pendler an einigen der größten Bahnhöfe Großbritanniens einzusetzen”.

Er fügte hinzu: “Technologie kann eine Rolle dabei spielen, die Eisenbahnen sicherer zu machen, aber es muss eine solide öffentliche Debatte über die Notwendigkeit und Verhältnismäßigkeit der eingesetzten Werkzeuge geben.” Er warnte vor einer Gefährdung für die Privatsphäre aller – insbesondere, wenn die eingesetzte Technik missbraucht werde. (js)