London: Algorithmen sollten Straftaten in U-Bahn-Station erkennen

Außenansicht der U-Bahn-Station
Datenschutzexperten warnen, Überwachungssysteme ließen sich einfach um zusätzliche Funktionen erweitern, wenn sie erst einmal verwendet werden. (Quelle: Sunil060902 – CC BY-SA 3.0 Deed )

In einer Londoner U-Bahn-Station wurden Tausende Menschen ein Jahr lang mithilfe von Algorithmen überwacht, die Schwarzfahrer und Straftaten erkennen sollten. Das hat eine Recherche des US-Magazins Wired ergeben. Die Fahrgäste wurden über die Tests nicht informiert.

Der Betreiber der Londoner U-Bahn, Transport for London (TfL), hatte die Algorithmen von Oktober 2022 bis Ende September 2023 in der Station Willesden Green im Nordwesten der britischen Hauptstadt getestet. Das geht aus Dokumenten hervor, die TfL dem Magazin als Antwort auf eine Informationsfreiheitsanfrage zur Verfügung gestellt hat. Wired hat diese teilweise veröffentlicht.

Laut den Verkehrsbetrieben haben im Jahr 2022 mehr als 110.000 Menschen wöchentlich die Station Willesden Green genutzt.

Bisher war lediglich bekannt, dass Algorithmen im Rahmen eines Tests an der Station erkennen sollten, ob Fahrgäste die Zugangsschranken ohne Ticket überwinden.

Suche nach Waffen und Rauchern

Wie aus den teils geschwärzten Dokumenten hervorgeht, sollten die Algorithmen jedoch etliche weitere Ereignisse und Situationen erkennen: Vom “Tragen oder Verwenden einer Waffe”, über Rauchen, Personen und Tiere im Gleis bis hin zu unbeaufsichtigtem Gepäck. Aber auch Verschmutzung durch Müll in der Station sollte erkannt werden.

Bei als problematisch eingestuften Verhaltensweisen oder Ereignissen wurde das Personal in Echtzeit informiert – dazu zählten beispielsweise Waffen oder Personen auf den Gleisen. Gegenüber Wired erklärte der U-Bahn-Betreiber, die bestehenden Überwachungskameras in der Station seien mit Algorithmen und “zahlreichen Erkennungsmodellen” kombiniert worden, um Verhaltensmuster zu identifizieren.

Laut dem Bericht hat das Überwachungssystem im Testzeitraum insgesamt 44.000 Meldungen ausgegeben. In 19.000 Fällen seien Mitarbeitende in Echtzeit informiert worden. Am häufigsten habe das System gemeldet, dass eine Person potenziell versucht, ohne gültigen Fahrschein zu den Gleisen zu gelangen.

Allerdings gab es Probleme, die Ereignisse korrekt zu erkennen: So seien etwa Kinder, die ihren Eltern durch die Zugangsschranken folgten, als mögliche Schwarzfahrer gemeldet worden. Auch sei es der Software nicht geglückt, zwischen Klapprädern und normalen Fahrrädern zu unterscheiden – letztere dürfen nur zu bestimmten Zeiten mitgenommen werden.

Laut der Verkehrsgesellschaft wurde das System nicht zur Mitarbeiterüberwachung eingesetzt. Es habe zudem keine Tonaufnahmen angefertigt und nicht über Gesichtserkennung verfügt.

Michael Birtwistle forscht am unabhängigen Ada Lovelace Insitute zur Regulierung von Künstlicher Intelligenz (KI). Gegenüber Wired sagte er, der Einsatz von KI im öffentlichen Raum zur Identifizierung von Verhaltensweisen werfe “viele der gleichen wissenschaftlichen, ethischen, rechtlichen und gesellschaftlichen Fragen wie Gesichtserkennungstechnologie auf”.

Warnung vor nachträglicher Aufrüstung

Datenschutzexperten warnten gegenüber Wired außerdem, solche Überwachungssysteme könnten in Zukunft leicht erweitert werden – beispielsweise um Gesichtserkennung.

Daniel Leufer von der NGO Access Now erklärte, er schaue bei solchen Systemen immer als erstes, ob sie versuchen sollen, Aggressionen zu erkennen – denn er sei skeptisch, dass dies überhaupt möglich sei.

Laut dem Bericht hat auch das Londoner System versucht, Aggressionen zu erkennen – dies sei aber nicht zuverlässig gelungen. Daher sei es so angepasst worden, dass es eine Warnung ausgab, wenn jemand die Arme hob – weil dies ein “übliches Verhalten im Zusammenhang mit aggressiven Handlungen” sei.

Madeleine Stone von der britischen NGO Big Brother Watch sagte gegenüber Wired, Algorithmen zum Erkennen von aggressivem Verhalten seien “zutiefst fehlerbehaftet” – zudem warne die britische Datenschutzbehörde vor dem Einsatz von Technologien zur Emotionserkennung.

Stone sagte außerdem, viele Passagiere dürften beunruhigt sein, wenn sie erfahren, dass sie überwacht wurden. Tatsächlich bestätigte der U-Bahn-Betreiber gegenüber Wired, dass es in der Station keine Hinweise auf den Test des Überwachungssystems gegeben hatte.

Anfangs seien die Gesichter der Personen auf den Aufnahmen unkenntlich gemacht und die Daten maximal 14 Tage lang gespeichert worden. Nach sechs Monaten habe TfL jedoch die Gesichter von Menschen gespeichert, die des Schwarzfahrens verdächtigt wurden – und die Daten auch länger gespeichert.

Über die Zukunft des Systems wurde offenbar noch nicht entschieden: TfL teilte Wired mit, man berate derzeit über eine zweite Pilotphase. Jeder Einsatz darüber hinaus werde mit “relevanten Interessengruppen” abgesprochen, beteuerte das Unternehmen.

Im vergangenen Jahr hatte auch die Betreibergesellschaft der U-Bahn in New York City angekündigt, in einigen U-Bahn-Stationen mithilfe von Algorithmen zu erfassen, wie viele Fahrgäste die Zugangsschranken ohne Ticket überwinden. Bürgerrechtler hatten den Einsatz des Systems dort als Teil eines wachsenden Überwachungsapparats in der Stadt kritisiert. (js)