Londres : des algorithmes devaient détecter les délits commis dans une station de métro

station de métro
Les experts en protection des données mettent en garde contre les systèmes de surveillance qui, une fois utilisés, peuvent être dotés de fonctionnalités supplémentaires (source : Sunil060902 – CC BY-SA 3.0 Deed )

Dans une station de métro londonienne, des milliers de personnes ont été surveillées pendant un an à l’aide d’algorithmes pour détecter les fraudeurs et les délits. C’est ce qu’a révélé une enquête du magazine américain Wired. Les passagers n’ont pas été informés de ces tests.

L’opérateur du métro londonien, Transport for London (TfL), avait testé les algorithmes d’octobre 2022 à fin septembre 2023 à la station Willesden Green, au nord-ouest de la capitale britannique. Cela ressort clairement des documents que TfL a fournis au magazine en réponse à une demande d’information. Wired en a publié quelques-uns.

Selon la compagnie de transport, plus de 110 000 personnes ont utilisé chaque semaine la station Willesden Green en 2022.

Jusqu’à présent, on savait seulement que des algorithmes devaient être utilisés dans le cadre d’un test à la station afin de détecter si des passagers franchissaient les portillons d’accès sans titre de transport.

La chasse aux armes et aux fumeurs

Cependant, comme le montrent les documents partiellement noircis, les algorithmes devaient détecter un certain nombre d’autres événements et situations : du « port ou de l’utilisation d’une arme », au tabagisme, sans oublier les personnes et animaux sur la voie ferrée ou les bagages sans surveillance. Même l’abandon de déchets dans la station devait être repéré.

Les comportements ou événements classés comme problématiques étaient signalés au personnel en temps réel – cela comprenait par exemple des armes ou des personnes sur les voies ferrées. L’opérateur du métro a déclaré à Wired que les caméras de surveillance existantes dans la station avaient été combinées à des algorithmes et à « de nombreux modèles de détection » pour identifier des modèles comportementaux.

Selon le rapport, le système de surveillance a émis un total de 44 000 messages au cours de la période d’essai. Dans 19 000 cas, les employés ont été informés en temps réel. Le plus souvent, le système a signalé qu’une personne tentait potentiellement de se rendre sur les voies sans billet valide.

Il y eut, cependant, des problèmes au niveau de l’identification des événements : par exemple, des enfants qui avaient suivi leurs parents aux portillons d’accès ont été signalés comme fraudeurs potentiels. Le logiciel n’a pas non plus été en mesure de faire la distinction entre vélos pliants et bicyclettes normales – ces dernières ne peuvent être emportées dans le métro qu’à certaines heures.

Selon la compagnie de transport, le système n’a pas été utilisé pour surveiller les employés. Il n’a pas fait non plus d’enregistrements audio et ne disposait pas de reconnaissance faciale.

Michael Birtwistle mène des recherches à l’Institut indépendant Ada Lovelace sur la régulation de l’intelligence artificielle (IA). Il a déclaré à Wired que l’utilisation de l’IA dans l’espace public pour identifier des comportements « soulève les mêmes questions scientifiques, éthiques, juridiques et sociétales que la technologie de reconnaissance faciale ».

Mise en garde contre un équipement ultérieur

Interviewés par Wired, les experts en protection des données ont également mis en garde contre le fait que de tels systèmes de surveillance pouvaient être facilement équipés ensuite d’une reconnaissance faciale, par exemple.

Daniel Leufer de l’ONG Access Now a expliqué qu’il examine toujours en premier lieu si ce type de systèmes vise à détecter des agressions – car il doute que ce soit possible.

Selon le rapport, le système londonien a également essayé de détecter des agressions – mais il n’a pas été en mesure de le faire de manière fiable. Il a donc été adapté pour émettre un avertissement quand quelqu’un lève les bras, ceci étant supposé être un « comportement habituel associé à des actes agressifs ».

Madeleine Stone de l’ONG britannique Big Brother Watch a déclaré à Wired que les algorithmes de détection de comportements agressifs sont « truffés d’erreur ». De plus, l’autorité britannique de protection des données met en garde contre l’utilisation de technologies de reconnaissance des émotions.

M. Stone a également déclaré que de nombreux passagers pourraient se montrer inquiets s’ils apprenaient qu’ils étaient surveillés. En fait, l’opérateur du métro a confirmé à Wired que l’essai du système de surveillance n’avait pas été annoncé dans la station.

Initialement, les visages des personnes sur les enregistrements étaient rendus méconnaissables et les données étaient stockées pendant un maximum de 14 jours. Pourtant, au bout de six mois, TfL a commencé à conserver les visages des personnes soupçonnées de fraude et a sauvegardé les données plus longtemps que le délai maximum.

Il n’a pas encore été décidé du devenir du système : TfL a déclaré à Wired qu’une seconde phase pilote était actuellement envisagée. La société a affirmé que toute utilisation au-delà de cette période fera l’objet d’une concertation avec les « groupes d’intéressés ».

L’année dernière, la société d’exploitation du métro de New York avait également annoncé qu’elle utilisait des algorithmes pour enregistrer, dans certaines stations, le nombre de passagers franchissant les portillons sans titre de transport. Des militants des droits civils ont critiqué l’utilisation de ce système faisant partie d’un appareil de surveillance exponentiel dans la ville. (js)