Un service britannique d'assistance psychologique par SMS a partagé des consultations avec des chercheurs

smartphone
C’est en janvier que l’on a appris qu’une organisation partenaire de Shout aux Etats-Unis avait transmis des données à une entreprise. (source : Pixabay)

Un service britannique d’assistance par SMS pour les personnes en détresse psychique a transmis des millions de messages à des tiers, contrairement à une promesse faite précédemment sur le site web du service d’aide, qui a été retirée par la suite. C’est ce qu’ont révélé les recherches de l’hebdomadaire britannique The Observer.

Les personnes peuvent s’adresser par SMS au centre d’aide Shout lorsqu’elles sont confrontées à des problèmes tels que des pensées suicidaires, de l’automutilation, des abus ou du harcèlement. Elles reçoivent alors une réponse de la part de bénévoles formés. Le service promet la confidentialité. Selon l’Observer, il s’agit du plus grand service de ce type en Grande-Bretagne. Il a été fondé entre autres par le prince William.

Comme l’a rapporté (en anglais) le journal ce week-end, plus de 10,8 millions de messages provenant de 271 445 discussions ont été utilisés entre février 2018 et avril 2020 dans un projet du Imperial College London (en anglais). Il s’agissait de développer des outils permettant de prédire les pensées suicidaires à l’aide de l’intelligence artificielle. Des messages d’enfants de moins de 13 ans ont également été utilisés.

Les FAQ ont été changées

Les FAQ du centre d’aide indiquent certes que des données « anonymisées et agrégées » peuvent être transmises à des partenaires à des fins de recherche, cependant ces mêmes FAQ avaient assuré au départ (en anglais) que des discussions individuelles ne seraient « jamais transmises ». L’Observer rapporte que ce paragraphe a été retiré au printemps 2021, c’est-à-dire après la période examinée par l’Imperial College.

Des détails tels que les noms, les numéros de téléphone ou les lieux de résidence ont été retirés de ces conversations, selon Shout. Le service affirme qu’il est ainsi « hautement improbable » que les données puissent être associées à des individus, mais l’étude a utilisé des conversations complètes. Elles contenaient des détails sur les problèmes des personnes concernées. L’Observer rapporte qu’un des objectifs de l’étude était d’extraire des messages, tant manuellement qu’automatiquement, des informations personnelles sur les personnes demandant de l’aide, par exemple leur âge et leur sexe.

Shout existe depuis 2019 et a été fondé par le prince William, son épouse Kate Middleton ainsi que le prince Harry et Meghan Markle. La Royal Foundation de la duchesse et du duc de Cambridge a en outre investi 3 millions de livres sterling dans le projet. L’offre d’aide est gérée par la fondation Mental Health Innovations. Celle-ci a indiqué que les utilisateurs acceptaient les dispositions relatives à la protection des données. Lors de la première prise de contact, les personnes concernées reçoivent un lien correspondant. Les utilisateurs ont également la possibilité de les lire ultérieurement et, le cas échéant, faire effacer leurs données. Selon l’Observer, la déclaration de confidentialité a également été modifiée l’année dernière afin de pouvoir utiliser les données pour « une meilleure compréhension de la santé mentale au Royaume-Uni en général ».

« Fausse promesse »

Phil Booth, de l’organisation medConfidential, qui milite pour la protection des données de santé, a critiqué le fait que l’on ne pouvait pas attendre des personnes en situation de crise qu’elles comprennent que leurs conversations seraient utilisées dans un autre but que celui de les aider. Shout a d’après lui fait une promesse « trompeuse » et « tout simplement fausse ».

De même, une personne ayant cherché de l’aide auprès de Shout en 2019 et 2020 pour des problèmes d’anxiété et un trouble alimentaire a déclaré à l’Observer qu’elle ne savait pas que ses messages pouvaient être utilisés à des fins de recherche. « Quand on est en crise, on ne se dit pas : “Est-ce que ces informations vont être utilisées pour la recherche ?” On peut tourner ça de façon à ce que ça paraisse bien, mais on a l’impression que notre vulnérabilité est exploitée ».

La critique vient également de Foxglove, une organisation de défense des droits numériques. La cofondatrice Cori Crider a déclaré que l’utilisation des messages pour une étude soulevait « de sérieuses questions éthiques ». « S’ils commencent par dire dans leur FAQ que les conversations individuelles ne seront pas divulguées et qu’ils passent ensuite soudainement à l’entraînement de l’intelligence artificielle avec des centaines de milliers de conversations complètes, ils ont ignoré les sentiments et les attentes des personnes vulnérables ». La confiance est particulièrement importante dans le domaine de la santé, en particulier dans le domaine de la santé mentale. Le manque de confiance peut dissuader les personnes en détresse de demander de l’aide.

L’Imperial College a déclaré que l’étude était « entièrement » conforme aux « directives d’examen éthique strictes ». Mais le Dr Sandra Leaton Gray de l’University College London a critiqué le fait qu’une autorisation parentale aurait dû être obtenue pour l’utilisation des messages des personnes mineures.

L’autorité de protection des données étudie cet incident

Dernièrement, un cas similaire s’était présenté aux États-Unis : fin janvier, le magazine Politico avait rapporté (en anglais) que le service d’aide d’urgence Crisis Text Line avait transmis des données provenant de discussions à une entreprise qui développe des logiciels pour les services clients. Shout est un partenaire international de Crisis Text Line. Après avoir rendu publique sa collaboration avec l’entreprise, Crisis Text Line y avait mis fin. Comme le rapporte l’Observer, les utilisateurs britanniques ont reçu l’assurance que leurs données n’étaient pas concernées.

Mental Health Innovations travaille également non seulement avec des chercheurs, mais aussi avec des entreprises. Cependant, aucune donnée issue des entretiens d’aide n’aurait été transmise à ces dernières, a expliqué la fondation. Victoria Hornby, directrice de Mental Health Innovations, a expliqué que les données de Shout étaient « uniques » parce qu’elles contenaient des informations sur les personnes formulées dans leurs propres mots. Cela pourrait être d’un grand intérêt pour la recherche.

L’affaire est désormais entre les mains de l’autorité britannique de protection des données (ICO). Elle examine actuellement la manière dont Shout et Mental Health Innovations traitent les données des utilisateurs. Une porte-parole de l’autorité a déclaré : « Lorsqu’elles traitent les données de santé des personnes, en particulier des enfants, les organisations doivent être particulièrement prudentes et prendre des mesures de sécurité pour s’assurer que leurs données ne sont pas utilisées ou divulguées d’une manière à laquelle elles ne s’attendraient pas. Nous évaluerons les informations et ferons des recherches sur cette question ».(js)