Britische SMS-Seelsorge teilte Beratungsgespräche mit Forschern

Smartphone
Erst im Januar war bekannt geworden, dass eine Partnerorganisation von Shout in den USA Daten an ein Unternehmen weitergegeben hatte. (Quelle: Pixabay)

Ein britisches SMS-Beratungsangebot für Menschen in psychischen Krisen hat Millionen von Nachrichten an Dritte weitergegeben – entgegen einem früheren Versprechen auf der Webseite des Hilfsangebots, das im Nachhinein entfernt wurde. Das haben Recherchen der britischen Wochenzeitung The Observer ergeben.

Menschen können sich per SMS an die Beratungsstelle Shout wenden, wenn sie mit Problemen wie Selbstmordgedanken, Selbstverletzung, Missbrauch oder Mobbing zu kämpfen haben. Sie erhalten dann Antwort von geschulten Freiwilligen. Der Dienst verspricht dabei Vertraulichkeit. Nach Angaben des Observers handelt es sich um das größte Angebot seiner Art in Großbritannien. Gegründet wurde es unter anderem von Prinz William.

Wie die Zeitung am Wochenende berichtete, wurden über 10,8 Millionen Nachrichten aus 271.445 Beratungen im Zeitraum zwischen Februar 2018 und April 2020 in einem Projekt des Imperial College London verwendet. Dabei ging es um die Entwicklung von Werkzeugen, die mithilfe künstlicher Intelligenz etwa Suizidgedanken vorhersagen sollen. Verwendet wurden auch die Nachrichten von Kindern, die jünger als 13 Jahre alt sind.

FAQ geändert

In der FAQ des Beratungsangebotes steht zwar, “anonymisierte und aggregierte” Daten könnten zu Forschungszwecken an Partner weitergegeben werden – jedoch hatte die FAQ ursprünglich auch versichert, dass einzelne Gespräche “niemals weitergegeben” werden. Der Observer berichtet, dieser Abschnitt wurde im Frühjahr 2021 entfernt – also nach dem vom Imperial College untersuchten Zeitraum.

Details wie Namen, Telefonnummern oder Wohnorte wurden laut Shout aus diesen Unterhaltungen entfernt. Der Dienst behauptet, dadurch sei es “höchst unwahrscheinlich”, dass sich die Daten mit Einzelpersonen in Verbindung bringen ließen – doch in der Studie wurden vollständige Gespräche verwendet. Sie enthielten Details über die Probleme der Betroffenen. Der Observer berichtet, ein Ziel der Studie sei gewesen, aus den Nachrichten sowohl manuell als auch automatisiert persönliche Informationen über die Hilfesuchenden zu gewinnen, beispielsweise ihr Alter und Geschlecht.

Shout gibt es seit dem Jahr 2019. Gegründet wurde es von Prinz William, seiner Frau Kate Middleton sowie Prinz Harry und Meghan Markle. Die Royal Foundation der Herzogin und des Herzogs von Cambridge hat zudem 3 Millionen Britische Pfund in das Projekt investiert. Betrieben wird das Beratungsangebot von der Stiftung Mental Health Innovations. Diese wies darauf hin, dass Nutzerinnen und Nutzer den Datenschutzbestimmungen zustimmen. Bei der ersten Kontaktaufnahme bekommen Betroffene einen entsprechenden Link zugesendet. Nutzerinnen und Nutzer könnten diese auch später noch lesen und ihre Daten gegebenenfalls löschen lassen. Laut dem Observer wurde auch die Datenschutzerklärung im vergangenen Jahr geändert, um die Daten auch für “ein besseres Verständnis der psychischen Gesundheit im Vereinigten Königreich im Allgemeinen” verwenden zu können.

“Falsches Versprechen”

Phil Booth von der Organisation medConfidential, die sich für den Schutz von Gesundheitsdaten einsetzt, kritisierte, man könne von Menschen in einer Krisensituation nicht erwarten zu verstehen, dass ihre Gespräche zu einem anderen Zweck als zur Hilfe verwendet werden. Shout habe ein “irreführendes” und “schlichtweg falsches” Versprechen abgegeben.

Auch eine Betroffene, die in den Jahren 2019 und 2020 wegen Angstzuständen und einer Essstörung Hilfe bei Shout gesucht hatte, sagte dem Observer, sie habe nicht gewusst, dass ihre Nachrichten zu Forschungszwecken verwendet werden könnten. “Wenn man sich in einer Krise befindet, denkt man nicht: ‘Werden diese Informationen für die Forschung verwendet?’ Man kann es so drehen, dass es sich gut anhört, aber es fühlt sich an, als würde die eigene Verletzlichkeit ausgenutzt.”

Kritik kommt auch von Foxglove, einer Organisation für digitale Rechte. Mitbegründerin Cori Crider sagte, die Verwendung der Nachrichten für eine Studie werfe “ernsthafte ethische Fragen auf”. “Wenn sie zunächst in ihrer FAQ sagen, dass Einzelgespräche nicht weitergegeben werden und dann plötzlich dazu übergehen, künstliche Intelligenz mit Hunderttausenden vollständigen Gesprächen zu trainieren, haben sie die Gefühle und Erwartungen schutzbedürftiger Menschen übergangen.” Vertrauen sei im Gesundheitswesen besonders wichtig – insbesondere im Bereich der psychischen Gesundheit. Mangelndes Vertrauen könne verzweifelte Menschen davon abhalten, sich Hilfe zu suchen.

Das Imperial College erklärte, die Studie entspreche “in vollem Umfang” den “strengen ethischen Prüfungsrichtlinien”. Doch Dr. Sandra Leaton Gray vom University College London kritisierte, für die Verwendung der Nachrichten von Minderjährigen hätte eine Genehmigung der Eltern eingeholt werden müssen.

Datenschutzbehörde prüft den Vorfall

Erst kürzlich war ein ähnlicher Fall in den USA bekannt geworden: Ende Januar hatte das Magazin Politico berichtet, dass die Krisenhilfe Crisis Text Line Daten aus Gesprächen an eine Firma weitergegeben hatte, die Software für Kundendienste entwickelt. Shout ist ein internationaler Partner von Crisis Text Line. Nachdem die Zusammenarbeit mit dem Unternehmen öffentlich geworden waren, hatte Crisis Text Line diese beendet. Wie der Observer berichtet, wurde britischen Nutzerinnen und Nutzern versichert, dass ihre Daten nicht betroffen seien.

Mental Health Innovations arbeite ebenfalls nicht nur mit Forschern, sondern auch mit Firmen zusammen. An diese seien jedoch keine Daten aus den Beratungsgesprächen weitergereicht worden, erklärte die Stiftung. Victoria Hornby, Geschäftsführerin von Mental Health Innovations erklärte, die Datensätze von Shout seien “einzigartig”, weil sie Informationen über Menschen in ihren eigenen Worten enthielten. Dies könne einen großen Nutzen für die Forschung bringen.

Der Fall beschäftigt nun die britische Datenschutzbehörde ICO. Sie prüft derzeit den Umgang von Shout und Mental Health Innovations mit den Nutzerdaten. Eine Sprecherin sagte: “Beim Umgang mit Gesundheitsdaten von Menschen, insbesondere von Kindern, müssen Organisationen besonders vorsichtig sein und Sicherheitsvorkehrungen treffen, um sicherzustellen, dass ihre Daten nicht in einer Weise verwendet oder weitergegeben werden, die sie nicht erwarten würden. Wir werden die Informationen auswerten und Nachforschungen in dieser Angelegenheit anstellen.” (js)