Datenschutzbeschwerde gegen ChatGPT wegen Falschinformationen

OpenAI-Logo auf einem Bildschirm
Nutzerinnen und Nutzer können ChatGPT beispielsweise Fragen stellen – ob die Antworten stimmen, überprüfen sie aber besser. (Quelle: IMAGO / ZUMA Wire)

Die österreichische Organisation Noyb hat am Montag eine Datenschutzbeschwerde gegen den ChatGPT-Entwickler OpenAI eingereicht. Bemängelt wird ein Verstoß gegen die Datenschutzgrundverordnung (DSGVO), weil der Chatbot falsche Informationen über Einzelpersonen ausgibt. Die gesetzlich vorgeschriebene Möglichkeit einer Berichtigung oder Löschung gebe es nicht.

ChatGPT ist ein sogenannter Chatbot, der auf künstlicher Intelligenz (KI) basiert. Nutzerinnen und Nutzer können dem Werkzeug beispielsweise in Form eines Dialogs Fragen stellen, die es dann beantwortet.

Noyb hat die Beschwerde gemeinsam mit einer betroffenen Person eingereicht. Der Beschwerdeführer sei eine Person des öffentlichen Lebens – um wen genau es sich handelt, wurde nicht verraten.

Die Organisation bemängelt, ChatGPT habe auf die Frage nach dem Geburtsdatum des Beschwerdeführers wiederholt mit falschen Angaben geantwortet, anstatt mitzuteilen, dass die notwendigen Daten nicht vorliegen.

Laut der Datenschutzgrundverordnung (DSGVO) müssen persönliche Daten jedoch korrekt sein. Außerdem gibt es ein Recht auf die Berichtigung falscher Informationen – und auch die Löschung der Falschangaben kann verlangt werden. Unternehmen müssen außerdem gemäß dem in der DSGVO verankerten Auskunftsrecht nachweisen können, welche Daten sie über Einzelpersonen gespeichert haben und aus welchen Quellen sie stammen.

OpenAI muss sich an Vorgaben halten

Maartje de Graaf, Datenschutzjuristin bei Noyb, sagte: “Das Erfinden falscher Informationen ist schon für sich genommen höchst problematisch. Aber wenn es um falsche Informationen über Personen geht, kann das ernsthafte Konsequenzen haben. Es ist klar, dass Unternehmen derzeit nicht in der Lage sind, Chatbots wie ChatGPT mit dem EU-Recht in Einklang zu bringen. Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, darf es nicht zur Erstellung von Personendaten verwendet werden. Die Technologie muss den rechtlichen Anforderungen folgen, nicht umgekehrt.”

OpenAI hat laut Noyb einen Antrag des Beschwerdeführers auf Berichtigung oder Löschung der Daten abgelehnt. Das Unternehmen habe argumentiert, die Korrektur der Daten sei nicht möglich. OpenAI habe erklärt, es könnten zwar Daten bei bestimmten Anfragen blockiert werden. Das würde aber auch andere Informationen über den Beschwerdeführer filtern.

Auf Auskunftsersuchen des Betroffenen habe das Unternehmen nicht reagiert.

Maartje de Graaf konstatierte: “Die Verpflichtung, einem Auskunftsersuchen nachzukommen, gilt für alle Unternehmen. Es ist selbstverständlich möglich, die verwendeten Trainingsdaten zu protokollieren, um zumindest eine Vorstellung von den Informationsquellen zu erhalten.”

Datenschützer sollen Bußgeld verhängen

Noyb und die betroffene Person haben ihre Beschwerde bei der österreichischen Datenschutzbehörde (DSB) eingereicht und fordern diese auf, die Datenverarbeitung von OpenAI zu untersuchen. Dabei soll auch geklärt werden, welche Maßnahmen das Unternehmen zur Sicherstellung der Richtigkeit persönlicher Daten getroffen hat.

OpenAI müsse außerdem dem Auskunftsersuchen des Beschwerdeführers nachkommen und seine Datenverarbeitung in Einklang mit der DSGVO bringen. Die DSB solle darüber hinaus ein Bußgeld gegen das Unternehmen verhängen.

Kritik an Chatbots

Laut Noyb gibt OpenAI selbst an, dass der Chatbot “Antworten auf Benutzeranfragen generiert, indem es die nächstwahrscheinlichsten Wörter vorhersagt, die als Antwort auf die jeweilige Frage vorkommen könnten”. Das Unternehmen könne also nicht für die Richtigkeit der ausgegebenen Antworten garantieren.

Dabei handle es sich “eindeutig um ein strukturelles Problem”. Einem Ende 2023 erschienenen Bericht der New York Times zufolge erfinden Chatbots in mindestens 3 Prozent der Fälle Informationen – bei manchen Systemen sollen es sogar bis zu 27 Prozent sein. Das Erzeugen falscher Informationen wird auch als “KI-Halluzination” bezeichnet.

OpenAI hatte bereits Ärger mit den europäischen Datenschutzvorgaben: Die italienische Datenschutzbehörde hatte ChatGPT im vergangenen Jahr vorübergehend verboten, Nutzerdaten aus Italien zu verarbeiten. Die Behörde hatte OpenAI unter anderem vorgeworfen, es fehle eine Rechtsgrundlage für das “massive Sammeln und Verarbeiten personenbezogener Daten”, um die verwendeten Algorithmen zu trainieren. (dpa / js)