Auf jede Frage eine Antwort – Gefahren halluzinierender Sprachmodelle
Copilot, die sogenannte Künstliche Intelligenz von Microsoft, hat einem Journalisten schwere Straftaten unterstellt. Rufmord, Verleumdung und üble Nachrede von Chatbots kann nahezu jeden treffen, dessen Informationen im Internet stehen. Um solche Falschaussagen aus dem Internet zu entfernen – falls das überhaupt möglich ist –, müssen Betroffene viel auf sich nehmen.
Sprachmodelle, wie ChatGPT, antworten auf jede Eingabe – notfalls auch mit Falschaussagen. Mit Texten trainierte Algorithmen reihen dabei lediglich Wörter oder Silben aneinander, die dem vorherigen Wort mit größter Wahrscheinlichkeit folgen, so erklären es die Experten. Das wurde einem deutschen Journalisten zum Verhängnis.
Was vorgefallen ist: Über Jahrzehnte hat der Journalist Martin Bernklau als Reporter in der Gerichtsberichterstattung gearbeitet. Nun wurde er von einer sogenannten Künstlichen Intelligenz des sexuellen Missbrauchs von Minderjährigen bezichtigt. Die Vorwürfe sind jedoch frei erfunden. Das Sprachmodell Copilot von Microsoft hat “halluziniert” – so der Fachbegriff.
In seiner Zeit als Gerichtsreporter hat Bernklau auch über Fälle von Kindesmissbrauch berichtet. Copilot erkannte allerdings nicht, dass Bernklau lediglich entsprechende Artikel verfasst hatte und beschuldigte ihn als Täter. Das berichtet der SWR
Copilot bezichtigte Bernklau auch der Witwenbetrügerei, Geiselnahme, des Diebstahls und unerlaubten Waffenbesitzes sowie weiteren Straftaten. Alles Dinge, über die er im Laufe der Zeit berichtet hatte. Er versichert gegenüber Posteo, dass es gegen ihn niemals strafrechtliche Ermittlungen gegeben hat.
Strafanzeige ohne Erfolg
Bernklau selbst entdeckte die Falschaussagen über ihn im Frühsommer, als er auf der Suche nach Reaktionen auf seine Artikel im Internet war und durch Werbung auf Copilot aufmerksam wurde. Aufgrund der Verleumdungen erstattete er Strafanzeige, welche die zuständige (General-)Staatsanwaltschaft Stuttgart jedoch in zwei Instanzen ablehnte. Mit der Begründung, es gebe keinen Täter – “Copilot” sei eine Maschine. Sein Rechtsanwalt forderte eine Unterlassungserklärung von Microsoft – ohne Erfolg. Der parallel eingeschaltete Landesdatenschutzbeauftragte Baden-Württembergs leitete den Fall an seinen Amtskollegen in Bayern weiter – einen “ausgesprochenen KI-Experten”.
“Dem bayerischen Datenschutzbeauftragten ist es als einzigem gelungen”, so Bernklau gegenüber Deutschlandfunk, “Kontakt mit Microsoft aufzunehmen und eine Zusage zu erwirken, dass die Eintragungen unter meinem Namen gelöscht werden.” Nach drei Tagen sei allerdings ein erfundener Missbrauchsvorwurf erneut sichtbar gewesen – in englischer Sprache.
Gefahren für im Internet aktive Personen
Bernklau habe sich entschlossen, mit seinem Fall an die Öffentlichkeit zu gehen, obwohl das “zur Weiterverbreitung der Verleumdungen und Bekanntheit seiner Person” beitrage. Allerdings habe auch der Datenschützer zu dem Zeitpunkt nur einen kurzfristigen Erfolg erzielen können.
“Der Fall betrifft mich als Person zwar schwer. Doch er hat vor allem Bedeutung für Journalisten, für alle, die beruflich mit Strafrecht zu tun haben (Rechtsanwälte, Staatsanwälte, Richter etc.), aber letztlich für jeden, dessen Name und Funktion im Netz auftaucht.”
So habe Copilot auch den Namen eines Verurteilten gegen den eines ihm bekannten Richters getauscht – der Richter wurde zum Täter erklärt. Darüber berichtete auch die britische Nachrichten-Website “The Register” und schreibt, dass laut Microsoft der Bericht untersucht wurde und man “angemessene und sofortige Maßnahmen” zur Behebung ergriffen habe. Doch die Sprachmodelle haben grundlegende Probleme.
Fall beschäftigt Datenschützer
Prof. Dr. Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik, Technikphilosophie und KI an der Universität Tübingen erklärt, dass die Sprachmodelle Wörter oder Silben aufgrund von Wahrscheinlichkeiten aneinanderreihen – welches Wort folgt dem vorherigen mit der höchsten Wahrscheinlichkeit. Die sogenannte Künstliche Intelligenz versucht also sinnvolle Sätze auf Grundlage der Trainingsdaten zu kreieren. Eine Antwort geben die Programme immer – auch wenn diese falsch ist. Deshalb rät das Bundesamt für Sicherheit in der Informationstechnik (BSI) etwa, Antworten von Sprachmodellen “über zuverlässige, unabhängige Quellen gegenzuprüfen”.
Entgegen der Herstellerversprechen, dass ihre Chatbots mit ausreichenden Schutzmaßnahmen versehen sind, sieht die Realität anders aus und birgt viele Gefahren: “Wenn so etwas ohne die Möglichkeit, das abzustellen, im Netz stehen kann, das ist der GAU. Das ist der Super-GAU”, so Bernklau.
Prof. Dr. Alexander Rossnagel, Vorsitzender der Datenschutzkonferenz und Hessischer Beauftragter für den Datenschutz und die Informationsfreiheit, erklärt, KI betreffe in den meisten Fällen auch die Anforderungen der Datenschutz-Grundverordnung. Der Fall Bernklau zeige, dass “in den allermeisten Fällen eine Verarbeitung personenbezogener Daten nicht auszuschließen ist”.
“Tatsächlich ergeben sich aus der Nutzung von Künstlicher Intelligenz grundlegende Veränderungen der Durchsetzungsbedingungen für die Rechte und Freiheiten der Bürgerinnen und Bürger.” Sorge bereite den Teilnehmern der Datenschutzkonferenz auch die mögliche Vernachlässigung des Datenschutzes in der beginnenden europäische Legislaturperiode.
Im April dieses Jahres hatte bereits die österreichische Organisation Noyb eine Datenschutzbeschwerde gegen den ChatGPT-Entwickler OpenAI eingelegt, da der Chatbot personenbezogene Daten falsch wiedergebe und damit gegen die DSGVO verstoße. In dem Zusammenhang erklärte OpenAI, “falsche Informationen auf ChatGPT nicht korrigieren zu können”.
Die Datenschutzjuristin Maartje de Graaf von Noyb hat zu den erfundenen Antworten der Sprachmodelle eine klare Meinung: “Das Erfinden falscher Informationen ist schon für sich genommen höchst problematisch. Aber wenn es um falsche Informationen über Personen geht, kann das ernsthafte Konsequenzen haben. Es ist klar, dass Unternehmen derzeit nicht in der Lage sind, Chatbots wie ChatGPT mit dem EU-Recht in Einklang zu bringen. Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, darf es nicht zur Erstellung von Personendaten verwendet werden. Die Technologie muss den rechtlichen Anforderungen folgen, nicht umgekehrt.” (bme)