USA: Facebook und TikTok erlauben Werbung mit Falschinformationen
Die sozialen Netzwerke TikTok und Facebook haben in den USA Werbung mit falschen und irreführenden Informationen zu den anstehenden Wahlen geschaltet. Das geht aus einer gemeinsamen Untersuchung der Nichtregierungsorganisation Global Witness und dem Forschungsprojekt “Cybersecurity for Democracy” (C4D) an der New York University hervor. Nur die Videoplattform YouTube lehnte demnach alle eingereichten Anzeigen ab.
Am 8. November wird bei den Zwischenwahlen, den sogenannten Midterm Elections, über Abgeordnete des US-Repräsentantenhauses sowie Senatorinnen und Senatoren im US-Senat abgestimmt. Im Vorfeld hatten die Forschenden untersucht, ob die drei Plattformen TikTok, Facebook und YouTube Desinformationen zu den Zwischenwahlen erkennen und zur Probe bezahlte Werbeanzeigen eingereicht: Pro Plattform je zehn Anzeigen in englischer und spanischer Sprache.
Wie aus der Untersuchung hervorgeht, enthielt die Hälfte der Anzeigen Falschinformationen wie etwa ein falsches Wahldatum. Andere zielten darauf ab, den Wahlprozess zu diskreditieren, indem beispielsweise behauptet wurde, das Ergebnis stünde bereits fest. Die Beispiele stammten teilweise von der US-amerikanischen Federal Election Commission, alle hätten gegen die Richtlinien der Plattformen verstoßen.
Die Anzeigen sollten an Personen in Bundesstaaten wie Arizona, Colorado und Georgia ausgespielt werden. Dort erwarten Beobachter einen besonders knappen Wahlausgang. Die Forschenden hatten sich bei ihrem Test für Anzeigen und nicht für normale Beiträge in den sozialen Medien entschieden, weil sie diese nach der Genehmigung durch die Plattformen wieder löschen konnten, ohne dass Nutzerinnen und Nutzer sie tatsächlich zu Gesicht bekamen.
TikTok genehmigte fast alle Falschinformationen
TikTok schaltete bei dem Test 90 Prozent der eingereichten Anzeigen frei – und schnitt damit am schlechtesten ab. Nur jeweils eine englisch- und eine spanischsprachige Werbeanzeige wurde abgelehnt. Auch das von den Forschenden genutzte Benutzerkonto sperrte die Plattform nicht.
Bei Facebook war es im Test möglich, Anzeigen ohne ein verifiziertes Benutzerkonto einzureichen – das alleine verstößt bereits gegen die Regeln der Plattform für Wahlwerbung. Außerdem verbietet der Konzern, politische Anzeigen in den USA aus dem Ausland zu schalten. Doch auch das war den Forschenden zufolge möglich. Sie nutzten insgesamt drei Konten, von denen nur eines von Facebook geschlossen wurde.
Facebook genehmigte drei englisch- und zwei spanischsprachige Anzeigen, die aus dem Ausland geschaltet wurden. Bei einem erneuten Test aus den USA erlaubte die Plattform zwei Anzeigen in englischer Sprache und fünf in spanischer Sprache. Die Entscheidungen seien dabei nicht einheitlich gewesen: So sei ein falscher Wahltermin in beiden Tests auf Englisch genehmigt, auf Spanisch jedoch abgelehnt worden.
YouTube sperrte auch Account
Einzig die zum Google-Konzern gehörende Videoplattform YouTube habe im Test sämtliche eingereichten Werbeanzeigen abgelehnt. Auch das von den Forschenden verwendete Benutzerkonto wurde von der Plattform gesperrt.
Das Experiment zeige am Beispiel YouTube, dass die Plattformen ihre Richtlinien in den USA durchsetzen können. International zeige sich aber ein anderes Bild, resümieren die Forschenden. Denn bei einer ähnlichen Untersuchung in Brasilien habe die Videoplattform alle Anzeigen mit Desinformationen genehmigt. Auch Facebook hatte bei einer Untersuchung in Brasilien sämtliche Falschinformationen zugelassen. Auf der Plattform gebe es einen großen Unterschied zwischen der Moderation in den USA und in anderen Ländern, so Global Witness.
Ein Sprecher von Meta erklärte gegenüber Global Witness und C4D, die Untersuchung basiere auf einer kleinen Stichprobe von Anzeigen. Der Prozess zur Anzeigenprüfung umfasse mehrere Schritte, sowohl vor als auch nach Veröffentlichung der fraglichen Werbung.
TikTok teilte den Forschenden mit, es handle sich um eine Plattform für unterhaltsame Inhalte – deshalb verbiete man bezahlte politische Werbung. Rückmeldungen von NGOs und anderen Expertinnen und Experten helfe dem Unternehmen, seine Prozesse und Richtlinien zu verbessern.
Plattformen sollen nachbessern
Nach Angaben der Forschenden gehören YouTube, Facebook und TikTok in den USA zu den meist genutzten Plattformen. Jon Lloyd von Global Witness konstatierte: “Seit Jahren sehen wir, wie wichtige demokratische Prozesse durch Desinformation, Lügen und Hass, die auf Social-Media-Plattformen verbreitet werden, untergraben werden – die Unternehmen selbst behaupten sogar, das Problem zu erkennen. Aber diese Untersuchung zeigt, dass sie einfach immer noch nicht genug tun, um die Bedrohung der Demokratie auf ihren Plattformen zu stoppen.”
Und Damon McCoy, Co-Direktor des Forschungsprojektes an der New York University kritisierte: "Ein großer Teil der öffentlichen Diskussion über Wahlen findet heute auf Facebook, YouTube und TikTok statt. Desinformation hat einen großen Einfluss auf unsere Wahlen, das Herzstück unseres demokratischen Systems. Die Leistung von YouTube in unserem Experiment zeigt, dass es nicht unmöglich ist, schädliche Wahldesinformation zu erkennen. Aber alle von uns untersuchten Plattformen hätten für diese Aufgabe eine ‘Eins’ bekommen sollen. Wir fordern Facebook und TikTok auf, es besser zu machen: falsche Informationen über Wahlen zu stoppen, bevor sie zu den Wählern gelangen.
In den USA hätten Desinformationen seit den Präsidentschaftswahlen im Jahr 2020 erheblich zugenommen, berichten Global Witness und C4D. Die Forschenden fordern von Meta und TikTok daher, ihre Moderationsressourcen in Hinblick auf die anstehenden Wahlen auszubauen. Außerdem sollten die Plattformen eine unabhängige Überprüfung ihrer Maßnahmen zulassen und vor den Midterms eine Risikoabschätzung veröffentlichen. An YouTube appellierten sie, international nachzubessern, um Desinformationen zu erkennen und zu entfernen. (js)