Studie: YouTube empfiehlt regelmäßig bedenkliche Inhalte
YouTubes eigener Empfehlungs-Algorithmus wirbt regelmäßig für Videos, die Desinformationen oder Gewaltdarstellungen enthalten – oder in anderer Weise gefährlich sind und den Richtlinien der Streaming-Plattform widersprechen. Das ist das Ergebnis einer aktuellen Untersuchung der Mozilla Foundation. Das Problem soll in nicht-englischprachigen Ländern besonders groß sein.
Die Daten für den Bericht hat die Mozilla Foundation mithilfe einer hauseigenen Browser-Erweiterung namens RegretReporter gesammelt. Freiwillige können sie nutzen, um bedenkliche YouTube-Videos zu markieren und zu dokumentieren, wie sie auf das Material aufmerksam (gemacht) wurden. Mozilla und Wissenschaftlerinnen und Wissenschaftler der Universität Exeter sammelten so im Zeitraum von Juli 2020 bis Mai 2021 über 3000 gemeldete Videos aus 91 Ländern.
Bunter Strauß an Verstößen
Am häufigsten wurden Videos mit Fehlinformationen ohne Corona-Bezug, also beispielsweise zu angeblichen Verschwörungen, beanstandet. Es folgten in der Häufigkeit Gewalt, Fehlinformationen mit Corona-Bezug, Hassrede und “Spam und Betrug”. Seltener wurden “Nacktheit und sexuelle Inhalte” gemeldet, “Kindersicherheit”, “Belästigung und Cybermobbing” und “schädliche und gefährliche Inhalte”.
Der Bericht nennt Fehlinformationen ein “dominantes Problem” auf der Plattform: Lügen und Unwahrheiten zu der Pandemie und anderen Themen machten zusammengezählt etwa ein Drittel der beanstandeten Videos aus.
71 Prozent der markierten Videos hatte der YouTube-eigene Algorithmus den Nutzern empfohlen. Die Autorinnen und Autoren gehen davon aus, dass insgesamt 12,2 Prozent der gemeldeten Videos gegen die Community-Richtlinien von YouTube verstoßen und entweder gar nicht auf der Plattform sein dürften – oder zumindest nicht empfohlen werden sollten.
Art Garfunkel und die Medienverschwörung
Rund 9 Prozent der beanstandeten Videos seien mittlerweile von YouTube gelöscht worden. Viele davon seien der Plattform gemeldet worden, weil sie gegen ihre Richtlinien verstießen. Die besagten Inhalte hatten bis zur Löschung insgesamt über 160 Millionen Klicks – und somit 70 Prozent mehr Klicks pro Tag als die unbedenklichen Videos, die die Freiwilligen geschaut hatten.
43 Prozent der vom Algorithmus empfohlenen, beanstandeten Videos standen in keinem inhaltlichen Zusammenhang mit dem, was die Freiwilligen sich zuvor angesehen hatten. So empfahl YouTube einer Person, die ein Musikvideo von Art Garfunkel aufgerufen hatte, ein Verschwörungs-Video mit dem Titel “Moderator der Trump-Debatte ENTLARVT, er hat tiefe Demokraten-Verbindungen, Medien-Voreingenommenheit erreicht Höhepunkt”. Einem anderen Nutzer schlug YouTube ein sexistisches, diskriminierendes Video mit dem Titel “Mann demütigt Feministin in viralem Video” vor, nachdem dieser Inhalte über das US-Militär konsumiert hatte.
YouTube versteht Englisch besser
In Ländern, in denen die primäre Sprache üblicherweise nicht Englisch ist, stießen die Freiwilligen 60 Prozent häufiger auf unerwünschte Inhalte als in englischsprachigen Staaten. In Deutschland, Brasilien und Frankreich bekamen die Nutzerinnen und Nutzer besonders oft solche Videos zu sehen. Die Quote lag dort bei über 20 Videos von 10.000. In englischsprachigen Nationen lag die durchschnittliche Quote nur bei 11 von 10.000. Über alle nicht-englischsprachigen Länder hinweg tauchten im Schnitt 17,5 unerwünschte Videos pro 10.000 auf.
Ein Grund dafür sei, dass sowohl die Empfehlungs-Algorithmen als auch die zur Erkennung von Richtlinienverstößen mit sprachspezifischen Machine-Learning-Modellen trainiert werden. Viele Plattformen trainierten vorrangig mit englischsprachigen Daten, sodass die Automatismen mit anderen Sprachen schlechter funktionieren.
Die Algorithmen hätten insbesondere Probleme mit sogenannten Borderline-Inhalten, die knapp die Plattform-Richtlinien umgehen, ohne sie eindeutig zu verletzen. Zwar wolle YouTube dieses Problem angehen, konzentriere sich dabei aber auf die USA und andere englischsprachige Länder.
Mehr Transparenz und Kontrolle
Die Autoren des Berichts fordern YouTube dazu auf, besser über die Funktionsweisen seiner Algorithmen aufzuklären und Aufsichtsbehörden und Forschern mehr Informationen zur Verfügung zu stellen. Nur so könnten unabhängige Untersuchungen stattfinden, die helfen, das System zu verbessern. Der Konzern solle den Nutzerinnen und Nutzern bessere Kontrolle darüber geben, welche ihrer Daten für Video-Empfehlungen verwendet werden – und ob bestimmte Informationen ignoriert werden.
Die Politik fordern die Autoren dazu auf, Plattformen wie YouTube zu mehr Transparenz zu verpflichten. Forscher, Journalisten und Aktivisten sollten juristisch abgesichert sein, wenn sie die Plattformen mit eigenen Tools und Accounts untersuchen und eventuell systematisch Daten extrahieren.
Nutzerinnen und Nutzern wird geraten, regelmäßig die Historie der angesehenen Videos und Suchanfragen im eigenen Profil zu überprüfen und Videos zu entfernen, die keinen Einfluss auf die Empfehlungen haben sollen. Alternativ schaltet man die Protokollierung komplett aus.
YouTube-Nutzerinnen und Nutzer können das Mozilla-Plug-in für die Browser Firefox und Google Chrome auch weiterhin herunterladen und auffällige Videos melden. (hcz)