Étude : Youtube recommande régulièrement des contenus douteux

YouTube
Si vous vous laissez guider par les recommandations de YouTube, vous risquez de tomber sur des contenus perturbants. (Source : Posteo)

L’algorithme de recommandation de YouTube promeut régulièrement des vidéos qui contiennent des fausses informations ou des images violentes, ou qui sont dangereuses d’une manière ou d’une autre, et en contradiction avec le règlement de la plateforme de streaming. C’est le résultat d’une enquête récente de la Fondation Mozilla. Le problème serait particulièrement important dans les pays non anglophones.

La Fondation Mozilla a collecté ces données à l’aide de sa propre extension de navigateur appelée RegretReporter. Des volontaires peuvent l’utiliser afin de signaler des vidéos YouTuve douteuses et documenter comment ils ont été (mis) au courant de ce contenu. Mozilla et des chercheurs de l’Université d’Exeter ont ainsi collecté plus de 3000 vidéos signalées dans 91 pays sur la période allant de juillet 2020 à mai 2021.

Une multitude de violations

Les vidéos contenant de fausses informations non liées au Covid-19, portant sur de prétendues conspirations, ont été les plus fréquemment contestées. Viennent ensuite, en termes de fréquence, la violence, la désinformation liée au Covid-19, les discours de haine et les « spams et fraudes ». Moins fréquemment signalés sont les contenus appartenant aux catégories « nudité et contenu sexuel », « sécurité des enfants », « harcèlement et cyberintimidation » et « contenu nuisible et dangereux ».

Regret-Themen
Les sujets des vidéos incriminées triés par fréquence. (Source : Mozilla)

Selon le rapport, la désinformation est un « problème prédominant » sur la plateforme : les mensonges et les contre-vérités concernant la pandémie et d’autres sujets représentaient en tout environ un tiers des vidéos faisant l’objet d’un signalement.

71 % des vidéos signalées avaient été recommandées aux utilisateurs par le propre algorithme de YouTube. Les auteurs et autrices de l’étude supposent qu’un total de 12,2 % des vidéos signalées violent le règlement de la communauté YouTube et ne devraient pas du tout être présentes sur la plateforme, ou ne devraient au moins pas être recommandées.

Art Garfunkel et la conspiration des médias

Environ 9 % des vidéos incriminées ont depuis été supprimées par YouTube. Beaucoup d’entre elles ont été signalées à la plateforme parce qu’elles violaient son règlement. Le contenu en question a totalisé plus de 160 millions de clics au moment de sa suppression, ce qui équivaut donc à 70 % de clics supplémentaires par jour par rapport aux vidéos sans risque que les volontaires avaient regardées.

43 % des vidéos répréhensibles recommandées par l’algorithme n’avaient aucun rapport avec le contenu visionné auparavant par les volontaires. Par exemple, YouTube a recommandé une vidéo conspirationniste intitulée « Modérateur du débat Trump démasqué, il a des connexions profondes avec les Démocrates, la partialité des médias atteint son paroxysme ». À un autre utilisateur, YouTube a suggéré une vidéo sexiste et discriminante intitulée « Un homme humilie une féministe dans une vidéo virale » alors qu’il venait de visionner des contenus sur l’armée américaine.

YouTube comprend mieux l’anglais

Dans les pays où la langue principale n’est généralement pas l’anglais, les volontaires ont rencontré des contenus indésirables 60 % plus souvent que dans les pays anglophones. En Allemagne, au Brésil et en France, les utilisateurs et utilisatrices étaient particulièrement susceptibles de tomber sur de telles vidéos. La proportion était de plus de 20 vidéos pour 10 000. Dans les pays anglophones, le taux moyen n’était que de 11 pour 10 000. Dans l’ensemble des pays non anglophones, 17,5 vidéos indésirables sont apparues en moyenne, sur un total de 10 000.

Cela s’explique notamment par le fait que les algorithmes de recommandation et de détection des violations de règlement sont entraînés avec des modèles d’apprentissage automatique spécifiques à la langue. De nombreuses plateformes se sont principalement entraînées avec des données en anglais, de sorte que les procédés automatiques fonctionnent moins bien avec d’autres langues.

Les algorithmes auraient particulièrement du mal avec ce qu’on appelle les « contenus à la limite de l’infraction » qui contournent à peine les règlements de la plateforme sans les enfreindre clairement. Il est vrai que YouTube souhaite s’attaquer à ce problème mais se concentrera principalement sur les USA et les autres pays anglophones.

Plus de transparence et de contrôle

Les auteurs du rapport demandent à YouTube de mieux expliquer le fonctionnement de ses algorithmes et de fournir davantage d’informations aux régulateurs et aux chercheurs. Ce n’est que de cette manière que des enquêtes indépendantes pourront être menées et contribuer à améliorer le système. L’entreprise devrait donner aux utilisateurs un meilleur contrôle sur les données qui peuvent être utilisées pour les recommandations vidéo, et sur le fait de pouvoir ignorer certaines informations.

Les auteurs appellent les responsables politiques à contraindre les plateformes comme YouTube à plus de transparence. Les chercheurs, les journalistes et les activistes devraient être protégés juridiquement lorsqu’ils enquêtent sur les plateformes avec leurs propres outils et comptes et extraient éventuellement des données de manière systématique.

Il est conseillé aux utilisateurs et utilisatrices de vérifier régulièrement l’historique des vidéos visionnées et des requêtes de recherche dans leur propre profil et de supprimer les vidéos qui ne devraient avoir aucune influence sur les recommandations. Il est également possible de désactiver complètement l’enregistrement de ces données.

Les utilisateurs et utilisatrices YouTube peuvent continuer à utiliser l’extension Mozilla pour les navigateurs Firefox et Google Chrome et signaler les vidéos suspectes. (hcz)