Les députés européens votent un retrait rapide des contenus à caractère terroriste

Contenus à caractère terroriste sur Internet
Ce nouveau règlement de l’UE prévoit des injonctions de suppression transfrontières pour les contenus à caractère terroriste (source : imago images / Panthermedia)

Les plateformes en ligne comme Facebook, Twitter et YouTube devront désormais supprimer en une heure les « contenus à caractère terroriste » dans l’UE en cas de signalement par les autorités. La Commission des libertés civiles, de la justice et des affaires intérieures, en charge du sujet, a voté lundi en majorité pour ce règlement contre « la diffusion de de contenus à caractère terroriste en ligne » (« règlement TERREG »). Avant que le règlement ne puisse entrer en vigueur, le Conseil européen et le Parlement doivent l’adopter en deuxième lecture.

Comme l’a annoncé le Parlement européen (en anglais), ce nouveau règlement concerne les textes, images, enregistrements et vidéos, y compris les contenus diffusés en direct (live streams) incitant à des crimes terroristes. Les instructions relatives à de tels crimes et l’incitation à rejoindre des groupes terroristes en font également partie. De plus, les instructions portant sur la construction de bombes et d’armes doivent être également supprimées.

Des exceptions sont prévues pour les contenus diffusés à des fins pédagogiques, journalistiques, artistiques ou de recherche. Les contenus relatifs à la lutte contre le terrorisme ne doivent pas, eux non plus, être supprimés. De plus, selon l’UE, les déclarations polémiques dans le cadre d’un débat public sont exemptées.

Le règlement (en anglais) concerne toutes les plateformes qui proposent leurs services dans l’UE. Si elles reçoivent une injonction de suppression de la part des autorités compétentes (competent authorities), elles seront à l’avenir dans l’obligation de supprimer ou bloquer « aussi vite que possible », quoiqu’il en soit en moins d’une heure. La compétence du juge n’est pas nécessaire à l’injonction de suppression. Les petites plateformes non commerciales ne sont pas tenues au délai d’une heure.

Les États membres doivent décider eux-mêmes quelles autorités et combien d’entre elles sont compétentes chez eux : elles peuvent ainsi déléguer cette tâche aux autorités judiciaires, par exemple. Si les plateformes n’appliquent pas l’injonction, elles s’exposent à des avertissements ou des amendes. Les violations systématiques sont passibles d’amendes pouvant aller jusqu’à 4 % du chiffre d’affaires d’une entreprise.

Injonctions de suppression transfrontières

Les autorités compétentes peuvent également envoyer des injonctions de suppression à des prestataires dont le siège principal se trouve dans un autre État de l’UE. Les plateformes ont alors la possibilité, jusqu’à 48h après réception de l’injonction, de demander une vérification par l’autorité compétente de leur pays. Celles-ci doivent bloquer l’injonction si elles estiment qu’elle enfreint ce règlement ou les droits fondamentaux de l’UE. Les injonctions peuvent également être contestées devant les tribunaux.

Dans le cadre de ce règlement, l’UE ne contraint pas les plateformes internet à surveiller ou filtrer les contenus de manière automatisée. Les filtres de chargement exigés auparavant ne sont par conséquent pas obligatoires : on les considère comme des sources d’erreur potentielle, pouvant par exemple exclure automatiquement de la publication des contenus journalistiques.

Aussi bien les autorités que les opérateurs de plateformes doivent fournir des informations dans des rapports de transparence annuels sur les injonctions émises et les mesures prises dans le cadre du règlement.

Les détracteurs craignent la censure

Le règlement a été largement critiqué dès sa genèse, notamment en raison des filtres de chargement prévus. Même si ceux-ci ne sont pas obligatoires, l’inquiétude persiste concernant le fait que des pays comme la Hongrie, qui sont sous le feu des critiques en raison de leurs manquements à l’état de droit, puissent tirer parti de ce règlement. Ils pourraient tenter de bloquer les contenus critiques envers le pouvoir en tant que « propagande terroriste ». Car bien que la définition de terrorisme soit fixée dans la directive européenne relative à la lutte contre le terrorisme de 2017, elle est considérée par ses détracteurs comme étant trop large. Le porte-parole sur la politique intérieure de la fraction des Verts/ALE de l’époque, Philipp Albrecht, avait qualifié cette définition du terrorisme de disproportionnée (en allemand) et prévenu qu’elle pourrait selon lui « être utilisée par les gouvernements des États membres de l’UE pour criminaliser des actions politiques d’activistes environnementaux ou des droits civils. »

Le député européen Patrik Breyer du Parti des pirates (Allemagne) a déclaré avoir voté, avec la fraction Verts/ALE dont il est membre, contre le règlement (en allemand) : « malgré des succès partiels mais importants […], les injonctions de suppression ultra-rapides et transfrontières sans compétence du juge menacent la liberté d’expression et de la presse en ligne. » Les injonctions de suppression transfrontières ouvrent d’après lui « un boulevard à une censure d’Internet motivée politiquement ».

D’après Breyer, le règlement de l’UE est comparable à la loi AVIA en France : le Conseil constitutionnel avait décidé en juin 2020 (en anglais) que celle-ci allait à l’encontre du droit fondamental à la liberté d’expression. Breyer estime que le règlement de l’UE est similaire : « Conformément à la décision de justice concernant la loi française AVIA, jugée inconstitutionnelle, ce règlement de l’UE contre le terrorisme sur Internet sans précédent est susceptible de limiter de manière disproportionnée le droit fondamental à la liberté d’expression et ne tiendra pas devant un tribunal. Rien n’est plus inefficace contre le terrorisme qu’une loi abrogée ».

L’association française La Quadrature du Net considère que ces délais de suppression courts ne sont pas réalistes. Seules de grandes entreprises pourraient les respecter. L’organisation craint par conséquent que les opérateurs recourent de plus en plus à des outils automatisés afin de filtrer les contenus dès le chargement. Lorsque les autorités judiciaires décident des suppressions, cela peut en outre, selon l’association, mener à la censure d’opposants politiques ou de mouvements sociaux. (js)