Injonctions de suppression par l'UE : un collectif élargi de défense des droits civiques estime la liberté d'expression menacée

EU-Filter
Ce qu’un État de l’UE qualifie de terroriste pourrait à l’avenir devoir être également effacé dans un autre État. (Quelle: IMAGO / Ralph Peters)

Les organisations de défense des droits humains et des droits civiques voient dans le projet de règlement européen contre « la diffusion de contenus à caractère terroriste en ligne » (« règlement TERREG ») une menace pour la démocratie. Dans une lettre incendiaire adressée au Parlement européen, elles expriment leur inquiétude quant à la menace qu’il ferait peser sur la liberté d’opinion et d’expression, la vie privée, l’État de droit et le libre accès à l’information. Les gouvernements des États de l’UE pourraient faire supprimer des contenus chez d’autres membres de l’UE, et ce sans contrôle judiciaire. Ainsi, des preuves de violations des droits de l’homme pourraient par exemple disparaître. En raison des délais de suppression courts, les gestionnaires des plateformes sont selon elles incités à utiliser des filtres de téléchargement qui pourraient également supprimer par erreur des contenus légaux.

Plusieurs organisations de défense des droits humains et des droits civiques, ainsi que des associations de journalistes font partie des signataires : parmi elles, Amnesty International, La Quadrature Du Net, la Ligue des Droits de l’Homme, Reporters sans frontières, le Chaos Computer Club (CCC), la Electronic Frontier Foundation (EFF), European Digital Rights (EDRi), Statewatch et Wikimedia.

Les auteurs reconnaissent que certains points problématiques ont été désamorcés lors des discussions en trilogue avec le Parlement européen et le Conseil de l’Union européenne. Mais le projet de texte final contient encore « des mesures dangereuses qui, à terme, affaibliront la protection des droits fondamentaux dans l’UE ». De plus, un « précédent pour la réglementation des contenus en ligne dans le monde entier » serait créé.

La « Commission des libertés civiles, de la justice et des affaires intérieures », en charge du sujet, avait voté le projet à la mi-janvier, et le Conseil des ministres de l’Union européenne également à la mi-mars. Le vote du Parlement européen est toujours en attente.

Une heure de délai

Les plateformes en ligne comme Facebook, Twitter et YouTube doivent à l’avenir supprimer les « contenus à caractère terroriste » dans l’UE une heure après la demande des autorités. Les textes, images, enregistrements sonores et vidéos, y compris les contenus diffusés en direct (live streams) incitant à des infractions terroristes seraient concernés. Les instructions relatives à de telles infractions et l’incitation à rejoindre des groupes terroristes en font également partie. De plus, les instructions portant sur la construction de bombes et d’armes doivent être également supprimées.

Le règlement s’adresse à toutes les plateformes qui proposent leurs services dans l’UE. Si celles-ci reçoivent une injonction de suppression des autorités compétentes, elles seront à l’avenir contraintes de supprimer ou de bloquer ces contenus en l’espace d’une heure. Une prérogative du juge n’est pas prévue. Les petites plateformes et les plateformes non commerciales sont exemptées du délai d’une heure.

Les autorités peuvent également envoyer des injonctions de suppression aux prestataires dont le siège social est situé dans un autre État de l’UE. Dans un délai de 48 heures, les plateformes ont la possibilité de demander à l’autorité compétente de leur pays d’examiner la demande. Cette dernière est censée bloquer la requête si elle estime qu’elle viole le règlement ou les droits fondamentaux de l’UE. Les injonctions peuvent également être contestées devant les tribunaux.

Le retour des filtres de téléchargement

Les signataires craignent le fait que la pression à agir vite inscrite dans le règlement conduise les plateformes à utiliser de plus en plus de filtres automatisés pour la modération et la suppression de contenus. Les signataires citent dans la lettre à titre d’exemple ce qu’on appelle les filtres de téléchargement (en allemand).

Les « outils automatiques » ne peuvent, selon eux, pas distinguer entre les contenus relevant de la parodie, de l’activisme, du contre-discours ou du terrorisme. Les auteurs s’inquiètent du fait que les contenus légaux comme les articles de presse ou les commentaires satiriques soient supprimés de manière automatique. Les preuves de crimes de guerre et de mauvais traitements pourraient également disparaître.

Les pratiques actuelles de modération des contenus supprimeraient déjà de grandes quantités de contenus qui documentent par exemple la violence dans les zones de guerre, et sont téléchargés par des survivants, des civils ou des journalistes. Les auteurs nomment à titre d’exemple les Syrian and Yemeni Archives dont les gestionnaires collectent des preuves pour des poursuites pénales ultérieures des criminels de guerre. De plus, les pratiques de modération se caractériseraient déjà par un « profond manque de transparence et de précision de la prise de décision automatisée ». Il manquerait au nouveau règlement des mesures de protection qui pourraient empêcher cela à l’avenir. La tendance se renforcerait même avec ce nouveau règlement. Les filtres de téléchargement auraient en outre un effet négatif sur Internet , notamment en ce qui concerne son architecture ouverte et ses éléments constitutifs interopérables.

« Intervention excessive et abus de pouvoir »

Le règlement prévoit que les autorités compétentes puissent faire appliquer les injonctions de suppression non seulement dans leur propre pays, mais aussi là où le contenu est hébergé, tant qu’il s’agit d’un État membre de l’UE. La compétence d’exécution juridique des États membres est ainsi étendue au-delà de leur territoire. Les auteurs y voient un danger pour la « coopération judiciaire » entre les États de l’UE. Celle-ci repose en effet sur la confiance, qui pourrait cependant être affectée en raison des « graves menaces qui pèsent sur l’État de droit dans certains États membres de l’UE » .

Les États membres sont d’ores et déjà en désaccord pour savoir si certains contenus relèvent plutôt du terrorisme, de l’ironie, de l’expression artistique ou du reportage journalistique. Ces désaccords ne seraient pas résolus par les procédures envisagées. Les organisations signataires craignent « une intervention excessive et des abus de pouvoir ».

Pas de contrôle judiciaire

En outre, le problème de l’absence de contrôle indépendant se pose également : les ordres de suppression seront apparemment émis sans contrôle judiciaire préalable. Il ne sera donc pas vérifié en amont si les droits des personnes sont bafoués. Cela est valable aussi bien pour les injonctions de suppression dans un pays donné ou dans les autres États membres.

Les États membres doivent désigner leurs propres autorités qui délivreront notamment les injonctions de suppression. Celles-ci doivent agir de manière objective et non discriminatoire. Cependant, les organisations signataires estiment que seuls les tribunaux et des autorités indépendantes et contrôlées par la justice doivent accomplir cette tâche. Elles écrivent que « cela [le manque d’un contrôle judiciaire] porte également atteinte à la Charte des droits fondamentaux, qui protège la liberté de recevoir et de communiquer des informations et dispose que l’expression licite est protégée et ne devrait être limitée qu’ultérieurement, par un tribunal et sur demande légitime. »

Le Parlement européen procédera à un vote final sur ce règlement lors de la session plénière du 26 au 29 avril. Le collectif appelle les députés à voter contre le règlement. (hcz)