Appuyez sur ÉCHAP pour fermer

Autres
6 min de lecture 20 Vues

L’Arcom répond à Trump sur le DSA et les soi-disant atteintes à la liberté d’expression [Revue de Presse]

Partager :
Disinfos are Secured Allegations

Dans son bilan 2026 consacré à la « Lutte contre la manipulation de l’information sur les plateformes en ligne », l’Arcom décrypte ce pourquoi le règlement sur les services numériques, ou DSA, créé pour lutter contre les contenus illicites, a aussi été pensé pour empêcher les « atteintes à la liberté d’expression ». Il reprend par ailleurs plusieurs des propositions de la Stratégie nationale de lutte contre les manipulations de l’information d’origine étrangère du secrétariat général de la défense et de la sécurité nationale (SGDSN).

Depuis la loi visant à sécuriser et réguler l’espace numérique (dite loi SREN), adoptée en mai 2024, l’Arcom assure le rôle de coordinateur national pour les services numériques en France, chargée de veiller à l’application du règlement sur les services numériques (RSN, ou Digital Services Act – DSA).

À ce titre, elle vient de dresser un « bilan annuel des moyens et mesures mis en œuvre pour protéger l’intégrité des services et lutter contre les techniques de manipulation » par les très grandes plateformes et les très grands moteurs de recherche en ligne (TGPL-TGMR, ou VLOPSEs en anglais).

Sont concernées Facebook et Instagram (Meta), Google Search, YouTube, Microsoft Bing, LinkedIn, X, TikTok, Snapchat et Wikipédia.

Ne pas confondre « désinformation » et « manipulation de l’information »

L’Arcom rappelle, dans le résumé exécutif de son rapport, que le règlement et le nouveau code de conduite des bonnes pratiques contre la désinformation, intégré au RSN en 2025, « imposent concomitamment que les mesures mises en œuvre pour protéger l’intégrité des plateformes et lutter contre les techniques de manipulation soient respectueuses de l’impératif de protection de la liberté d’expression et d’information des utilisateurs en ligne ».

Illustrant cette discrète allusion aux accusations de « censure » accolée au DSA, par l’administration Trump notamment, l’Arcom souligne qu’« à ce titre, les grandes plateformes ne focalisent pas leur action sur les contenus eux-mêmes mais sur les comportements et les techniques de certains acteurs qui relèvent de la manipulation de l’information » :

« En effet, le RSN repose sur une logique de gestion des risques systémiques (articles 34 et 35 du règlement) et non sur une appréciation de la véracité des contenus pris isolément. Par conséquence, la lutte contre la « désinformation » – entendue comme l’identification et la qualification de contenus faux ou trompeurs – doit se distinguer de la lutte contre la « manipulation de l’information », qui vise prioritairement les comportements coordonnés ou les usages inauthentiques de fonctionnalités légitimes. »

Pour éviter que le DSA ne restreigne indûment la liberté d’expression, son article 34 oblige les très grandes plateformes à procéder à une évaluation de « tout risque systémique » découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, « y compris des systèmes algorithmiques, ou de l’utilisation faite de leurs services » au moins une fois par an, pouvant contribuer à « tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux et la sécurité publique », ainsi que « pour l’exercice des droits fondamentaux, en particulier […] le droit à la liberté d’expression et d’information ».

Les évaluations examinent également si et comment les risques en question sont « influencés par la manipulation intentionnelle du service desdits fournisseurs, y compris par l’utilisation non authentique ou l’exploitation automatisée du service, ainsi que par l’amplification et la diffusion potentiellement rapide et à grande échelle de contenus illicites et d’informations incompatibles avec leurs conditions générales ».

Son article 35 exige pour sa part que les grandes plateformes adoptent des mesures d’atténuation des risques « raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés conformément à l’article 34, en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux ».

En décembre dernier, Thierry Breton avait d’ailleurs souligné, sur X.com, que « au regard de la liberté d’expression & du DSA, il était légitime pour Meta de ne pas supprimer » la vidéo générée par IA avançant que la France ferait l’objet d’un coup d’État.

Emmanuel Macron en avait été tenu informé via un message Facebook d’un président africain, et n’avait pas compris pourquoi Facebook avait refusé de la retirer, au motif que cela ne contrevenait pas à ses conditions d’utilisation.

Sur X Thierry Breton avait souligné que le DSA ne permet pas à Meta de supprimer une vidéo

Les autorités US sont comme un ivrogne face à un lampadaire

« Les récentes critiques américaines à l’égard de l’approche de l’UE concernant les contenus préjudiciables et illégaux en ligne ont avec la vérité le même rapport qu’un ivrogne avec un lampadaire : elles servent de soutien plutôt que d’éclairage », résume pour sa part EU DisinfoLab dans un article consacré aux approches respectives des États-Unis et de l’UE de la responsabilité des intermédiaires en ligne.

L’ONG de lutte contre la désinformation rappelait par ailleurs que le DSA trouve son fondement juridique dans la directive européenne sur le commerce électronique (ECD) de 2000, qui s’inspire elle-même de l’article 230 du Communications Decency Act (CDA) états-unien.

Adopté en 1996, le CDA a consacré le fait qu’un « service informatique interactif » (hébergeur en ligne ou réseau social) ne doit pas être considéré comme l’éditeur d’un contenu publié sur sa plateforme, lorsque celui-ci a été mis en ligne par un utilisateur.

Si le cadre réglementaire de l’UE met certes en place des mesures incitatives visant à supprimer les contenus illicites, il impose également aux très grandes plateformes en ligne et moteurs de recherche d’évaluer puis d’atténuer les risques liés à leur conception et à leur fonctionnement, « en tenant explicitement compte de la protection du droit fondamental à la liberté d’expression » :

« Cependant, il décourage également la suppression abusive de contenus, en interdisant les restrictions arbitraires. La jurisprudence de la plus haute juridiction de l’UE, la Cour de justice de l’Union européenne, accorde aux intermédiaires une protection importante s’ils ne suppriment pas de contenu dans des cas qui ne sont pas clairement définis. »

En offrant des protections solides en matière de responsabilité, souligne le DisinfoLab, le cadre états-unien « supprime les incitations pour les intermédiaires en ligne à supprimer du contenu », en appliquant des règles différentes selon les types de contenu et les contextes, et « n’empêche pas de manière significative les entreprises du web de supprimer le contenu des utilisateurs, voire facilite sans doute cette suppression ».

Une déferlante de « Slopaganda »


Il reste 61% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.