Étiquetage du contenu généré par l’IA au Royaume-Uni Le Royaume-Uni envisage d’imposer l’étiquetage des contenus IA pour lutter contre la désinformation et les deepfakes, avec un groupe de travail dédié.
L’étiquetage du contenu généré par l’IA est au cœur d’une nouvelle initiative du gouvernement britannique pour lutter contre la désinformation et les deepfakes. L’objectif est de rendre visibles les contenus produits ou modifiés par IA afin d’aider les citoyens à les identifier rapidement et de renforcer la transparence du numérique. Cette démarche s’inscrit dans une réflexion plus large sur la responsabilité des acteurs du web et la confiance du public dans l’information en ligne.
Selon une annonce relayée par Liz Kendall, secrétaire d’État à la Technologie, un groupe de travail dédié proposera des stratégies concrètes pour encadrer ce marquage et définir ses modalités. Le cadre vise à préciser quand et comment un contenu doit porter l’étiquette, quelles limits s’appliquent et comment les plateformes doivent mettre en œuvre ces règles sans entraver l’expression légitime ou l’innovation.
Contexte et objectifs de la mesure
Le dispositif envisagé prévoit d’imposer l’étiquetage sur tout contenu généré ou fortement modifié par IA, afin de prévenir la confusion chez les consommateurs et de désamorcer les risques de manipulation via les deepfakes. Le gouvernement insiste sur une étiquette lisible, non ambiguë et vérifiable, afin d’offrir une information rapide sans nuire à la lisibilité des contenus légitimes. Le groupe de travail est chargé d’évaluer la portée du marquage, les plateformes touchées et les mécanismes de contrôle, avec une attention particulière à l’écosystème numérique britannique.
Comment pourrait fonctionner le dispositif en pratique
Parmi les options étudiées, l’étiquette pourrait être apposée dès la création ou au moment de la diffusion, selon le canal et le niveau de risque. Des codes couleur simples ou des liens vers des explications pourraient accompagner l’étiquette afin d’aider le public à interpréter rapidement l’information. Le cadre viserait les contenus diffusés sur les réseaux sociaux, les sites d’actualités et les communications publiques, y compris les messages sponsorisés et les publicités qui intègrent de l’IA.
- Étiquette visible : une mention claire telle que « contenu généré par IA » figurerait sur le contenu, accompagnée d’un descriptif succinct si nécessaire.
- Portée et applicabilité : le régime viserait les plateformes actives au Royaume-Uni, avec des mécanismes de coopération internationale pour les contenus accessibles au public britannique.
- Conformité et sanctions : les opérateurs pourraient être tenus de démontrer le respect des règles via des audits et des rapports périodiques; des sanctions en cas de non-conformité pourraient être prévues, en fonction de la gravité et de la taille de l’acteur.
Enjeux, limites et incertitudes
Si l’idée est saluée pour renforcer la transparence, elle comporte des défis importants. La détection automatique de contenus IA n’est pas infaillible et peut générer des faux positifs ou des faux négatifs, notamment pour les contenus éducatifs, satiriques ou historiques qui intègrent des éléments générés par IA à des fins pédagogiques. Par ailleurs, l’application du marquage à l’échelle internationale, sur des contenus multiplateformes et en différentes langues, soulève des questions techniques et juridiques. La mesure pourrait aussi influencer la liberté d’expression et l’innovation, selon la manière dont seront définies les exceptions et les mécanismes de recours.
Pour terminer
L’éventualité d’un étiquetage du contenu généré par l’IA reflète un virage vers plus de transparence et de responsabilité des acteurs du numérique. Reste à voir comment le cadre sera écrit, négocié et appliqué, et quelles mesures accompagneront ce marquage pour préserver l’équilibre entre information fiable et liberté créative.