X impose l’étiquetage des vidéos générées par ia X oblige l’étiquetage des vidéos générées par ia représentant des conflits armés, avec des suspensions potentielles du programme de monétisation.
X élargit ses règles en matière de contenus générés par intelligence artificielle en visant les vidéos qui représentent des conflits armés. La plateforme a annoncé le 3 mars, par la voix du directeur produit Nikita Bier, qu’un nouvel étiquetage sera exigé lorsque les contenus sont créés via IA et qu’ils illustrent des situations de guerre. L’objectif affiché est simple: limiter la désinformation et aider le public à distinguer contenu généré artificiellement d’une information sur le terrain.
Ce que prévoit la règle et quand elle s’applique
La politique s’applique spécifiquement aux contenus montrant des conflits armés et générés par IA. Si un utilisateur monétise ses publications et publie une vidéo traitant d’un conflit sans étiquetage clair, il peut être suspendu du programme de monétisation pendant 90 jours. Des violations ultérieures pourraient entraîner une suspension permanente du programme.
Pour repérer ces contenus, X s’appuiera sur les Notes de communautés et sur les outils d’IA génératives, en particulier si le contenu présente des métadonnées ou d’autres signaux indiquant l’usage d’IA. Les comptes qui ne participent pas au programme de monétisation ne sont pas concernés par cette mesure.
Comment cela fonctionne en pratique
La société indique tester une fonctionnalité de labellisation des contenus générés par IA et utiliser les métadonnées ou les signaux techniques pour déterminer si une vidéo relève de ce cadre. Déjà, X appose des watermarks sur les images et vidéos générées via Grok. Cependant, jusqu’à présent, il n’était pas demandé aux utilisateurs d’indiquer explicitement leur recours à l’IA. Cette nouvelle démarche marque donc une étape vers une traçabilité plus claire des contenus IA.
Contexte et enjeux
Les contenus manipulés ou générés par IA représentant des conflits armés constituent un enjeu de désinformation depuis plusieurs années. Des exemples connus—comme des extraits détournés de jeux vidéo pour illustrer des tensions réelles—montrent à quel point les fausses images peuvent accélérer la propagation de récits trompeurs. L’évolution des outils d’IA générative augmente ce risque et nécessite des garde-fous plus nets sur les plateformes sociales.
Si cette démarche vise à réduire la confusion chez les utilisateurs, elle soulève aussi des questions sur la fiabilité des détections automatiques et sur les éventuels faux positifs. Le système devra équilibrer transparence, rapidité et respect de la créativité des créateurs, tout en restant accessible pour les comptes qui utilisent l’IA de manière responsable.
Pour terminer
La mesure marque une convergence entre la lutte contre les fausses informations et la gestion des contenus générés par IA sur les réseaux sociaux. Le test en conditions réelles promet d’en dire plus sur l’efficacité de l’étiquetage et sur les éventuels ajustements à apporter à la politique. L’année 2024 pourrait ainsi devenir un point d’inflexion sur la manière dont les plateformes gèrent l’intersection IA et conflit armé.