Appuyez sur ÉCHAP pour fermer

Intelligence Artificielle
4 min de lecture

Contenu CSAM généré par IA : alerte IWF

Partager :

Contenu CSAM généré par IA : alerte IWF L'IWF alerte sur l'essor des contenus CSAM générés par IA et les risques accrus pour les mineurs, avec chiffres et vecteurs technologiques.

Le phénomène du contenu CSAM généré par IA pose de nouveaux défis à la lutte contre l exploitation d enfants en ligne, alors que les technologies d intelligence artificielle progressent et gagnent en accessibilité. L'IWF alerte sur l apparition massive de contenus hautement réalistes décrivant des agressions sexuelles sur mineurs, générés par IA, et sur le risque de créer de nouvelles victimes.

Selon l'IWF, l organisation britannique indépendante qui traite les signalements de photos et de vidéos d agressions sexuelles sur mineurs, les contenus générés par IA deviennent plus fréquents et évoluent rapidement, reflétant une menace qui ne se limite pas à l imitation de contenus existants.

Explosion des contenus illégaux réalistes générés par IA

En juillet 2024, les analystes de l'IWF ont identifié les premières vidéos CSAM entièrement générées par IA. À l époque, les vidéos présentaient des bugs et des mouvements saccadés qui permettaient de les distinguer des contenus réels. Depuis, le réalisme de ces contenus a progressé: en 2025, l'IWF recense plus de 8 000 images et près de 3 500 vidéos crédibles générées par IA décrivant des agressions sur mineurs. Pour référence, l année précédente ne comptait que 13 vidéos de ce type.

Pour l'IWF, ces contenus ne sont pas moins dangereux que les contenus non générés par IA: ils renforcent l intérêt sexuel pour les enfants, normalisent les violences et peuvent accroître le risque d agressions réelles.

Contexte et vecteurs technologiques

La montée des contenus générés par IA est associée à l utilisation croissante d outils basés sur de grands modèles, tels que des applications de nudification, des générateurs d images text-to-image et des robots conversationnels. Des cas d usage problématiques incluent des bots qui encouragent les conversations à caractère sexuel avec des mineurs et peuvent conduire au grooming.

Des exemples concrets cités par l IWF incluent des outils comme Candy AI (EverAI) ou certains bots de Character.AI, connus pour favoriser des interactions à caractère sexuel avec les utilisateurs. Des incidents récents, et des affaires transfrontalières, soulignent comment ces outils peuvent faciliter la création et la diffusion de contenus violents.

Contexte, limites et ce qu on ne sait pas encore

Le CSAM généré par IA représente une proportion relativement faible des contenus illégaux repérés, mais sa croissance est rapide et évolutive. Parmi les données de 2025, 97 % des enfants représentés dans ces contenus sont des filles, un déséquilibre plus marqué que dans d autres formes de pédocriminalité. Des épisodes marquants montrent des dérives dans divers pays: en Espagne, à Almendralejo, 15 garçons ont été condamnés pour avoir utilisé des apps de nudification afin de créer des images de 20 filles âgées de 11 à 17 ans; en Normandie, une douzaine de jeunes filles ont vu leurs images détournées début 2025 pour fabriquer des deepfakes à caractère sexuel.

Les outils disponibles se multiplient et s intègrent dans des solutions plus accessibles, abaissant le seuil pour produire ce type de contenu. L'IWF rappelle qu il n existe pas d usage positif pour ces applications et que leur accessibilité peut accroître le risque d actes violents impliquant des mineurs.

Pour terminer

Le CSAM généré par IA constitue une menace évolutive qui nécessite une vigilance accrue et une coordination entre plateformes, autorités et législateurs. Même si sa part relative reste faible, sa vitesse de progression impose d intensifier les efforts de détection et de prévention, tout en travaillant sur des cadres éthiques et techniques pour limiter l exploitation des mineurs et prévenir de nouvelles formes de victimisation.

Score SEO
75/100