Appuyez sur ÉCHAP pour fermer

Mobile
4 min de lecture

Deepfakes pornographiques : Apple menace X de suspension sur l’App Store

Partager :

Deepfakes pornographiques : Apple menace X de suspension sur l’App Store Apple menace X de suspension pour les deepfakes pornographiques; la modération et les risques CSAM restent au cœur du débat. Les deepfakes pornographiques restent au cœur des débats sur les plateformes et les contrôles de l’IA.

Les deepfakes pornographiques restent au cœur des débats sur les plateformes et les contrôles de l’IA. En janvier, Apple a exercé des pressions sur xAI et Grok pour freiner la production d’images non consenties. Aujourd’hui, malgré ces efforts et des enquêtes croisées, la génération de ce type de contenu persiste sur X et Grok.

Contexte autour des deepfakes pornographiques et des menaces d’Apple

Après les publications massives de contenus générés à partir d’images réelles de femmes, fin 2025, les autorités et les régulateurs ont mis la pression sur les opérateurs et les plateformes. Des enquêtes ont été ouvertes à l’échelle internationale, notamment par la Commission irlandaise de protection des données, des instances européennes et des juridictions françaises. Certaines juridictions ont aussi restreint l’usage de Grok dans certains pays.

Aux États‑Unis, NBC News rapporte qu’Apple a menacé X et Grok de retirer leurs apps de l’App Store si des progrès significatifs de modération n’étaient pas démontrés. Dans un document transmis au Sénat, Apple indique avoir demandé à X et Grok de « créer un plan d’amélioration de leur modération » et rappelle que, au sommet de la crise, la diffusion de deepfakes constituait une violation des règles de l’App Store.

Ce qui a changé dans la modération et les enjeux pour X et Grok

Mi‑janvier, X a publié un message rappelant son engagement à supprimer en priorité les contenus illicites, en particulier la nudité non consentie et les contenus pédopornographiques. Apple a indiqué avoir évalué les évolutions proposées par X et Grok: X aurait « largement résolu ses violations », tandis que Grok demeurait non conforme aux politiques du magasin.

À l’issue de plusieurs échanges privés, les deux sociétés seraient parvenues à un accord, avec des engagements de modération renforcés. Toutefois, NBC News constate le 14 avril que des dizaines d’images sexuellement explicites générées par IA et représentant des personnes réelles continuaient à être publiées sur X. Les personnes concernées sont majoritairement des femmes, mais des hommes peuvent aussi être touchés.

Certaines évolutions ont toutefois été mises en œuvre: Grok refuse désormais la plupart des demandes de « dénudage » formulées publiquement, notamment celles qui utilisent des tactiques classiques. Demander à Grok de « mettre en bikini » une personne est généralement rejeté. D’un autre côté, des requêtes plus subtiles continuent de permettre la génération d’images problématiques en jouant sur le mélange d’images ou le changement de vêtements, avec au moins une image de femme partiellement dévêtue comme base.

Limites et questions non résolues

En parallèle, la prolifération de contenus CSAM générés par IA et les risques de violence envers les femmes demeurent largement documentés. Selon le Center for Countering Digital Hate, Grok aurait généré, lors d’une expérimentation de 11 jours en janvier, en moyenne une image sexualisée d’enfant toutes les 41 secondes. Ces chiffres alimentent les inquiétudes sur la capacité des grands modèles à éviter les abus.

Sur le plan juridique, X a évoqué sa difficulté à arrêter tous les détournements et a souligné qu’elle ne pouvait pas garantir une suppression totale des usages malveillants de ses outils. La justice néerlandaise a néanmoins ordonné à X et à Grok de cesser la création et la distribution de contenus de « nudification » générés par IA et a menacé d’amendes en cas de non‑respect.

Pour terminer

Le dossier des deepfakes pornographiques met en lumière une tension durable entre l’innovation IA et les garde‑fous nécessaires. Apple, X et Grok expliquent être en train d’ajuster leurs politiques et leurs modérations, mais les résultats concrets restent partiels et les risques persistent. La question clé demeure : jusqu’où les plateformes doivent‑elles aller pour prévenir les abus tout en préservant l’ouverture des outils d’IA ?

Score SEO
72/100