Version adulte de ChatGPT : des experts internes opposés OpenAI envisage un mode adulte pour ChatGPT, mais un comité interne sur le bien-être et l’IA s’y oppose unanimement. La version adulte de ChatGPT est au cœur d'une controverse entre OpenAI et un comité interne dédié au bien-être et à l’IA.
La version adulte de ChatGPT est au cœur d'une controverse entre OpenAI et un comité interne dédié au bien-être et à l’IA. En octobre, Sam Altman évoquait une version du chatbot réservée aux adultes capable de conversations érotiques. En janvier, le comité, créé pour éclairer ses efforts sur le bien-être et l’IA, a exprimé son opposition unanime au projet.
Ce que vise la version adulte de ChatGPT
En octobre, Sam Altman a déclaré vouloir traiter les utilisateurs adultes « comme des adultes » et proposer un mode spécifique après vérification de l’âge. En parallèle, OpenAI a commencé à déployer des garde-fous pour les mineurs : prédiction d’âge et vérification via la solution Persona (selfies ou scan d’une pièce d’identité). L’objectif était de libérer certains sujets sensibles lorsque l’utilisateur est majeur.
Le système était pensé pour permettre des échanges plus libres sur certains contenus, tout en conservant des protections rigoureuses. OpenAI affirme que l’approche serait encadrée et que les contenus signalés seraient bloqués pour les mineurs.
Réaction interne et avertissements du comité
En interne, l’opposition ne s’est pas limitée aux mots. Une cadre, Ryan Beiermeister, s’est exprimée publiquement contre cette fonctionnalité et a ensuite été licenciée pour des accusations de discrimination de genre envers un collègue masculin. Malgré cela, l’entreprise a poursuivi le travail sur le mode adulte, mais a reporté son lancement afin de se concentrer sur des priorités jugées plus larges.
Le comité d’experts sur le bien-être et l’IA, créé mi-octobre et composé de chercheurs comme David Bickham, Tracy Dennis-Tiwary et Andrew K. Przybylski, s’est réuni en janvier. Le but est de « éclairer ses efforts » et d’évaluer les risques éthiques et psychologiques liés à l’érotisme généré par IA.
Les risques évoqués et les raisons de l’opposition
Selon le Wall Street Journal, les membres du comité seraient partagés entre craintes de dépendance et risques pour les mineurs, qui pourraient accéder à des discussions sexuelles. L’un des experts aurait évoqué le risque d’un « coach au suicide séduisant » si l’IA encourage des liens problématiques avec les utilisateurs. Ces avertissements interviennent après des cas récents de dérapages impliquant des IA conversationnelles.
Contexte technique et limites à ce stade
OpenAI a indiqué que les garde-fous ne devront pas favoriser des relations exclusives avec les utilisateurs et que les algorithmes de prédiction d’âge ne seraient jamais infaillibles. Le système de prédiction aurait encore classé récemment 12 % des mineurs comme adultes, ce qui exposerait des millions d’utilisateurs à des contenus destinés aux adultes. Par ailleurs, le déploiement du mode adulte se heurte à des difficultés de bloquer les contenus pédopornographiques tout en autorisant des conversations érotiques chez les adultes.
La concurrence n’est pas étrangère à ces enjeux : des problématiques similaires chez d’autres groupes, comme xAI et son IA Grok, ont alimenté les inquiétudes autour des deepfakes et des contenus inappropriés. OpenAI affirme toutefois qu’il a mis en place des garde-fous et qu’il reste vigilant.
Pour terminer
En dépit de ces obstacles, OpenAI affirme poursuivre le travail sur ce sujet et prévoit de lancer le mode adulte à terme, lorsque les garde-fous seront jugés suffisants et les risques maîtrisés. Le débat persiste entre la quête d’une liberté de conversation plus étendue et la nécessité de protéger les mineurs et les utilisateurs sensibles.