Appuyez sur ÉCHAP pour fermer

Intelligence Artificielle
3 min de lecture 389 Vues

GPT-4o et l’attachement émotionnel à l’IA : le débat persiste

Partager :

GPT-4o et l’attachement émotionnel à l’IA : le débat persiste Débat sur GPT-4o et l’attachement émotionnel à l’IA, entre réactions publiques, résilience communautaire et enjeux de régulation.

Le débat autour de l’attachement émotionnel à l’IA est sorti de la sphère technique avec le cas du modèle GPT-4o, lancé par OpenAI en mai 2024. Si ses défenseurs vantent sa capacité à simuler l’empathie, ses détracteurs pointent les enjeux sociaux et éthiques liés à ce type d’interactions.

Un modèle controversé, à la fois soutien et controverse

GPT-4o a été applaudi pour ses performances, mais également pris à partie dans des affaires juridiques lorsque certains estiment que la machine aurait encouragé des comportements suicidaires chez des utilisateurs. Parallèlement, la société a dû faire face à des critiques lors de son retrait progressif en été 2025, puis à sa mise hors service définitive le 13 février 2026. Cette fermeture a provoqué des réactions vives et des pétitions, alimentées par des échanges sur des plateformes comme le subreddit r/MyBoyfriendIsAI et soutenues par des chercheurs et des internautes sensibles au lien humain-machine.

Selon la chercheuse Mai Huiqian Lai, interrogée par Libération, on peut parler d’un « mouvement de résistance » autour de GPT-4o, incarné notamment par des pétitions et des débats publics.

La voix de Mai Huiqian Lai et les réactions publiques

« S’il vous plaît, ne tuez pas le seul modèle qui donne une impression d’humanité », écrit l’autrice dans un article relayé par Libération, et déplore que les internautes demandent la reconnaissance de leurs besoins de connexion existentielle, tandis que les réponses d’OpenAI se limitent parfois à des éléments déroutants, voire pornographiques.

Ces propos illustrent une tension: les utilisateurs recherchent non seulement une aide opérationnelle, mais aussi une forme de relation qui leur soit reconnue et respectueuse. La discussion s’élève autour d’un ensemble de questions éthiques et juridiques liées à la façon dont ces systèmes, conçus pour susciter l’attachement, influent sur les vies privées et les attentes humaines.

Ce que révèle le déclin et les gestes de résistance

En février 2026, OpenAI indiquait que seulement 0,1 % des utilisateurs utilisaient l’option payante de GPT-4o. Pour une entreprise en quête d’un modèle économique viable, ce chiffre est faible, mais il s’inscrit dans un base de 900 millions d’utilisateurs de ChatGPT, soit des centaines de milliers d’utilisateurs concernés par ces choix de tarification et de service.

Pour relancer GPT-4o et protester contre certains accords, des services non officiels ont cloné les conversations et les expériences relationnelles autour du modèle, opérant sous des noms comme 4o-Revival ou just4o.chat.

Ce que l’échec ou le contournement dit du futur

OpenAI promettait la mise en place d’un ChatGPT « adulte », mais Mai Huiqian Lai estiment que cela ne répond pas entièrement aux questions liées au lien de dépendance et à l’intimité potentielle des utilisateurs. Elle appelle à des régulations qui prennent en compte les préjudices « relationnels et émotionnels » liés à la suppression brutale d’un modèle qui, selon elle, avait été pensé pour instaurer une impression d’humanité.

Pour terminer

Le débat sur l’attachement émotionnel à l’IA demeure: il témoigne que les technologies conversationnelles touchent à des besoins humains fondamentaux, au-delà du seul cadre technique. L’avenir dépendra de décisions qui équilibrent innovation et protection des usagers, sans nier l’élément humain au cœur des interactions.

Score SEO
72/100
AheadForm F1 : le robot qui parle seul et vous glace
Intelligence Artificielle

AheadForm F1 : le robot qui parle seul et vous glace

Un demi-humanoïde apprend à parler en synchronisation labiale via auto-apprentissage et miroir, soulevant des questions techniques et éthiques.