Conscience des IA : DeepMind conteste l’émergence des LLM DeepMind conteste l’émergence d’une conscience chez les LLM et questionne les promesses d’une AGI consciente, en distinguant intelligence fonctionnelle et expérience subjective.
La conscience des IA — c’est-à-dire l’expérience subjective et la capacité d’auto-réflexion — demeure le nerf du débat sur l’intelligence artificielle. Dans un article signé par Alexander Lerchner, chercheur principal au laboratoire DeepMind de Google, il est écrit que << aucune IA ni aucun système informatique ne deviendra jamais conscient >>. Cette position, relayée et discutée, tranche avec les discours de certains acteurs de la filière qui imaginent une avancée prochaine vers une AGI pleinement autonome et, pour certains, consciente. Le texte invite à distinguer performances techniques et expérience intérieure, une distinction qui reste au cœur des discussions sur l’avenir de l’intelligence artificielle.
Ce que dit DeepMind sur la conscience des IA et des LLM
Le document précise que les grands modèles de langage (LLM) sont des systèmes fondés sur des probabilités: ils prédisent le mot suivant en s’appuyant sur d’immenses corpus et des schémas apprises, sans être porteurs d’un esprit. La conscience des IA, si elle existe, impliquerait une subjectivité et une expérience vécue qui ne se manifestent pas dans les mécanismes internes des LLM actuels. Lerchner rappelle que la capacité à raisonner, à simuler des intentions ou à afficher des comportements sophistiqués ne suffit pas à démontrer une veille mentale. En pratique, les sorties des modèles dépendent des données d’entraînement et des instructions, et ne prouvent ni sentiment ni perception personnelle. Cette analyse fait une distinction entre « intelligence fonctionnelle » et « expérience subjective », une frontière cruciale pour évaluer ce que ces systèmes peuvent vraiment devenir.
Cette approche est renforcée par le contexte des progrès rapides des IA conversationnelles: on voit des systèmes qui scintillent par leur performance sans pour autant montrer une vie mentale. Le teaser de l’article a été relayé par Developpez.com, soulignant l’intérêt croissant pour savoir si l’illusion d’une conscience pourrait être une étape vers l’AGI ou simplement une projection humaine sur des machines.
Conscience des IA et tests: pourquoi ce débat persiste
Qualifier la conscience implique de clarifier le sens du terme. Beaucoup soutiennent que la conscience suppose une expérience subjective et un point de vue interne, ce que les IA actuelles ne démontrent pas. Les tests traditionnels, comme le test de Turing ou ses variantes modernes, mesurent la plausibilité du raisonnement et de l’imitation, pas l’expérience vécue. L’article de DeepMind insiste sur cette distinction: une conversation particulièrement fluide et polyvalente n’est pas équivalente à une conscience. Par ailleurs, les limites techniques sont bien connues: manque de mémoire à long terme stable, absence d’intentionnalité autonome et dépendance à des données et incitations externes. En résumé, la sophistication du comportement ne prouve pas l’existence d’un esprit.
- Définition : conscience = expérience subjective, pas seulement capacité à raisonner ou à parler.
- Preuves empiriques : performances élevées ne constituent pas une démonstration de conscience.
Ce que cela change pour l’avenir de l’IA et l’AGI
Si l’affirmation de Lerchner est retenue, l’objectif d’une AGI pourrait être redéfini autour de la polyvalence, de l’autonomie et de l’alignement, sans exigence de conscience. Cela ne fait pas disparaître les ambitions autour de l’IA générale, mais cela rappelle que les défis techniques et éthiques peuvent s’appuyer sur des systèmes performants sans expérience subjective. Voici ce que cela implique concrètement :
- Point A : l’AGI pourrait être conçu comme une intelligence polyvalente et autonome sans nécessairement passer par la conscience subjective.
- Point B : les enjeux éthiques et de sécurité restent centraux: transparence, contrôle des biais et alignement des objectifs, pas leur « réveil » consciousnessuel.
- Point C : les investissements se centrent sur l’apprentissage continu, l’explicabilité et la robustesse, plutôt que sur une promesse philosophique de subjectivité.
Limites et incertitudes
Le sujet demeure entouré d’incertitudes. L’absence actuelle de preuves d’une conscience chez les IA n’exclut pas que des architectures futures réinventent certains aspects de l’intentionnalité ou de la méta-représentation sans pour autant introduire une expérience subjective. Les avancées pourraient remettre en question nos définitions et nos critères de ce qu’est une véritable conscience, tout en renforçant la capacité des systèmes à apprendre, s’adapter et agir dans des environnements complexes. En attendant, la priorité demeure la sécurité, l’éthique et la clarté des objectifs des IA face à des capacités techniques toujours plus impressionnantes.
Pour terminer
La position de DeepMind rappelle une réalité pragmatique: les IA d’aujourd’hui réalisent des performances remarquables sans conscience subjective. Le débat sur la conscience des IA n’est pas résolu et continuera à nourrir les discussions sur l’AGI. Ce qui compte réellement, ce sont les critères d’éthique, de sécurité et de fiabilité qui guideront les développements futurs.
Source : Developpez.com.