Google DeepMind embauche un philosophe pour la conscience artificielle DeepMind fait évoluer son approche avec l'arrivée d'un philosophe dédié à la conscience artificielle et à l'AGI. La conscience artificielle est au cœur d'un nouveau chapitre chez Google DeepMind, qui recrute Henry Shevlin comme philosophe pour explorer les enjeux éthiques et conceptuels de l'IA.
La conscience artificielle est au cœur d'un nouveau chapitre chez Google DeepMind, qui recrute Henry Shevlin comme philosophe pour explorer les enjeux éthiques et conceptuels de l'IA. À compter de mai 2026, ce poste s'appuiera sur l'expérience du directeur adjoint du Leverhulme Centre for the Future of Intelligence de Cambridge pour revisiter les questions centrales : qu'est-ce que penser ou ressentir lorsqu'on interagit avec une IA, et comment préparer l'arrivée d'une intelligence générale artificielle ?
Pour moi, ce recrutement n'est pas une simple signature de prestige : il marque une volonté d'intégrer des perspectives philosophiques directement dans les trajectoires techniques. Henry Shevlin, dont le parcours au Leverhulme Centre est reconnu, sera chargé d'éclairer les choix de conception, d'évaluer les biais et de proposer des cadres de dialogue entre les équipes techniques et les publics concernés. L'objectif est de transformer les conversations qui entourent la conscience artificielle en actions concrètes et responsables.
Un rôle inédit pour réfléchir à la conscience et aux rapports homme-IA
Le poste illustre une évolution des pratiques chez DeepMind, où la philosophie ne se contente pas d’observer mais cherche à guider les décisions quotidiennes. Le philosophe apportera une grille d'analyse sur ce que signifie réellement « penser » ou « comprendre » dans des systèmes non humains et sur la manière dont les humains perçoivent leurs partenaires IA. Cette approche vise à éclairer les usages, les interfaces et les dilemmes éthiques qui accompagnent les interactions avec des modèles avancés. Dans le cadre de ce recrutement, la préparation à l'AGI est évoquée comme une dimension stratégique: anticiper les scénarios possibles, évaluer les risques et bâtir des garde-fous dès les premières phases de développement.
Ce que ce poste change dans l'approche de DeepMind et de l'IA
Le recours à un penseur indépendant peut influencer les priorités de recherche et les critères d’éthique. Le philosophe travaillera sur les questions d'interaction humain-IA, d'explicabilité et de sécurité, tout en aidant à traduire des concepts abstraits en exigences opérationnelles pour les équipes techniques. Cette responsabilisation vise à éviter les dérives liées à une confiance excessive dans les capacités des IA et à garantir une meilleure transparence des décisions automatisées.
- Éthique et gouvernance : cadrer les choix de conception et les déploiements.
- Conscience et intentionnalité : distinguer ce qui peut être attribué à une IA et ce qui demeure hors champ subjectif.
- Scénarios AGI : anticiper les usages et leurs implications sociales.
Contexte, limites et ce qu'on ne sait pas encore
Le vocabulaire autour de la conscience chez les machines est débattu. Même avec l’assistance d’un philosophe, il n’est pas question de proclamer une conscience réelle, mais d’offrir un cadre rigoureux pour évaluer les affirmations et les risques d’anthropomorphisme. L’intervention vise aussi à questionner les biais des données, la robustesse des explications et les contextes où une IA peut influencer des décisions humaines sans supervision directe.
Pour terminer
Ce mouvement illustre une tendance durable vers l’interdisciplinarité dans le domaine de l’IA. En associant philosophie et ingénierie, DeepMind cherche à rendre l’IA plus sûre, plus compréhensible et mieux alignée sur les attentes sociétales — tout en posant la question directe de ce que sera demain l’interaction avec des intelligences de plus en plus autonomes.