Pentagone: Maven confie le ciblage à Palantir et Claude Le Pentagone officialise Maven et confie le ciblage à Palantir, tout en s’appuyant sur Claude d’Anthropic malgré son bannissement. Le Pentagone officialise Maven, le système de ciblage développé par Palantir, dans ce que des analystes désignent comme le « Pentagone Maven Palantir ».
Le Pentagone officialise Maven, le système de ciblage développé par Palantir, dans ce que des analystes désignent comme le « Pentagone Maven Palantir ». Le dispositif délègue une partie du processus de désignation des cibles à l’intelligence artificielle, tout en s’appuyant encore largement sur Claude, l’IA d’Anthropic qui a récemment été bannie dans certains contextes. Le 9 mars 2026, Steve Feinberg, secrétaire américain adjoint à la Défense, a signé une lettre officialisant Maven et sa place au sein du dispositif de défense — une étape majeure dans l’intégration de l’IA dans les opérations militaires.
Une formalisation du programme Maven
Ce mouvement transforme Maven d’un outil largement expérimental en une composante opérationnelle du dispositif militaire américain. Conçu comme une aide à la décision et à l’identification des cibles, Maven s’appuie sur les capacités de traitement des données et d’analyse de Palantir pour traiter d’importantes masses d’informations hétérogènes et produire des priorisations potentielles. L’officialisation du programme signifie que Maven bénéficiera d’un cadre de gouvernance plus clair, de critères d’évaluation et d’un financement récurrent, ce qui facilite son déploiement sur les théâtres d’opération tout en restant sous contrôle humain.
Dans ce contexte, l’armée américaine cherche à concilier rapidité d’action et responsabilité opérationnelle. L’objectif affiché est d’améliorer la précision des décisions tout en maintenant des garde-fous humains afin d’éviter des erreurs fatales et des biais potentiels dans les analyses automatisées.
Deux flux d’IA dans Maven : Palantir et Claude
La dynamique interne de Maven repose sur deux flux d’IA qui coexistent, avec Palantir comme moteur principal et Claude comme composant encore engagé dans certaines tâches d’analyse et de raisonnement. Palantir apporte l’infrastructure nécessaire à l’ingestion, la corrélation et la priorisation des données, ouvrant la voie à une automatisation plus fine des étapes préalables au ciblage. Claude, IA d’Anthropic, est censé faciliter l’interprétation des informations et la vérification des hypothèses formulées par les équipes humaines. Or, Claude a été récemment interdit dans certains usages, ce qui oblige les responsables à réévaluer les risques et les alternatives technologiques disponibles dans le cadre du programme Maven.
- Intégration des données : Maven croise des sources internes et externes pour générer des ordres de priorité, avec une traçabilité des décisions.
- Contrôles humains : les opérateurs restent au cœur de la chaîne décisionnelle, avec des mécanismes de vérification avant toute action.
- Audit et sécurité : des protocoles de sécurité et des audits sont prévus pour limiter les biais et les erreurs potentielles.
Contexte, limites et questions en suspens
La convergence entre puissance opérationnelle et cadre éthique est au centre des débats. L’utilisation de l’IA dans le ciblage soulève des questions sur la fiabilité des algorithmes, les risques de biais et les conséquences humaines en cas d’erreur. Même avec une supervision humaine, des fautes d’interprétation ou des biais dans les données peuvent conduire à des résultats problématiques. Les autorités restent prudentes sur la transparence des critères de désignation et sur les procédures de contrôle, tout en insistant sur le besoin d’un cadre clair qui protège à la fois les soldats et les civils.
Pour terminer
Cette évolution montre que le Pentagone poursuit son intégration opérationnelle de l’IA, tout en cherchant à instaurer des garde-fous et des mécanismes de gouvernance solides. L’avenir du ciblage assisté par l’IA dépendra de la capacité des institutions à instaurer des normes robustes, des audits indépendants et une transparence suffisante — afin d’éviter les abus tout en conservant l’efficacité opérationnelle nécessaire.