Appuyez sur ÉCHAP pour fermer

Intelligence Artificielle
4 min de lecture 15 Vues

OpenAI et le Pentagone : revers après le contrat DoD

Partager :

OpenAI et le Pentagone : revers après le contrat DoD OpenAI tente de se rattraper après un contrat DoD controversé, avec des utilisateurs qui désertent et une réponse critique d’Anthropic.

OpenAI contrat DoD : l'annonce d'un accord avec le Département de la Défense des États-Unis a déclenché un tollé et mis en lumière les tensions entre croissance commerciale et responsabilité. Sam Altman a reconnu que l'annonce paraissait opportuniste et bâclée.

Un accord controversé et ses premiers effets

Alors qu’Anthropic refusait les pressions du Pentagone pour autoriser l’usage libre de Claude, OpenAI a signé le lendemain un contrat avec le DoD. Si l'argent rentrait, l'impact public ne se limitait pas à un simple gain financier: les réactions se sont organisées autour d’une hésitation générale face à une collaboration jugée précipitée et problématique.

Selon Sensor Tower relayé par TechCrunch, trois fois plus d’utilisateurs américains ont désinstallé ChatGPT le samedi 28 février, et les téléchargements de l’application ont reculé. Par ailleurs, Claude d’Anthropic a connu une hausse des téléchargements, devenant l’application la plus téléchargée de l’App Store américain à ce moment-là. L’éditeur Claude a aussi annoncé l’ouverture à tous des imports de données contextuelles, une fonctionnalité qui attire les utilisateurs de ChatGPT.

Ce que dit OpenAI et ce que cela change

Dans un message interne relayé par Axios puis publié par Sam Altman sur X, le PDG admet que le contrat a été signé trop vite et « paraissait opportuniste et bâclé ». Il ajoute qu’ils n’auraient pas dû publier l’accord vendredi et qu’ils travaillent à le corriger.

« Une chose que je pense avoir mal faite : nous n’aurions pas dû nous précipiter pour publier cela vendredi »

OpenAI indique que le contrat est en cours d’amendement pour intégrer clairement les lois qui interdisent la surveillance domestique, avec une formulation selon laquelle « le système d’IA ne doit pas être utilisé intentionnellement à des fins de surveillance nationale des personnes et des ressortissants américains ».

  • Version révisée du contrat : dispositions visant à limiter la surveillance domestique et à clarifier les obligations des deux parties.
  • Position sur les armes autonomes : absence d’engagement clair, mais promesse de travailler lentement avec le DoD pour évaluer les risques et mettre en place des protections techniques.

Contexte et limites

Des voix internes à OpenAI se sont également fait entendre, le Financial Times rapportant des inquiétudes exprimées par des employés. Dans les locaux de San Francisco, des messages appelant à « NON À LA SURVEILLANCE DE MASSE » ont été affichés, témoignant d’un malaise palpable.

Le New York Times précise que les tensions autour des négociations avec Anthropic ont pesé dans l’échec éventuel des discussions avec le DoD, citant des frictions entre Emil Michael, CTO du côté administration, et Dario Amodei,CEO d’Anthropic. L’exécutif d’Anthropic aurait refusé une réunion pour des raisons de forme et de timing.

Après une injonction de Donald Trump pour rompre avec Anthropic, la société a annoncé qu’elle irait en justice, arguant que la décision du DoD et les propos du président ne doivent pas justifier une rupture générale et que l’entreprise est un « risque pour la chaîne d’approvisionnement » — une qualification rarement utilisée contre une entreprise américaine.

« Les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech »

Pour terminer

Cette affaire met en lumière les tensions entre ambition commerciale et cadre éthique dans l’IA. Le dossier est loin d’être clos: il faudra suivre les évolutions des cadres contractuels avec le secteur public et l’impact sur l’image des acteurs privés face à la question de la surveillance et de l’autonomie des systèmes.

Score SEO
78/100
Les datasets, un actif stratégique dans l’IA
Intelligence Artificielle

Les datasets, un actif stratégique dans l’IA

Les jeux de données deviennent des actifs stratégiques dans l’IA, notamment par la qualité, la gouvernance et les partenariats qui assurent leur valeur durable.