Appuyez sur ÉCHAP pour fermer

Intelligence Artificielle
3 min de lecture

Washington veut tester l’IA avant tout le monde

Partager :

Washington veut tester l’IA avant tout le monde Les États-Unis veulent un accès anticipé aux modèles d’IA pour évaluer les risques de sécurité nationale avant tout déploiement public, via le CAISI et des partenariats privés.

Washington veut tester l’intelligence artificielle avant tout le monde afin d’évaluer les risques pour la sécurité nationale avant une diffusion plus large. Les autorités savent que découvrir les capacités d’une IA en même temps que le grand public et les hackers serait risqué; d’où l’objectif d’un « test préalable » encadré par des instances publiques et privées.

Le cadre de l'intelligence artificielle et le rôle du CAISI

Le cadre institutionnel est assuré par le Center for AI Standards and Innovation (CAISI), chargé de tester l’intelligence artificielle avant tout déploiement public. Créé sous l’administration Biden, il est ensuite rebaptisé CAISI par le gouvernement Trump et conserve les mêmes fonctions: évaluer les risques et fixer des standards de sécurité pour les modèles d’IA.

Le CAISI avait déjà signé des accords avec OpenAI et Anthropic et va désormais bénéficier d’un accès anticipé aux modèles de frontière issus de Microsoft, Google et xAI. L’objectif est de mesurer leurs capacités dans des scénarios hostiles, sans les gardes-fous habituels, afin d’identifier les points de vigilance et les limites techniques avant une diffusion élargie.

Avant ce changement de nom et de mission, le CAISI se concentrait surtout sur le développement de standards de tests de sécurité. Sa mission s’est étendue: elle évalue désormais les risques stratégiques et militaires des modèles d’IA. À ce jour, il a réalisé une quarantaine d’évaluations sur des modèles qui ne sont pas encore déployés publiquement et peut comptabiliser des retours pour affiner les méthodes de test.

Ce que cela change pour la sécurité et le déploiement de l'intelligence artificielle

  • Accès anticipé : les autorités et leurs partenaires peuvent évaluer les risques avant diffusion publique et tester la robustesse face à des scénarios hostiles.
  • Partenariats stratégiques : CAISI a des accords avec des chercheurs et des entreprises, et signe des ententes avec Microsoft, Google et xAI; ces acteurs permettent un accès « frontier » à leurs modèles, sous supervision.
  • Limitations et déploiement : Mythos d’Anthropic est présenté comme le modèle le plus puissant testé à ce stade; son usage reste restreint à une cinquantaine d’organisations et d’entreprises, et Anthropic est exclu du lot, même si Mythos pourrait être utilisé dans certains contextes.

Contexte et limites de la coopération IA

Parallèlement, le Pentagone a annoncé un accord avec plusieurs fournisseurs d’IA pour exploiter leurs modèles dans des missions de sécurité et de défense. Cet effort vise à tester l’efficacité des systèmes d’IA dans des environnements sensibles. Anthropic est exclu de ces accords, mais Mythos pourrait tout de même trouver des usages dans des cadres spécifiques, sous strict contrôle.

Pour terminer

Cette coopération entre le secteur public et les acteurs privés illustre une approche proactive pour maîtriser les risques de l’IA, tout en suscitant des questions sur l’équilibre entre sécurité et innovation. Comment garantir des évaluations rigoureuses sans freiner le progrès ?

Score SEO
72/100