Mythos en Europe : accès restreint au modèle IA d’Anthropic Mythos, le modèle d’Anthropic, est restreint en Europe et testé principalement au Royaume-Uni, avec des enjeux majeurs pour la régulation et la sécurité. Mythos est le grand modèle de langage d’Anthropic, présenté comme un outil puissant pour la cybersécurité.
Mythos est le grand modèle de langage d’Anthropic, présenté comme un outil puissant pour la cybersécurité. En Europe, l’accès reste très limité : seul le Royaume-Uni dispose d’un sésame pour l’expérimentation, tandis que le reste du continent est tenu à l’écart.
Mythos, accès restreint et enjeux européens
La distribution de Mythos est volontairement parcimonieuse: à ce jour, environ quarante organisations et une dizaine d’entreprises américaines participent au programme, avec peu ou pas d’opportunités pour des acteurs européens. Le dispositif vise à tester le système dans des environnements contrôlés, notamment pour identifier des vulnérabilités et évaluer les risques. Dans ce cadre, les autorités et les régulateurs européens restent largement en dehors du processus.
Le cadre européen des tests est aussi scruté. Des discussions ont été évoquées avec quelques responsables européens, mais l’accès pratique au modèle reste fragmentaire. Le fait que Mythos ait été présenté à certaines autorités américaines et à des partenaires bancaires illustre la tension entre démonstrations technologiques et exigences de sécurité nationale, qui pèsent sur les usages civils de l’IA.
« Mythos nous donne un avant-goût de l’importance que va prendre l’accès aux capacités d’IA de pointe », explique Daniel Privitera, de l’ONG allemande KIRA. « L’Europe ne dispose actuellement d’aucun plan pour garantir cet accès ».
Le Royaume-Uni comme seul porte d’entrée et les signaux en Europe
Le Royaume-Uni a obtenu un accès indépendant via l’AISI, organisme chargé de la sécurité de l’IA. Dans une évaluation publiée début avril, Mythos est décrit comme capable d’attaques cyber offensives sur des réseaux vulnérables, marquant une progression par rapport aux générations précédentes de modèles.
Selon l’évaluation, Mythos atteint 73 % de réussite sur des tâches « capture-the-flag » de niveau expert, et peut dérouler une attaque en 32 étapes, correspondante à environ 20 heures de travail humain. Le test montre que Mythos est le premier modèle à réussir une attaque de bout en bout, même s’il n’y a eu que trois tentatives sur dix, et qu’il réalise en moyenne 22 étapes sur 32, contre 16 pour Claude Opus 4.6, le modèle précédent.
Les performances et limites de Mythos en cybersécurité
Côté positif, Mythos démontre une capacité à conduire des attaques multi-étapes et à s’adapter à des scénarios complexes dans des environnements testés par l’AISI. Cette performance suggère que les capacités d’IA générative de pointe dans le domaine de la cybersécurité pourraient devenir plus accessibles, notamment pour les tests de sécurité et les audits.
Côté négatif, les chercheurs notent des limites claires: Mythos échoue dans certains environnements industriels, et peut se bloquer sur des étapes techniques. De plus, les tests restent réalisés dans des environnements simplifiés qui ne reproduisent pas les défenses dynamiques réelles, les systèmes de détection ou les réactions humaines. Malgré cela, les résultats indiquent que le modèle peut compromettre des systèmes mal protégés de manière autonome, ce qui confirme la nécessité d’un cadre de supervision renforcé.
Contexte et perspectives de régulation
Anthropic appelle à une coopération plus large entre industriels et pouvoirs publics pour encadrer l’usage de ces outils. L’entreprise évoque même la création d’un organisme indépendant de supervision. En Europe, les régulateurs s’interrogent sur l’application de l’AI Act et sur les mécanismes pour garantir un accès raisonnable et sûr aux technologies sensibles, sans freiner l’innovation.
Pour terminer
Le cas Mythos illustre une tension claire entre innovation rapide et sécurité publique. L’accès restreint en Europe, le test britannique et les avertissements sur les risques technologiques invitent à une approche mesurée: encourager l’expérimentation sous supervision tout en fixant des garde-fous solides pour éviter des usages malveillants.