ESCAPE lève 15 M€ pour sécuriser le code généré par l’IA ESCAPE lève 15 M€ pour sécuriser le code généré par l’IA et automatiser les tests d’intrusion face à l’explosion des vulnérabilités IA.
La cybersécurité évolue à l’échelle de l’intelligence artificielle. L’IA accélère la production de code, mais elle fait aussi émerger de nouvelles vulnérabilités. Les surfaces d’attaque s’étendent lorsque les outils de génération de logiciels gagnent du terrain dans les équipes de développement, et les cycles de détection se raccourcissent. Dans ce cadre, ESCAPE vient de lever 15 millions d’euros pour proposer une offre destinée à automatiser les tests d’intrusion et à sécuriser les applications générées par l’IA. Les failles liées au code généré par l’IA deviennent ainsi une priorité opérationnelle pour les DSI et les équipes DevSecOps, qui doivent agir plus vite et avec plus de précision.
Le phénomène est double: d’un côté, les équipes bénéficient d’un gain de productivité grâce à des assistants de codage et à des générateurs de code basés sur des modèles, et de l’autre, les risques augmentent lorsque ces mêmes modèles introduisent des comportements inattendus, des dépendances non vérifiées et des failles potentielles dans des chaînes d’outils. Les éditeurs et les intégrateurs de sécurité tentent donc de proposer des solutions qui restent efficaces dans des environnements continuellement mis à jour et multi-langages.
Un financement qui suit la vague et ses enjeux
Le financement de 15 millions d’euros s’inscrit dans une dynamique où les entreprises cherchent des réponses concrètes pour sécuriser le développement assisté par l’IA. L’objectif est notamment de renforcer l’automatisation des contrôles de sécurité dès les premières lignes de code généré, puis tout au long du pipeline CI/CD, afin de réduire le temps entre détection et remédiation.
Concrètement, ESCAPE souhaite accélérer le développement de sa plateforme en investissant dans des moteurs d’analyse statique et dynamique adaptés au code généré par l’IA, des mécanismes de détection de vulnérabilités spécifiques à des prompts et à des modèles de génération, ainsi que des contrôles de la chaîne d’approvisionnement logicielle. Le but est d’offrir une réponse opérationnelle et scalable face à des builds qui deviennent massifs et fréquents dans les environnements modernes.
Comment ESCAPE sécurise les développements IA
La proposition d’ESCAPE repose sur une approche combinée qui couvre plusieurs volets du cycle de vie logiciel :
- Tests d’intrusion automatisés : des scénarios conçus pour scruter les failles typiques des codes générés par IA et des interfaces d’intégration, afin de révéler les vulnérabilités avant le déploiement.
- Analyse des dépendances et de l’écosystème : démonter les chaînes d’approvisionnement pour détecter les dépendances non sécurisées et les composants tiers potentiellement risqués.
- Vérification du code généré : inspection des sorties des générateurs et des prompts pour limiter les erreurs de logique, les mauvaises pratiques et les comportements inattendus.
- Monitoring du pipeline : supervision continue des tests et des résultats en CI/CD, afin d’identifier rapidement les régressions de sécurité lors des mises à jour.
Au cœur de l’offre figure la nécessité d’intégrer des contrôles de sécurité dès les premiers stades de la génération, et non pas en fin de chaîne. Cela passe par des mécanismes d’heuristiques, des règles de sécurité propres au domaine et une corrélation des résultats entre les tests statiques et dynamiques. L’objectif est clair : réduire les délais entre détection et correction et limiter les coûts associés aux vulnérabilités.
Contexte, limites et ce qu’on sait encore peu
Il est trop tôt pour croire que l’IA peut tout sécuriser d’elle-même. Les outils de génération de code restent dépendants des données d’entraînement et des prompts utilisés, ce qui peut introduire des biais et des failles spécifiques. De plus, l’efficacité des tests automatisés dépend fortement de l’intégration des outils dans les pratiques quotidiennes des développeurs et des équipes security. Les failles liées au code généré par l’IA nécessitent une combinaison d’analyses techniques et d’architectures résilientes, ainsi qu’un pilotage humain capable d’éclairer les conclusions techniques et les priorités de remédiation.
Pour terminer
Ce financement montre une adoption croissante des solutions sécurisant les chaînes de développement orientées IA. L’enjeu n’est pas seulement technique: il s’agit aussi d’inscrire la sécurité dans des pratiques de travail agiles et en constante évolution. La question qui demeure est simple et cruciale: comment les entreprises adapteront-elles leurs flux de travail pour transformer les vulnérabilités potentielles en leviers d’amélioration continue ?