Infostealers imitant Claude Code ciblent les développeurs IA Kaspersky dévoile une campagne où des infostealers imitent Claude Code et d’autres outils IA pour viser les développeurs. Les chercheurs de Kaspersky ont identifié en mars 2026 une campagne malveillante qui cible les développeurs désireux d’installer Claude Code, l’agent d’IA d’Anthropic.
Les chercheurs de Kaspersky ont identifié en mars 2026 une campagne malveillante qui cible les développeurs désireux d’installer Claude Code, l’agent d’IA d’Anthropic. Le levier utilisé est simple et sournois: des résultats sponsorisés trompeurs apparaissent en tête des recherches pour le terme « Claude Code download ». À chaque clic, l’utilisateur peut être redirigé vers une page qui se fait passer pour une source légitime, mais qui livre en réalité un infostealer. Je remarque que ce mode opératoire joue habilement sur un réflexe fréquent chez les développeurs : vérifier rapidement les premiers liens affichés et accorder peu de regard au contexte publicitaire. Cette approche n’est pas nouvelle, mais elle illustre une fois de plus comment les campagnes malveillantes s’appuient sur l’écosystème même des outils IA pour se propager.
Selon Kaspersky, la cible est clairsemée et précise: des développeurs qui cherchent à obtenir des versions ou des accès à Claude Code et à des outils similaires pour le développement IA. Le malware n’est pas une “porte dérobée” isolée: il s’agit d’un infostealer conçu pour s’emparer d’identifiants et de jetons permettant d’accéder à des dépôts privés, des clouds publics et d’autres environnements de développement. En pratique, l’objectif est de rassembler des accès qui faciliteront ultérieurement des exfiltrations de données, voire l’utilisation des comptes compromis pour diffuser d’autres charge utile.
Le mécanisme d’infection repose sur une combinaison de vecteurs d’attaque. D’un côté, les pages de téléchargement se présentent comme des sources officielles ou proches d’outils IA connus. De l’autre, les escrocs misent sur le référencement et les publicités sponsorisées pour placer leur page au sommet des résultats, puis incitent les développeurs à lancer un “installateur” qui est en réalité le composant malveillant. Cette approche s’appuie autant sur l’ingénierie sociale que sur des failles techniques simples: l’utilisateur est amené à autoriser des fenêtres d’installation, à accepter des modules complémentaires ou à transférer des clés et tokens sensibles sans réelle mise en garde.
Comment ces infostealers opèrent et ce qu’ils volent
Une fois l’installation lancée, le malware prend des chemins d’exfiltration standards pour ce type d’acteurs. Il collecte notamment:
- Identifiants et jetons utilisés par les développeurs sur des plateformes de code et de cloud (GitHub, GitLab, AWS, Azure, Google Cloud, etc.).
- Informations d’identification stockées localement (mots de passe, cookies de navigateur, sessions), souvent exploitées pour accéder à des environnements privés.
- Informations système et de configuration (OS, nom d’utilisateur, version d’outils, options de débogage), utiles pour adapter la prochaine livraison malveillante ou contourner des contrôles.
- Éléments sensibles liés au code (clés API, tokens d’accès, clés SSH) pouvant ouvrir des portes vers des dépôts et des serveurs.
Le périmètre de la collecte peut aussi s’étendre aux données du navigateur et aux traces d’activités locales, et l’ensemble peut être transmis à un serveur distant de commande et contrôle. Dans ce cadre, les auteurs ne cherchent pas uniquement à dérober des données: ils visent à maintenir un accès durable et à préparer des campagnes ultérieures en utilisant les identifiants compromis pour déployer d’autres malwares ou ransomware, ou pour exfiltrer des données sensibles sur le long terme.
Ce que cela dit sur les risques pour les développeurs et les bonnes pratiques
Ce type d’attaque met en évidence une réalité simple mais souvent négligée: les outils IA populaires deviennent des cibles privilégiées pour les criminels. Le fait que les campagnes s’appuient sur des faux téléchargements et des résultats sponsorisés montre que l’ingénierie sociale reste l’un des vecteurs les plus efficaces contre les développeurs. Cela ne remet pas en cause l’utilité des technologies IA, mais cela rappelle que la sécurité doit être intégrée au processus d’adoption de ces outils.
Pour se protéger, quelques réflexes restent efficaces:
- Toujours télécharger directement depuis les sites officiels ou les canaux vérifiés des éditeurs et vérifier l’URL du domaine, l’application de signatures et le certificat SSL.
- Éviter de se fier uniquement aux résultats sponsorisés dans les moteurs de recherche; privilégier une vérification indépendante des sources.
- Utiliser des gestionnaires de mots de passe et activer l’authentification multifactorielle sur les comptes sensibles.
- Limiter les permissions et l’accès des jetons stockés localement; ne pas les dupliquer dans des environnements publics ou partagés.
- Mettre en place des contrôles d’intégrité et des sauvegardes régulières des dépôts et des environnements de développement.
Contexte et limites
Cette campagne rappelle une dure réalité: les dépendances et les outils externes font partie intégrante du cycle de développement IA, mais ils peuvent devenir des failles d’entrée. Les acteurs malveillants exploitent la curiosité des développeurs et les habitudes liées à la recherche d’outils IA. Si certains détails techniques restent à éclaircir (par exemple l’évolution exacte des familles d’infostealers utilisées dans cette campagne), le schéma général est clair: tromperie via des pages de téléchargement et vol ciblé de données d’accès.
Pour terminer
Le message est simple: dans l’écosystème IA, la vigilance ne peut pas être optionnelle. Les développeurs doivent vérifier chaque téléchargement, limiter les accès et surveiller les comportements anormaux des outils qu’ils utilisent. Les chercheurs de sécurité, quant à eux, devront continuer à documenter ces campagnes et à rappeler que l’avenir des outils IA passe aussi par une sécurité renforcée dès le départ.