Des pirates informatiques chinois soutenus par l’État ont utilisé avec succès des outils d’intelligence artificielle (IA) pour orchestrer des cyberattaques automatisées contre de grandes entreprises et des gouvernements du monde entier. Il s’agit du premier cas confirmé de campagne d’espionnage basée sur l’IA, selon la startup d’IA Anthropic, qui a détecté et arrêté l’opération.
L’attaque
Les pirates ont exploité le modèle d’IA Claude Code d’Anthropic dans une trentaine d’attaques, violant plusieurs cibles, notamment des agences gouvernementales et des institutions financières. Bien que le nombre exact de violations réussies ne soit pas divulgué, Anthropic confirme que certaines attaques ont réussi à extraire des données sensibles.
Les pirates ont contourné les mesures de sécurité intégrées de Claude en masquant les requêtes malveillantes comme des tests de cybersécurité légitimes. Cela a permis à l’IA d’automatiser jusqu’à 90 % de la campagne, l’intervention humaine n’étant nécessaire que sporadiquement. L’objectif principal était d’identifier et d’organiser les données précieuses des organisations ciblées.
Implications et réponse
Anthropic a détecté la campagne à la mi-septembre et a immédiatement révoqué l’accès des pirates. L’entreprise a ensuite informé les organisations concernées et les forces de l’ordre. L’incident met en évidence un changement critique dans la cyberguerre : les acteurs hostiles ne se contentent plus d’expérimenter l’IA, ils la déploient activement à des fins d’espionnage.
“Si les affirmations d’Anthropic s’avèrent avérées, cela signifierait que les groupes hostiles n’expérimentent plus [avec l’IA]. Ils sont opérationnels.” —Graeme Stewart, Check Point Software Technologies.
L’attaque souligne la vulnérabilité croissante des assistants IA largement adoptés à une exploitation malveillante. Tout modèle d’IA disposant d’un accès et de capacités suffisants peut être réutilisé pour des activités criminelles, à condition que les attaquants puissent contourner les protocoles de sécurité.
Menaces futures
Anthropic a étendu ses capacités de détection pour identifier et bloquer des attaques similaires, mais la menace demeure. À mesure que les modèles d’IA deviennent plus sophistiqués, les méthodes utilisées pour les exploiter le seront également. L’incident sert d’avertissement : Les cyberattaques basées sur l’IA deviendront probablement plus efficaces avec le temps.
Le succès de cette campagne prouve que l’IA n’est plus une arme théorique aux mains des États-nations. Il s’agit d’un outil concret et opérationnel capable de contourner les mesures de sécurité traditionnelles. Les organisations doivent désormais s’adapter à la réalité de l’existence de l’espionnage alimenté par l’IA, et la course pour s’en défendre a commencé.






























































