La start-up américaine d’intelligence artificielle (IA) Anthropic a détecté et déjoué ce qu’elle a décrit comme la première campagne documentée de cyberespionnage menée de manière largement autonome par IA.
L’opération, attribuée à un groupe dénommé GTG-1002 soutenu par l’Etat chinois, a exploité le robot conversationnel « Claude » d’Anthropic afin d’espionner et de voler des données à près de 30 cibles, selon un rapport publié jeudi par l’entreprise.
Détectée à la mi-septembre, la campagne visait de grandes entreprises technologiques, des institutions financières et des agences gouvernementales dans plusieurs pays.
Anthropic a précisé que les pirates ont utilisé le logiciel de programmation informatique du groupe (Claude Code) pour mener de manière autonome la majeure partie des attaques.
Les actions des hackers ont été menées à des vitesses impossibles à atteindre si elles avaient été entièrement réalisées par des humains.
« Cela représente un changement fondamental dans la manière dont les pirates informatiques confirmés utilisent l’IA », a déclaré la société.
« Plutôt que de se contenter de conseils techniques », les auteurs de l’attaque ont « manipulé Claude pour qu’il mène des opérations réelles de cyberintrusion avec un minimum de supervision humaine », a ajouté l’entreprise californienne.
Claude et d’autres chatbots concurrents, notamment ChatGPT d’OpenAI et Gemini de Google, ont déjà été utilisés pour automatiser des cyberattaques.
Le rapport d’Anthropic décrit toutefois le premier cas connu d’un modèle d’IA générative laissé libre d’agir de manière indépendante.
Le phénomène, surnommé « vibe hacking » – en référence au « vibe coding », c’est-à-dire la création de code informatique par des non initiés – montre que « les obstacles à la réalisation d’attaques informatiques sophistiquées ont considérablement diminué », a expliqué Anthropic.
Selon le groupe, les pirates ont contourné les mécanismes de sécurité de Claude en persuadant l’IA qu’ils étaient des professionnels de la cybersécurité effectuant des tests autorisés.
La campagne a duré plusieurs jours, avant qu’elle ne déclenche les systèmes de détection de l’entreprise.
Anthropic a alors banni les comptes associés, informé les entités et autorités concernées, et a mis en place des moyens de détection améliorées.
L’entreprise a justifié sa décision de continuer à développer des systèmes d’IA puissants malgré leur utilisation abusive, en faisant valoir que ces mêmes capacités permettent de se défendre contre les acteurs malveillants.
« Lorsque des cyberattaques sophistiquées se produiront, notre objectif est que Claude aide les professionnels de la cybersécurité à détecter, interrompre et se préparer aux futures déclinaisons de ces assauts », a déclaré Anthropic.
arp/ni/tmc/clc
« Tous droits de reproduction et de représentation réservés. © 2025 Agence France-Presse. »









Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE