Le rapport des chercheurs de la société d’IA sur une campagne de cyberespionnage à grande échelle prétendument largement contrôlée par un système d’IA laisse planer des doutes sur les experts en sécurité.
La société d’IA Anthropic a récemment annoncé que des entreprises du monde entier avaient été attaquées par une campagne de cyberespionnage basée sur l’IA. Il s’agirait du premier cas publiquement documenté de cyberattaque menée par un modèle d’IA.
Selon le rapport de recherche, environ 30 organisations dans le monde ont été touchées par ces attaques. Il s’agissait notamment de grandes entreprises technologiques, d’institutions financières, d’entreprises chimiques et d’agences gouvernementales. L’attaque a été découverte à la mi-septembre 2025. Le groupe de hackers GTG-1002, lié à la Chine, serait à l’origine de cette campagne d’attaque.
Les attaquants auraient manipulé l’outil de programmation d’IA d’Anthropic, Claude Code, pour lancer des tentatives d’infiltration largement autonomes, selon le rapport d’Anthropic.
La communauté de la sécurité réagit
Cependant, les experts en sécurité ont des doutes quant à l’autonomie réelle de ces attaques. Le chercheur en cybersécurité Daniel Card a plaisanté dans un post X : « Ce truc d’Anthropic est une blague marketing. »
Par ailleurs, l’expert en sécurité informatique Kevin Beaumont a critiqué sur la plateforme Mastodon qu’Anthropic n’avait publié aucun indicateur de compromission (IoC) des attaques.
« Je continue de refuser de croire que les attaquants soient capables d’une manière ou d’une autre de faire franchir à ces modèles des obstacles que personne d’autre ne peut faire », a déclaré Dan Tentler, fondateur du groupe Phobos, à Ars Technica. « Pourquoi les mannequins donnent-ils à ces attaquants ce qu’ils veulent 90 % du temps alors que le reste d’entre nous doit faire face à des baisers de cul, à des blocages et à des trips à l’acide ? »
Cependant, ce n’est pas la première fois qu’Anthropic rapporte un tel cas. En août 2025, la société a affirmé que son outil de développement basé sur l’IA, Claude Code, avait déjà été utilisé à mauvais escient pour des cyberattaques autonomes.



