L’IA aide les équipes de sécurité à agir plus rapidement, mais elle aide également les attaquants à faire de même, transformant la cybersécurité en une course de machines contre machines.
Au cours de ma longue carrière dans la protection des actifs numériques, j’ai vu des changements technologiques aller et venir, mais rien n’est comparable à la force perturbatrice de l’IA et des grands modèles de langage (LLM). L’IA est littéralement une arme à double tranchant en matière de cybersécurité. Les mêmes capacités qui nous permettent d’automatiser la détection des menaces et d’écrire du code sécurisé plus rapidement sont utilisées par les adversaires pour créer une nouvelle génération de cybermenaces. Pour tout RSSI ou responsable de la sécurité, notre objectif principal doit changer ; nous ne combattons plus seulement des adversaires humains, nous combattons des agents de menace automatisés et augmentés par l’IA.
Le bord offensif
Nous assistons à une réduction drastique des coûts et de l’expertise nécessaire à la cybercriminalité. Ce qui prenait autrefois des semaines à un humain qualifié peut désormais être orchestré par un agent d’IA en quelques heures, entraînant ce que nous appelons l’inflation des cybermenaces.
Malwares évasifs et auto-modifiables
Plus récemment, les chercheurs du Google Threat Intelligence Group (GTIG) ont identifié une nouvelle tendance inquiétante : les logiciels malveillants qui utilisent des LLM lors de leur exécution pour modifier dynamiquement leur propre comportement et échapper à la détection. Ce n’est pas du code pré-généré, c’est du code qui s’adapte en cours d’exécution.
En juin 2025, GTIG a identifié un malware expérimental appelé PROMPTFLUX, qui se connecte à une API LLM commerciale (telle que l’API Gemini) pour demander à la volée de nouveaux scripts d’obscurcissement et d’évasion de code. Cette technique, qui permet de générer du code juste à temps, représente une étape significative vers des logiciels malveillants autonomes et adaptatifs.
Dans un autre cas, GTIG a identifié PROMPTSTEAL, qui était utilisé par le groupe APT28 lié à la Russie contre l’Ukraine. Ce malware interroge un LLM (le modèle Qwen2.5-Coder sur Hugging Face) pour générer des commandes de reconnaissance au lieu de les coder en dur.
Certaines analyses prévoient que le pourcentage de toutes les détections de logiciels malveillants avec une contribution LLM est passé de seulement 2 % en 2021 à 50 % prévu d’ici 2025.
La première campagne d’espionnage autonome
Anthropic a récemment révélé une opération de cyberespionnage très sophistiquée, attribuée à un acteur menaçant parrainé par un État, qui a exploité son propre modèle de code Claude pour cibler environ 30 organisations dans le monde, y compris de grandes institutions financières et agences gouvernementales.
L’acteur malveillant a manipulé le modèle pour qu’il fonctionne comme un agent de cyberattaque autonome, qui a exécuté 80 à 90 % des opérations tactiques, depuis la reconnaissance et la découverte de vulnérabilités jusqu’à la collecte d’informations d’identification et l’exfiltration de données.
L’opérateur humain n’est intervenu qu’à des points critiques, par exemple en autorisant la progression de la reconnaissance à l’exploitation active. L’IA a cartographié les réseaux de manière autonome, découvert des vulnérabilités et effectué des activités post-exploitation à la vitesse d’une machine, un rythme sans précédent que les défenses traditionnelles à vitesse humaine ne peuvent égaler.
Fraude financière basée sur les deepfakes
D’un autre côté, l’IA générative a amplifié l’ingénierie sociale grâce à des deepfakes hyperréalistes. Les escroqueries basées sur les deepfakes ont explosé, permettant des contrefaçons de voix et de vidéo qui trompent même les professionnels chevronnés. Un exemple dramatique s’est produit lorsqu’un cadre de Ferrari a été presque trompé par un deepfake cloné par la voix du PDG.
Plus récemment encore, un employé d’une entreprise mondiale de design a été trompé par un appel vidéo généré par l’IA se faisant passer pour le directeur financier et d’autres dirigeants de l’entreprise, ce qui a entraîné une perte de 25 millions de dollars transférée aux fraudeurs.
L’avantage défensif
Si les adversaires opèrent à la vitesse de l’IA, nos défenses doivent également le faire. Le côté positif de cette dynamique à double usage est que les LLM les plus puissants sont également exploités par les défenseurs pour créer des capacités de sécurité fondamentalement nouvelles.
Détection de vulnérabilités : du zero-day au pentesting autonome
La compréhension du code sémantique et le raisonnement contextuel des LLM offrent un avantage significatif par rapport aux analyseurs statiques traditionnels basés sur des signatures, en particulier dans la découverte de menaces inconnues avant que des acteurs malveillants ne les trouvent et ne les exploitent.
Les LLM ont montré un potentiel extraordinaire pour identifier les failles inconnues et non corrigées (zéro jour). Ces modèles surpassent considérablement les analyseurs statiques conventionnels, notamment en découvrant des défauts logiques subtils et des débordements de tampon dans les nouveaux logiciels. Par exemple, le projet Big Sleep de Google a utilisé un LLM pour identifier une vulnérabilité Zero Day dans la base de données SQLite critique utilisée dans l’ensemble du secteur.
Un autre exemple est XBOW, qui est un agent de test d’intrusion autonome qui exploite les LLM pour simuler des attaques réelles de la même manière qu’un homologue humain le ferait. XBOW a atteint la première place du classement HackerOne américain, démontrant que l’IA peut égaler et, dans certains benchmarks, surpasser les hackers humains experts dans la recherche d’un large éventail de vulnérabilités (par exemple, failles d’injection, XSS).
En déployant des agents d’IA comme XBOW sur nos propres systèmes, nous pouvons tester systématiquement chaque point de terminaison et vecteur d’attaque. Cela fait passer les tests de sécurité éthiques offensifs d’un audit périodique à un flux de travail de pré-production à la demande.
D’autre part, DeepMind de Google a mis au point un agent basé sur l’IA appelé CodeMender qui détecte, corrige et réécrit automatiquement le code vulnérable pour éliminer des classes entières de failles de sécurité. Cette approche réactive et proactive représente une avancée majeure dans l’automatisation défensive.
Chasse aux menaces et analyse comportementale
Les LLM transforment la chasse aux menaces d’une recherche manuelle basée sur des mots clés en un processus de requête intelligent et contextuel qui se concentre sur les anomalies comportementales. En traitant et en corrélant des ensembles de données massifs et non structurés tels que les journaux réseau, les rapports d’incidents de sécurité et les flux de renseignements sur les menaces (OSINT), les LLM acquièrent la compréhension contextuelle nécessaire pour générer des hypothèses fiables sur les menaces potentielles.
Par exemple, Google Threat Intelligence avec Gemini améliore ce processus en fournissant une base contextuelle essentielle avec des données provenant de plusieurs sources comme VirusTotal et Mandiant pour déterminer, en temps réel, quelles tactiques, techniques et procédures (TTP) des acteurs de la menace mondiale sont les plus pertinentes pour un secteur ou une organisation particulière et prioriser ce qui est le plus important parmi des dizaines de milliers de rapports.
De plus, l’AIP (Artificial Intelligence Platform) de Palantir utilise les LLM pour analyser le comportement anormal des utilisateurs ou des systèmes dans de vastes lacs de données, identifie des indicateurs subtils de compromission qui couvrent différents systèmes et suggère une voie d’attaque prioritaire que l’analyste humain doit étudier.
Gouvernance, conformité et réglementation
Les LLM offrent également une solution évolutive approfondie pour gérer les risques non techniques de conformité, de confidentialité et de complexité réglementaire, qui représentent une responsabilité financière et juridique importante. Les LLM peuvent être exploités pour faire passer la gouvernance des audits périodiques à l’application continue des politiques.
Par exemple, le Compliance Manager de Microsoft peut ingérer et comprendre de grandes quantités de données non structurées, telles que des politiques de sécurité internes, des contrats juridiques et des textes réglementaires externes comme le RGPD ou la loi européenne sur l’IA. Il mappe ensuite automatiquement les exigences d’un cadre à un autre, réduisant ainsi considérablement l’effort manuel nécessaire pour prouver la conformité lors d’un audit.
Watsonx d’IBM applique les fonctionnalités LLM pour la conformité et la gestion des risques. Pour une société de services financiers, cela peut signifier que le modèle analyse en permanence le nouveau code d’application de trading pour vérifier que toutes les manipulations de données sont conformes à HIPAA ou PCI DSS avant le déploiement, signalant automatiquement tout écart par rapport à la politique établie.
Rassembler tout cela
Alors que les systèmes d’IA continuent de passer de modèles génératifs à des agents autonomes, leur nature à double usage ne peut être ignorée. Les mêmes outils qui aident les défenseurs à accélérer la réponse aux incidents peuvent également permettre aux attaquants de créer des deepfakes, de lancer des campagnes d’ingénierie sociale et bien plus encore. Cette tension n’est pas un sous-produit temporaire de l’innovation, mais c’est une réalité structurelle de l’évolution rapide de l’IA.
En fin de compte, le défi n’est pas d’arrêter les progrès de l’IA mais de les guider de manière responsable. Cela signifie intégrer des garde-fous dans les modèles, améliorer la transparence et développer des cadres de gouvernance qui suivent le rythme des capacités émergentes. Cela oblige également les organisations à repenser leurs stratégies de sécurité, en reconnaissant que l’IA est à la fois une opportunité et un multiplicateur de risques.
En fin de compte, l’impact de l’IA sur la cybersécurité dépendra non seulement de ce que ces systèmes peuvent faire, mais aussi de la manière dont nous choisissons de les utiliser. L’avenir appartiendra à ceux qui sauront exploiter la puissance défensive de l’IA tout en restant vigilants face à son potentiel offensif.
Cet article est publié dans le cadre du Foundry Expert Contributor Network.
Voulez-vous nous rejoindre ?



