Les 2 visages de l’IA : comment les modèles émergents renforcent et mettent en danger la cybersécurité

Lucas Morel

L’IA aide les équipes de sécurité à agir plus rapidement, mais elle aide également les attaquants à faire de même, transformant la cybersécurité en une course de machines contre machines.

Au cours de ma longue carrière dans la protection des actifs numériques, j’ai vu des changements technologiques aller et venir, mais rien n’est comparable à la force perturbatrice de l’IA et des grands modèles de langage (LLM). L’IA est littéralement une arme à double tranchant en matière de cybersécurité. Les mêmes capacités qui nous permettent d’automatiser la détection des menaces et d’écrire du code sécurisé plus rapidement sont utilisées par les adversaires pour créer une nouvelle génération de cybermenaces. Pour tout RSSI ou responsable de la sécurité, notre objectif principal doit changer ; nous ne combattons plus seulement des adversaires humains, nous combattons des agents de menace automatisés et augmentés par l’IA.

Le bord offensif

Nous assistons à une réduction drastique des coûts et de l’expertise nécessaire à la cybercriminalité. Ce qui prenait autrefois des semaines à un humain qualifié peut désormais être orchestré par un agent d’IA en quelques heures, entraînant ce que nous appelons l’inflation des cybermenaces.

Malwares évasifs et auto-modifiables

Plus récemment, les chercheurs du Google Threat Intelligence Group (GTIG) ont identifié une nouvelle tendance inquiétante : les logiciels malveillants qui utilisent des LLM lors de leur exécution pour modifier dynamiquement leur propre comportement et échapper à la détection. Ce n’est pas du code pré-généré, c’est du code qui s’adapte en cours d’exécution.

En juin 2025, GTIG a identifié un malware expérimental appelé PROMPTFLUX, qui se connecte à une API LLM commerciale (telle que l’API Gemini) pour demander à la volée de nouveaux scripts d’obscurcissement et d’évasion de code. Cette technique, qui permet de générer du code juste à temps, représente une étape significative vers des logiciels malveillants autonomes et adaptatifs.

Dans un autre cas, GTIG a identifié PROMPTSTEAL, qui était utilisé par le groupe APT28 lié à la Russie contre l’Ukraine. Ce malware interroge un LLM (le modèle Qwen2.5-Coder sur Hugging Face) pour générer des commandes de reconnaissance au lieu de les coder en dur.

Certaines analyses prévoient que le pourcentage de toutes les détections de logiciels malveillants avec une contribution LLM est passé de seulement 2 % en 2021 à 50 % prévu d’ici 2025.

Fraude financière basée sur les deepfakes

D’un autre côté, l’IA générative a amplifié l’ingénierie sociale grâce à des deepfakes hyperréalistes. Les escroqueries basées sur les deepfakes ont explosé, permettant des contrefaçons de voix et de vidéo qui trompent même les professionnels chevronnés. Un exemple dramatique s’est produit lorsqu’un cadre de Ferrari a été presque trompé par un deepfake cloné par la voix du PDG.

Plus récemment encore, un employé d’une entreprise mondiale de design a été trompé par un appel vidéo généré par l’IA se faisant passer pour le directeur financier et d’autres dirigeants de l’entreprise, ce qui a entraîné une perte de 25 millions de dollars transférée aux fraudeurs.

L’avantage défensif

Si les adversaires opèrent à la vitesse de l’IA, nos défenses doivent également le faire. Le côté positif de cette dynamique à double usage est que les LLM les plus puissants sont également exploités par les défenseurs pour créer des capacités de sécurité fondamentalement nouvelles.

Détection de vulnérabilités : du zero-day au pentesting autonome

La compréhension du code sémantique et le raisonnement contextuel des LLM offrent un avantage significatif par rapport aux analyseurs statiques traditionnels basés sur des signatures, en particulier dans la découverte de menaces inconnues avant que des acteurs malveillants ne les trouvent et ne les exploitent.

Les LLM ont montré un potentiel extraordinaire pour identifier les failles inconnues et non corrigées (zéro jour). Ces modèles surpassent considérablement les analyseurs statiques conventionnels, notamment en découvrant des défauts logiques subtils et des débordements de tampon dans les nouveaux logiciels. Par exemple, le projet Big Sleep de Google a utilisé un LLM pour identifier une vulnérabilité Zero Day dans la base de données SQLite critique utilisée dans l’ensemble du secteur.

Un autre exemple est XBOW, qui est un agent de test d’intrusion autonome qui exploite les LLM pour simuler des attaques réelles de la même manière qu’un homologue humain le ferait. XBOW a atteint la première place du classement HackerOne américain, démontrant que l’IA peut égaler et, dans certains benchmarks, surpasser les hackers humains experts dans la recherche d’un large éventail de vulnérabilités (par exemple, failles d’injection, XSS).

En déployant des agents d’IA comme XBOW sur nos propres systèmes, nous pouvons tester systématiquement chaque point de terminaison et vecteur d’attaque. Cela fait passer les tests de sécurité éthiques offensifs d’un audit périodique à un flux de travail de pré-production à la demande.

D’autre part, DeepMind de Google a mis au point un agent basé sur l’IA appelé CodeMender qui détecte, corrige et réécrit automatiquement le code vulnérable pour éliminer des classes entières de failles de sécurité. Cette approche réactive et proactive représente une avancée majeure dans l’automatisation défensive.

Chasse aux menaces et analyse comportementale

Les LLM transforment la chasse aux menaces d’une recherche manuelle basée sur des mots clés en un processus de requête intelligent et contextuel qui se concentre sur les anomalies comportementales. En traitant et en corrélant des ensembles de données massifs et non structurés tels que les journaux réseau, les rapports d’incidents de sécurité et les flux de renseignements sur les menaces (OSINT), les LLM acquièrent la compréhension contextuelle nécessaire pour générer des hypothèses fiables sur les menaces potentielles.

Par exemple, le Compliance Manager de Microsoft peut ingérer et comprendre de grandes quantités de données non structurées, telles que des politiques de sécurité internes, des contrats juridiques et des textes réglementaires externes comme le RGPD ou la loi européenne sur l’IA. Il mappe ensuite automatiquement les exigences d’un cadre à un autre, réduisant ainsi considérablement l’effort manuel nécessaire pour prouver la conformité lors d’un audit.

Watsonx d’IBM applique les fonctionnalités LLM pour la conformité et la gestion des risques. Pour une société de services financiers, cela peut signifier que le modèle analyse en permanence le nouveau code d’application de trading pour vérifier que toutes les manipulations de données sont conformes à HIPAA ou PCI DSS avant le déploiement, signalant automatiquement tout écart par rapport à la politique établie.

Rassembler tout cela

Alors que les systèmes d’IA continuent de passer de modèles génératifs à des agents autonomes, leur nature à double usage ne peut être ignorée. Les mêmes outils qui aident les défenseurs à accélérer la réponse aux incidents peuvent également permettre aux attaquants de créer des deepfakes, de lancer des campagnes d’ingénierie sociale et bien plus encore. Cette tension n’est pas un sous-produit temporaire de l’innovation, mais c’est une réalité structurelle de l’évolution rapide de l’IA.

En fin de compte, le défi n’est pas d’arrêter les progrès de l’IA mais de les guider de manière responsable. Cela signifie intégrer des garde-fous dans les modèles, améliorer la transparence et développer des cadres de gouvernance qui suivent le rythme des capacités émergentes. Cela oblige également les organisations à repenser leurs stratégies de sécurité, en reconnaissant que l’IA est à la fois une opportunité et un multiplicateur de risques.

En fin de compte, l’impact de l’IA sur la cybersécurité dépendra non seulement de ce que ces systèmes peuvent faire, mais aussi de la manière dont nous choisissons de les utiliser. L’avenir appartiendra à ceux qui sauront exploiter la puissance défensive de l’IA tout en restant vigilants face à son potentiel offensif.

Cet article est publié dans le cadre du Foundry Expert Contributor Network.
Voulez-vous nous rejoindre ?

Intelligence artificielleCyberattaquesCybercriminalitéSécuritéFraudeVulnérabilités du jour zéroVulnérabilités