À mesure que l’IA progresse, l’essor de solutions logicielles instantanées, personnalisées et souvent éphémères modifiera la dynamique de la recherche et de la correction des vulnérabilités, et donc la bataille entre attaquants et défenseurs.
L’IA change rapidement la façon dont les logiciels sont écrits, déployés et utilisés. Les tendances laissent présager un avenir dans lequel les IA pourront écrire des logiciels personnalisés rapidement et facilement : les « logiciels instantanés ». Poussé à l’extrême, il pourrait devenir plus facile pour un utilisateur de demander à une IA d’écrire une application à la demande (une feuille de calcul, par exemple) et de la supprimer une fois que vous avez fini de l’utiliser, plutôt que d’en acheter une dans le commerce. Les futurs systèmes pourraient inclure un mélange : à la fois des logiciels traditionnels à long terme et des logiciels instantanés éphémères qui sont constamment écrits, déployés, modifiés et supprimés.
L’IA change également la cybersécurité. En particulier, les systèmes d’IA parviennent de mieux en mieux à détecter et à corriger les vulnérabilités du code. Cela a des implications à la fois pour les attaquants et les défenseurs, en fonction de la façon dont ces technologies et les technologies associées s’améliorent.
Dans cet essai, je souhaite adopter une vision optimiste des progrès de l’IA et spéculer à quoi pourrait ressembler la cybersécurité dominée par l’IA à l’ère des logiciels instantanés. Il existe un certain nombre d’inconnues qui entreront en compte dans la manière dont pourrait se dérouler la course aux armements entre l’attaquant et le défenseur.
Comment la découverte de failles pourrait fonctionner
Du côté des attaquants, la capacité des IA à trouver et exploiter automatiquement les vulnérabilités a considérablement augmenté au cours des derniers mois. Nous voyons déjà des pirates informatiques gouvernementaux et criminels utiliser l’IA pour attaquer les systèmes. La partie exploitation est ici cruciale, car elle donne à un attaquant non averti des capacités bien au-delà de son entendement. À mesure que l’IA s’améliore, on peut s’attendre à ce que davantage d’attaquants automatisent leurs attaques à l’aide de l’IA. Et comme les individus et les organisations peuvent de plus en plus exécuter localement des modèles d’IA puissants, les sociétés d’IA qui surveillent et perturbent les utilisations malveillantes de l’IA deviendront de moins en moins pertinentes.
Attendez-vous à ce que les logiciels open source, y compris les bibliothèques open source incorporées dans des logiciels propriétaires, soient les plus ciblés, car les vulnérabilités sont plus faciles à trouver dans le code source. L’inconnue n°1 concerne la manière dont les outils de découverte de vulnérabilités d’IA fonctionneront avec les progiciels commerciaux à source fermée. Je pense qu’ils seront bientôt assez bons pour trouver des vulnérabilités simplement en analysant une copie d’un produit expédié, sans accès au code source. Si cela est vrai, les logiciels commerciaux seront également vulnérables.
Les logiciels des appareils IoT seront particulièrement vulnérables : des éléments tels que les voitures, les réfrigérateurs et les caméras de sécurité connectés à Internet. Également des logiciels IoT industriels dans notre réseau électrique connecté à Internet, nos raffineries et pipelines de pétrole, nos usines chimiques, etc. Les logiciels IoT ont tendance à être de qualité bien inférieure et les logiciels IoT industriels ont tendance à être hérités.
Les logiciels instantanés sont différemment vulnérables. Ce n’est pas un marché de masse. Il est créé pour une personne, une organisation ou un réseau en particulier. L’attaquant n’aura généralement accès à aucun code à analyser, ce qui le rend moins susceptible d’être exploité par des attaquants externes. Si elle est éphémère, toute vulnérabilité aura une courte durée de vie. Mais de nombreux logiciels instantanés resteront longtemps sur les réseaux. Et s’il est téléchargé dans des bibliothèques d’outils partagées, les attaquants pourront télécharger et analyser ce code.
Tout cela laisse présager un avenir dans lequel les IA deviendront de puissants outils de cyberattaque, capables de détecter et d’exploiter automatiquement les vulnérabilités des systèmes du monde entier.
Automatisation de la création de correctifs
Mais cela ne représente que la moitié de la course aux armements. Les défenseurs peuvent également utiliser l’IA. Ces mêmes technologies de recherche de vulnérabilités par l’IA sont encore plus précieuses pour la défense. Lorsque le côté défensif découvre une vulnérabilité exploitable, il peut corriger le code et le refuser définitivement aux attaquants.
La manière dont cela fonctionne dans la pratique dépend d’une autre capacité connexe : la capacité des IA à corriger les logiciels vulnérables, qui est étroitement liée à leur capacité à écrire du code sécurisé en premier lieu.
Les IA ne sont pas très douées dans ce domaine aujourd’hui ; les logiciels instantanés créés par les IA sont généralement remplis de vulnérabilités, à la fois parce que les IA écrivent du code non sécurisé et parce que les gens qui codent ne comprennent pas la sécurité. OpenClaw en est un bon exemple.
L’inconnue n°2 est de savoir dans quelle mesure les IA seront meilleures pour écrire du code sécurisé. Le fait qu’ils soient formés sur des corpus massifs de code mal écrit et peu sécurisé est un handicap, mais ils s’améliorent. S’ils peuvent écrire de manière fiable du code sans vulnérabilité, cela constituerait un énorme avantage pour le défenseur. Et la recherche de vulnérabilités basée sur l’IA permet à une IA de s’entraîner plus facilement à l’écriture de code sécurisé.
Nous pouvons imaginer un avenir dans lequel les outils d’IA qui détectent et corrigent les vulnérabilités feront partie du processus de développement logiciel typique. Nous ne pouvons pas dire que le code serait exempt de vulnérabilités – c’est un objectif impossible – mais il pourrait l’être sans aucune vulnérabilité facilement détectable. Si la technologie devenait vraiment performante, le code pourrait devenir pratiquement exempt de vulnérabilité.
Retards dans les correctifs et logiciels existants
Pour les nouveaux logiciels – qu’ils soient commerciaux ou instantanés – cet avenir favorise le défenseur. Pour les logiciels open source commerciaux et conventionnels, ce n’est pas si simple. À l’heure actuelle, le monde est rempli de logiciels existants. Une grande partie – comme les logiciels des appareils IoT – n’a pas d’équipe de sécurité dédiée pour les mettre à jour. Parfois, il est impossible de le corriger. Tout comme il est plus difficile pour les IA de détecter les vulnérabilités lorsqu’elles n’ont pas accès au code source, il est plus difficile pour les IA de corriger les logiciels lorsqu’ils ne sont pas intégrés au processus de développement.
Je ne suis pas aussi convaincu que les systèmes d’IA seront capables de corriger les vulnérabilités aussi facilement qu’ils peuvent les trouver, car l’application de correctifs nécessite souvent des tests et une compréhension plus holistiques. C’est l’inconnue n°3 : à quelle vitesse les IA seront capables de créer des mises à jour logicielles fiables pour les vulnérabilités qu’elles détectent, et à quelle vitesse les clients pourront mettre à jour leurs systèmes.
Aujourd’hui, il existe un décalage entre le moment où un fournisseur publie un correctif et celui où les clients installent cette mise à jour. Ce délai est encore plus long pour les grands logiciels d’organisation ; le risque qu’une mise à jour endommage le système logiciel sous-jacent est tout simplement trop grand pour que les organisations déploient des mises à jour sans les tester au préalable. Mais si l’IA peut contribuer à accélérer ce processus, en écrivant des correctifs plus rapidement et de manière plus fiable, et en les testant dans un environnement jumeau généré par l’IA, l’avantage revient au défenseur. Dans le cas contraire, l’attaquant disposera toujours d’une fenêtre pour attaquer les systèmes jusqu’à ce qu’une vulnérabilité soit corrigée.
Vers l’auto-guérison
Dans un avenir véritablement optimiste, nous pouvons imaginer un réseau d’auto-guérison. Les agents d’IA analysent en permanence le corpus en constante évolution de logiciels commerciaux et personnalisés générés par l’IA à la recherche de vulnérabilités et les corrigent automatiquement dès leur découverte.
Pour que cela fonctionne, les contrats de licence des logiciels devront changer. À l’heure actuelle, les éditeurs de logiciels contrôlent la cadence des correctifs de sécurité. Donner cette possibilité aux acheteurs de logiciels a des implications en termes de compatibilité, de droit à la réparation et de responsabilité. Toutes les solutions ici relèvent du domaine politique et non technologique.
Si la défense parvient à détecter les failles des logiciels existants, mais ne parvient pas à les corriger de manière fiable, c’est là que les attaquants concentreront leurs efforts. Si tel est le cas, nous pouvons imaginer une détection d’intrusion basée sur l’IA en constante évolution, analysant en permanence les entrées et bloquant les attaques malveillantes avant qu’elles n’atteignent les logiciels vulnérables. Pas aussi transformateur que la correction automatique des vulnérabilités dans le code en cours d’exécution, mais néanmoins précieux.
La puissance de ces systèmes d’IA défensifs augmente s’ils sont capables de se coordonner les uns avec les autres et de partager vulnérabilités et mises à jour. Une découverte par une IA peut rapidement se propager à tous ceux qui utilisent le logiciel concerné. Encore une fois : Avantage du défenseur.
Il y a d’autres variables à considérer. Le succès relatif des attaquants et des défenseurs dépend également de l’abondance des vulnérabilités, de la facilité avec laquelle elles sont détectées, de la capacité des IA à détecter les vulnérabilités les plus subtiles et les plus obscures, et du degré de coordination entre les différents attaquants. Tout cela comprend l’Inconnu n°4.
Économie de la vulnérabilité
Vraisemblablement, les IA nettoieront d’abord les éléments évidents, ce qui signifie que les vulnérabilités restantes seront subtiles. Les trouver nécessitera des ressources informatiques de l’IA. Dans le scénario optimiste, les défenseurs mettent en commun leurs ressources grâce au partage d’informations, amortissant ainsi efficacement le coût de la défense. Si le partage d’informations ne fonctionne pas pour une raison quelconque, la défense devient beaucoup plus coûteuse, car chaque défenseur devra effectuer ses propres recherches. Mais le logiciel instantané signifie bien plus de diversité dans le code : un avantage pour le défenseur.
Cela doit être mis en balance avec le coût relatif de la découverte des vulnérabilités par les attaquants. Les attaquants disposent déjà d’un moyen inhérent d’amortir les coûts liés à la recherche d’une nouvelle vulnérabilité et à la création d’un nouvel exploit. Ils peuvent rechercher des vulnérabilités sur plusieurs plates-formes, entre fournisseurs et entre systèmes, et peuvent utiliser ce qu’ils trouvent pour attaquer plusieurs cibles simultanément. La correction d’une vulnérabilité courante nécessite souvent une coopération entre toutes les plates-formes, fournisseurs et systèmes concernés. Encore une fois, le logiciel instantané constitue un avantage pour le défenseur.
Mais ces vulnérabilités difficiles à trouver deviennent encore plus précieuses. Les attaquants tenteront de faire ce que font aujourd’hui les principales agences de renseignement : trouver « personne d’autre que nous » des exploits zero-day. Ils les utiliseront soit lentement et avec parcimonie pour minimiser la détection, soit rapidement et largement pour maximiser les profits avant qu’ils ne soient corrigés. Pendant ce temps, les défenseurs traqueront les vulnérabilités et détecteront les intrusions, dans le but de corriger les vulnérabilités avant que les attaquants ne les trouvent.
Nous pouvons même imaginer un marché du partage de vulnérabilités, où le défenseur qui découvre une vulnérabilité et crée un correctif est rémunéré par tous les autres acteurs du réseau de partage d’informations/réparation. C’est peut-être exagéré, mais peut-être.
Vers le haut de la pile
Même dans l’avenir le plus optimiste, les attaquants n’abandonneront pas. Ils attaqueront les parties non logicielles du système, telles que les utilisateurs. Ou bien ils vont rechercher des failles dans le système : des choses que le système permet techniquement mais qui étaient involontaires et imprévues par les concepteurs – qu’ils soient humains ou IA – et peuvent être utilisées par les attaquants à leur avantage.
Ce qui reste dans ce monde, ce sont des attaques qui ne dépendent pas de la découverte et de l’exploitation de vulnérabilités logicielles, comme les attaques d’ingénierie sociale et de vol d’informations d’identification. Et nous avons déjà vu comment les deepfakes générés par l’IA facilitent l’ingénierie sociale. Mais ici aussi, nous pouvons imaginer des agents d’IA défensifs qui surveillent le comportement des utilisateurs, à l’affût des signes d’attaque. Il s’agit d’un autre cas d’utilisation de l’IA, et auquel je ne sais même pas comment penser en termes de course aux armements attaquant/défenseur. Mais au moins, nous poussons les attaques vers le haut de la pile.
En outre, les attaquants tenteront d’infiltrer et d’influencer les IA défensives et les réseaux qu’elles utilisent pour communiquer, empoisonnant ainsi leur production et dégradant leurs capacités. Les systèmes d’IA sont vulnérables à toutes sortes de manipulations, telles que l’injection rapide, et il n’est pas certain que nous serons un jour en mesure de résoudre ce problème. Il s’agit de l’Inconnu n°5, et c’est un gros problème. Il peut toujours y avoir un « problème de confiance ».
Aucun avenir n’est garanti. Nous ne savons vraiment pas si ces technologies continueront à s’améliorer et quand elles atteindront un plateau. Mais étant donné le rythme auquel le développement des logiciels d’IA s’est amélioré au cours des derniers mois seulement, nous devons commencer à réfléchir au fonctionnement de la cybersécurité dans ce monde logiciel instantané.



