Top 7 des cas d’utilisation de l’IA agentique pour la cybersécurité

Lucas Morel

L’IA agentique révolutionne le monde informatique. Pourtant, son plus grand avantage réside peut-être dans le renforcement de la cybersécurité.

L’IA agentique promet de révolutionner un large éventail d’opérations et de services informatiques, y compris la cybersécurité. Si cette technologie, qui permet d’accomplir des tâches spécifiques sans supervision humaine, peut paraître intimidante à certains RSSI, un nombre croissant de responsables de la cybersécurité découvrent que l’IA agentique est moins complexe et plus facile à déployer qu’ils ne le pensaient initialement.

« À mesure que l’IA agentique devient plus mature, son potentiel en matière de cybersécurité est particulièrement intéressant », déclare Sandra McLeod, RSSI chez Zoom, soulignant que de nombreux cas d’utilisation de la cybersécurité conviennent parfaitement à l’IA car ils tirent parti de la capacité de la technologie à fonctionner à une échelle et à une vitesse que les équipes humaines ne peuvent égaler.

L’IA peut traiter d’énormes volumes de données en continu sans éprouver de fatigue, ce qui la rend idéale pour surveiller des environnements où l’attention humaine finirait par diminuer, explique McLeod. « C’est particulièrement utile pour résoudre des problèmes dont la portée est trop importante ou dont la priorité est trop faible pour des équipes de sécurité déjà surchargées », explique-t-elle.

De plus, la capacité de l’IA à réagir en temps réel signifie qu’elle peut agir beaucoup plus rapidement que les humains, contribuant ainsi à réduire le rayon d’explosion d’une attaque ou à minimiser la durée pendant laquelle une menace reste non détectée. « En gérant des tâches volumineuses ou urgentes, l’IA permet aux humains de se concentrer sur un travail plus stratégique et à plus forte valeur ajoutée », ajoute McLeod.

Votre organisation est-elle prête à ajouter l’IA agentique à son arsenal de cybersécurité ? Voici sept principaux cas d’utilisation à considérer.

1. Détection et réponse autonomes aux menaces

« Cela inclut la détection et l’interruption des tentatives d’intrusion de manière autonome et en temps réel en apportant des modifications en matière de sécurité et d’informatique pour atténuer les risques », explique-t-il. « Essentiellement, l’IA agentique peut fonctionner comme un agent de cyberdéfense autonome et en temps réel. »

Les cyberattaques sont de plus en plus exécutées par des agents autonomes opérant à la vitesse de la lumière, dépassant de loin les capacités de réponse humaines, explique Scimone. La principale valeur de la détection autonome des menaces réside dans la rapidité et l’échelle, deux facteurs critiques là où les méthodes traditionnelles échouent. « L’IA agentique uniformisera les règles du jeu en permettant aux défenseurs de réagir avec la même rapidité et une large portée », dit-il.

2. Prise en charge du centre d’opérations de sécurité

Les centres d’opérations de sécurité (SOC) constituent un excellent cas d’utilisation de l’IA agentique, car ils servent de première ligne pour détecter et répondre aux menaces, explique Naresh Persaud, directeur des services de cyber-risque chez Deloitte.

Avec des milliers d’incidents à trier quotidiennement, les SOC sont de plus en plus fatigués par les alertes. « Les analystes peuvent passer en moyenne 21 minutes ou plus par ticket pour y remédier », explique Persaud, soulignant que la documentation des cas et la collecte de données médico-légales sont une tâche chronophage, tandis que le suivi des vulnérabilités et des anomalies d’accès des utilisateurs peut être un processus complexe. « De plus, le nombre d’incidents devrait augmenter à mesure que les attaquants utilisent de plus en plus l’IA pour lancer des attaques à plus grande échelle. »

Persaud estime que l’ajout de l’IA agentique aux SOC est logique étant donné que les agents peuvent être formés pour gérer la détection, utiliser le traitement du langage naturel (NLP) pour produire la documentation du cas, s’intégrer aux systèmes d’identité pour corréler les accès anormaux et effectuer des mesures correctives automatisées. « Plus important encore, les analystes SOC d’IA agentique peuvent permettre aux SOC d’évoluer géométriquement à mesure que le volume de travail fluctue. »

3. Triage automatisé et enrichissement des journaux d’événements de sécurité

Pascal Geenens, directeur de la recherche sur les menaces pour la société de services de cybersécurité Radware, affirme que le tri automatisé, combiné à des journaux d’événements de sécurité enrichis, constitue un solide cas d’utilisation agentique de l’IA.

« Imaginez un agent d’IA qui collecte de manière autonome des indicateurs de compromission (IOC) à partir de plusieurs flux de menaces, les corrèle avec la télémétrie interne, enrichit les données avec le contexte des référentiels OSINT et CTI (cyber menace intelligence), puis rédige une alerte structurée pour un analyste. Au lieu d’attendre qu’une équipe SOC pivote manuellement sur différentes plates-formes, l’agent exécute automatiquement le pivotement, signale les anomalies et prépare un manuel de réponse recommandé.

Geenens estime que son approche suggérée, comme de nombreux cas d’utilisation de l’IA agentique présentés ici, répond à deux problèmes majeurs de cybersécurité : l’échelle et la vitesse. « Les analystes sont noyés sous les alertes et n’ont pas le temps de relier les points entre plusieurs sources », dit-il. L’IA agentique peut efficacement supplanter les tâches de corrélation répétitives et à volume élevé. Plus important encore, cela réduit l’écart entre la détection et l’atténuation, permettant aux analystes de se concentrer sur la validation et la stratégie plutôt que sur les opérations. « En pratique, cela ne remplace pas l’humain, mais amplifie le savoir-faire tout en réduisant le bruit. »

4. Augmenter les talents en sécurité

Un autre gros problème de la cybersécurité n’implique pas la technologie : il s’agit du déficit actuel de talents, et les agents d’IA fournissent la réponse la plus pratique, explique Rahul Ramachandran, directeur de la gestion des produits d’IA générative chez Palo Alto Networks.

« Les agents IA peuvent agir comme un multiplicateur de force pour vos équipes de sécurité débordées, en automatisant la maintenance sans fin nécessaire pour maintenir votre posture de sécurité solide et en résolvant les problèmes complexes dans vos nombreux outils de sécurité », explique-t-il. « Cela permet à vos meilleurs collaborateurs de se concentrer sur les menaces critiques plutôt que sur un travail manuel et répétitif. »

La pénurie de talents en cybersécurité n’est pas une tendance temporaire : c’est une réalité persistante à laquelle nous serons confrontés pendant des années, prévient Ramachandran. « Vous ne pouvez tout simplement pas embaucher pour sortir de ce problème », ajoute-t-il. « Utiliser des agents IA est une décision stratégique pour investir dans votre équipe existante, la rendant plus productive, plus efficace et, en fin de compte, plus heureuse. »

5. Protéger les marques contre la fraude

Les faux domaines ont toujours été un casse-tête, déclare Šarūnas Bružas, PDG du fournisseur de services d’équipement de bureau Deskronic. « Un agent IA peut rechercher de nouveaux enregistrements de domaine qui semblent similaires à votre entreprise, prendre des captures d’écran, effectuer des vérifications WHOIS et même rédiger des demandes de retrait. »

Bružas rapporte qu’un agent d’IA l’a récemment aidé à détecter un site de phishing moins de 20 minutes après son lancement. « Cela aurait normalement pris des jours, pendant lesquels les clients auraient pu perdre des données et de l’argent », dit-il.

Un autre cas d’utilisation important est la détection des publicités frauduleuses sur les réseaux sociaux. « Les fraudeurs diffusent des publicités Facebook ou Instagram qui usurpent l’identité de votre marque, et un agent IA peut vous alerter immédiatement afin que vous puissiez les supprimer avant qu’un trop grand nombre de clients ne cliquent », ajoute-t-il.

De tels incidents se produisent rapidement et une équipe manuelle ne peut pas suivre le volume, explique Bružas. Chaque heure où un site de phishing ou une publicité frauduleuse apparaît augmente le risque de fraude tout en portant atteinte à la confiance des clients. « Comme les agents recherchent en permanence les faux sites et les fausses publicités, la détection des escroqueries prendra moins de temps, et l’équipe humaine sera alors libre de se concentrer sur l’examen plutôt que sur la surveillance de routine », note-t-il. « En fin de compte, cela facilitera le travail, limitera le temps dont disposent les attaquants pour frapper et assurera la sécurité des clients. »

6. Assistance du service d’assistance

Les agents IA peuvent être utilisés pour automatiser les tâches courantes et répétitives du service d’assistance, telles que l’accès aux applications ou le dépannage des problèmes d’authentification, permettant ainsi aux membres de l’équipe de répondre rapidement à des demandes qui peuvent ne pas être aussi simples, explique Ed Dunnahoe, vice-président de l’innovation chez la société de services de cybersécurité GuidePoint Security.

« Dans le contexte de l’infrastructure, les agents peuvent également être en mesure d’accélérer le processus d’analyse des causes profondes en analysant plus rapidement les journaux du système, en corrélant les résultats entre les sources de données et en donnant aux ingénieurs humains une longueur d’avance dans leur enquête », ajoute-t-il.

7. Application autonome des politiques de confiance zéro en temps réel

Chaque utilisateur final a un profil unique, reflétant des comportements, des privilèges et des scores de risque spécifiques, explique Stephen Manley, CTO chez Druva, fournisseur de plateforme de cyber-résilience.

« Les agents peuvent surveiller ces utilisateurs et, en cas d’écart, peuvent modifier ce à quoi cet utilisateur peut accéder, forcer une ré-authentification ou même temporairement mettre cet utilisateur en sandbox », explique-t-il. Cela devient encore plus important, ajoute-t-il, pour les organisations qui s’efforcent d’instaurer une confiance zéro, « car vous pouvez demander à des agents de surveiller des acteurs non humains, tels que d’autres agents d’IA ».