Les agents de l’IA devraient réduire le temps pour exploiter de moitié en deux ans, voici ce que vous devez savoir si votre entreprise a besoin d’IA agentique et comment trouver la bonne.
La cybersécurité se situe à un carrefour avec une IA agentique. Nous n’avons jamais eu un outil aussi puissant qui peut créer des rames de code en un clin d’œil, trouver et désamorcer les menaces, et être utilisés de manière si décisive et défensive. Cela s’est avéré être un énorme multiplicateur de force et une aubaine de productivité.
Mais bien que puissant, l’IA agentique n’est pas fiable, et c’est l’énigme. Le code créé peut contenir des défauts subtils et, finalement, faire plus de mal que de bien en augmentant les leurres de phishing et en construisant de nouvelles formes de logiciels malveillants. Gartner prédit que les agents de l’IA réduiront le temps nécessaire pour exploiter les comptes de 50% d’ici 2027. Un autre rapport a révélé que 40% de ces entreprises interrogées ont connu une brèche de sécurité liée à l’IA au cours de la dernière année. Par exemple, la violation d’Activision de 2022 a commencé par une série de messages de phishing SMS améliorés en AI. Kela a rapporté que dans son rapport sur les menaces d’IA 2025, une augmentation de 200% des outils malveillants de l’IA sur 2024.
Les logiciels malveillants deviennent plus complexes, et ses créateurs s’améliorent pour cacher leur métier afin qu’ils puissent vivre plus longtemps dans les réseaux d’entreprise et faire des dégâts plus ciblés. Les adversaires s’éloignent de «Spray and Pray», où ils couvrent simplement le globe avec des logiciels malveillants et vers «Target and Stay», où ils sont plus sélectifs et parcimonieux avec leurs attaques. Ce changement de concentration est aidé et encouragé à une IA agentique. Ces agents peuvent être utilisés pour parcourir une cible pour trouver un point final faible qui peut être compromis par des logiciels malveillants ou utiliser ce point de terminaison pour voler des données ou lancer une attaque de ransomware ou fournir des informations qui pourraient être utilisées pour lancer une campagne d’ingénierie sociale contre un cadre. Dans le passé, ces types d’opérations ont pris du temps, des compétences et des efforts manuels, qui peuvent tous être raccourcis par l’IA agentique.
Ces points de données et d’autres montrent le ventre sombre où le Boon agentique s’est transformé en fléau et a créé plus de travail pour les défenseurs de la sécurité. «Pour presque toutes les situations, la technologie de l’IA agentique nécessite des niveaux élevés d’autorisations, de droits et de privilèges afin de fonctionner. Je recommande que les chefs de sécurité prennent en compte la vie privée, la sécurité, la propriété et risquent qu’un déploiement d’IA agentique puisse avoir sur votre infrastructure», a déclaré Morey Haber, conseiller en chef de la sécurité chez BeorelTrust.
Qu’est-ce que l’agent AI?
Les agents d’IA génératifs sont décrits par l’analyste Jeremiah Owyang comme «des systèmes logiciels autonomes qui peuvent percevoir leur environnement, prendre des décisions et prendre des mesures pour atteindre un objectif spécifique, souvent avec la capacité d’apprendre et de s’adapter au fil du temps.» L’IA agentique va plus loin en coordonnant les groupes d’agents de manière autonome avec une série d’intégrations personnalisées dans des bases de données, des modèles et d’autres logiciels. Ces connexions permettent aux agents de s’adapter dynamiquement à leur situation et d’avoir une conscience plus contextuelle ou de coordonner les actions entre plusieurs agents. L’équipe Intel menace de Google a de nombreuses exemples spécifiques d’abus actuels sur l’IA dans un récent rapport.
Mais faire confiance aux outils de sécurité n’est pas nouveau. Lorsque les analyseurs de paquets de réseau ont été introduits pour la première fois, ils ont révélé des intrusions mais ont également été utilisés pour trouver des serveurs vulnérables. Les pare-feu et les VPN peuvent séparer et isoler le trafic, mais peuvent également être mis à profit pour permettre à l’accès des pirates et à un mouvement de réseau latéral. Les déchets peuvent être construits à des fins bonnes et maléfiques. Mais jamais ces outils plus anciens n’ont été aussi superlativement bons et mauvais en même temps. Dans la précipitation pour développer une IA agentique, le potentiel de la future misère a également été créé.
Désignes de sécurité agentiques récents
Récemment, nous avons vu de nombreux exemples de la rapidité avec laquelle la construction de vos propres agents d’IA autonomes a pris racine. Le mois dernier, Microsoft a démontré six nouveaux agents d’IA qui travaillent avec son logiciel Copilot qui parle directement de ses différents outils de sécurité pour identifier les vulnérabilités, l’identité de drapeau et les compromis d’actifs. Simbian organise ce mois-ci un concours de Flag, basé sur l’IA, où l’environnement d’exploitation est un SOC alimenté par l’IA où les agents ont déjà traité une série d’alertes. Un concours similaire a été organisé pour la première fois lors de la conférence DefCon 2023. Les participants humains doivent déterminer quelles alertes sont réelles. Et dans un autre exemple qui donne à réfléchir, la société Zeroeyes a produit des outils agentiques pour scanner rapidement des milliers d’images de vidéosurveillance de sécurité par seconde pour trouver des armes à feu pour aider les activités d’application de la loi.
Outils et conseils pour les défenseurs
Il existe plusieurs outils et stratégies que les professionnels de la sécurité peuvent utiliser pour lutter contre les menaces agentiques et les utiliser pour des fins de bien plutôt que de mal.
Plus tôt cette année, OWASP a publié son rapport complet sur les menaces d’IA agentiques pour fournir un guide de référence pratique et exploitable sur la façon de les identifier et de les atténuer. Il décrit une architecture agentique de référence, délimite une variété de modèles agentiques (tels que des agents qui peuvent critiquer leurs propres sorties de manière réfléchie, ou ont des tâches et des objectifs spécifiques). Le rapport décrit également l’approche de modélisation des menaces employée par la méthodologie et le cadre de Maestro de la Cloud Security Alliance pour apporter plus de clarté et de compréhension des opérations agentiques.
Les auteurs de l’OWASP ont souligné un point saillant: «Les pirates de chapeau blanc et de chapeau noir apprennent généralement en faisant, et notre monde centré sur l’application leur offre de nombreuses opportunités de perfectionner leurs compétences» alors que l’augmentation des attaques agentiques se poursuit. Pourtant, «les taux d’attaque sur les applications ont atteint des niveaux sans précédent, 82,7% des applications surveillées par le numérique.
Un autre bon point de départ pour comprendre les différences entre les différents agents peut être trouvé dans ce «plan pour les agents de l’IA» par Dylan Williams, analyste de la sécurité chez Appian. Il montre comment les agents peuvent travailler dans divers endroits du spectre de sécurité, y compris les alertes et la chasse aux menaces, et examine une variété de cadres de construction d’agents communs actuels.
D’autres lignes directrices peuvent être trouvées dans Helen Oakley de la Fondation de l’intégrité de l’IA et de la Fondation Safe Use, notamment:
- Une forte gouvernance des données est vitale, avec des contrôles d’accès robustes et des ensembles de données impartiaux de haute qualité.
- Les journaux de décision doivent être intégrés pour assurer la transparence et la responsabilité.
- Des protocoles de communication chiffrés entre les agents sont nécessaires pour empêcher l’interception ou la manipulation.
AWS ‘Betz a quelques leçons tirées de leur expérience agentique, notamment:
- Utilisez l’authentification et l’autorisation pour isoler et séparer les opérations du modèle fondamental des agents.
- Les agents doivent traiter la sortie comme un code non fiable et effectuer les choses typiques telles que les vérifications de syntaxe et la validation des règles.
- Tous les code générés par AI-AI doivent initialement fonctionner dans un bac à sable pour s’assurer qu’il fonctionne correctement.
- Comprendre comment l’agent génère son code: l’observabilité est importante.
- Testez à la fois avec des méthodes automatisées et manuelles, notamment en faisant des exercices d’équipe rouge.
Un endroit pour envisager la mise en œuvre de l’IA agentique réside dans votre SOC. Étant donné que le SOC moyen reçoit des centaines, voire des milliers d’alertes quotidiennes, les agents peuvent être utiles pour automatiser les enquêtes sur les menaces, la création de livres de jeu, la correction et le filtre des menaces sans importance. Plusieurs fournisseurs de sécurité proposent ces outils, notamment Dropzone, D3Security, Radiant Security, Securriti et Torq.
Questions à poser lors de l’examen de l’IA agentique
Voici quelques questions que les acheteurs d’IA agentiques potentiels devraient considérer dans leur évaluation de cette nouvelle technologie:
- Examinez les capacités de raisonnement intégré sous-jacentes de tout agent et comprenez comment cela fonctionne.
- Avez-vous besoin de traitement agentique des entrées non textuelles, telles que des images, des vidéos et des sons?
- Votre agent utilise-t-il plusieurs LLM ou des cadres de développement, et comment ces interagissent-ils les uns avec les autres?
- Quelle authentification est utilisée pour vérifier les utilisateurs, les outils ou les services, et à quel point est-ce solide?
- L’agent peut-il traiter des informations sensibles ou des informations personnellement identifiables?