La CISA et les cyber-autorités internationales font pression en faveur de stratégies de moindre privilège, d’audit continu et de déploiement prudent pour freiner l’injection rapide, l’utilisation abusive des outils et la dérive des privilèges des agents d’IA.
Avec l’injection rapide et d’autres voies d’attaque faisant constamment surface dans les déploiements d’IA agentique, les organismes de surveillance de la sécurité sont intervenus, collectivement, pour tracer des limites strictes.
Un avis conjoint de l’Agence américaine de cybersécurité et de sécurité des infrastructures (CISA) et de partenaires internationaux appelle à un contrôle plus strict des autorisations, à une surveillance plus stricte et à une stratégie de déploiement plus délibérée, exhortant les organisations à traiter l’IA agentique avec prudence.
« Les organisations ne peuvent pas simplement lancer des agents dans la production et espérer que les garde-fous tiendront », a déclaré Piyush Sharma, PDG et co-fondateur de Tuskira, en accord avec les instructions de CISA. « Ils doivent comprendre à quoi chaque agent peut accéder, comment il se comporte, quels systèmes font confiance à ses résultats et quelles voies d’attaque deviennent accessibles s’il est manipulé. »
L’avis décrit les lignes directrices de conception et de développement que les organisations doivent suivre avant la mise en œuvre d’agents d’IA. Quelques-uns d’entre eux comprenaient une authentification forte utilisant les principes Secure by Design, la transparence du système pour signaler les indicateurs trompeurs, le moindre privilège dans les flux de travail, les principes de développement sécurisé selon les principes fondamentaux de DevSecOps et les tests réguliers des plans de réponse aux incidents, entre autres.
L’avis a été co-rédigé par le Centre australien de cybersécurité de la Direction australienne des signaux, le Centre canadien pour la cybersécurité, le Centre national de cybersécurité de la Nouvelle-Zélande et le Centre national de cybersécurité du Royaume-Uni.
Moindre privilège et limites strictes
L’un des points forts de l’avis était la nécessité de limiter les accès de l’IA agentique.
« Les risques liés aux privilèges sont une préoccupation majeure pour l’IA agentique, et le strict respect du principe du moindre privilège est essentiel », a déclaré la CISA dans l’avis. « Les privilèges attribués aux agents déterminent directement le niveau de risque qu’ils peuvent introduire. Une mauvaise gestion des privilèges peut exposer les organisations à des compromissions de privilèges, à une dérive de la portée, à une usurpation d’identité et à une usurpation d’identité d’agent. »
Les agences ont mis l’accent sur l’application des principes du moindre privilège, l’isolation des capacités des agents et la définition rigoureuse des données, des outils et des systèmes avec lesquels chaque agent peut interagir.
C’est plus facile à dire qu’à faire, d’autant plus que les agents sont de plus en plus connectés aux API, aux systèmes internes et aux services externes. « Chaque outil, source de données, stockage de mémoire et autorisation qu’un agent touche devient une autre voie d’accès possible pour les attaquants », a noté Sharma.
Pour résoudre ce problème, l’avis recommande aux organisations de maintenir un inventaire clair des capacités et des dépendances des agents, tout en validant également la manière dont les agents interprètent et agissent sur les entrées. Cela implique de se prémunir contre une injection rapide et de garantir que les agents ne font pas aveuglément confiance au contenu ou aux instructions externes.
Surveillance continue avec contrôle humain dans la boucle
Alors que la première moitié de l’avis se concentrait sur la limitation de ce que les agents peuvent faire, la seconde consistait à surveiller ce qu’ils font réellement et à réagir rapidement lorsque les choses tournent mal.
« Les opérateurs doivent mettre en œuvre une surveillance et un audit continus pour rester informés du fonctionnement des agents d’IA et garantir la traçabilité des décisions et des actions », a ajouté la CISA. « Les processus d’audit continu améliorent les mesures de sécurité et garantissent l’alignement avec les normes de gouvernance (telles que la gestion des risques, la surveillance et les restrictions d’utilisation). »
CISA et ses partenaires internationaux ont également recommandé d’intégrer le contrôle et la surveillance humains dans les flux de travail de l’IA agentique afin de garantir qu’ils sont approuvés pour des tâches non sensibles et à faible risque. Pour cela, les agences ont suggéré une surveillance en direct pendant l’exécution des tâches, une approbation humaine pour les étapes de prise de décision et un audit lors de l’exécution des tâches.
Les experts conviennent que la visibilité est essentielle. « Les équipes de sécurité ont besoin d’une visibilité continue sur le comportement des agents, les systèmes qu’ils touchent et le moment où leurs actions s’écartent des modèles attendus », a déclaré Nick Tausek, architecte principal de l’automatisation de la sécurité chez Swimlane. « L’intégration de l’approbation humaine dans les flux de travail à haut risque et l’automatisation du confinement sont primordiales pour agir lorsque le comportement d’un agent dépasse les limites. »
En résumé, l’avis détaille les principaux domaines de risque, de l’injection rapide et de l’exposition des données à l’utilisation abusive des outils et à la dérive des privilèges, exhortant les organisations à verrouiller les accès privilégiés, à valider les entrées et les sorties, à surveiller le comportement des agents et à contrôler étroitement la manière dont ces systèmes interagissent avec les données, les outils et d’autres services.



