Les analystes suggèrent que nous devons passer des WAFs traditionnels et des passerelles API aux contrôles de sécurité dédiés pour les flux de travail LLM et AI agents.
Les ingénieurs de cybersécurité développent une nouvelle race d’outils de sécurité conçus spécifiquement pour s’asseoir entre les utilisateurs et les modèles d’IA, inspectant non seulement les modèles de trafic, mais aussi l’intention et le contexte.
Akamai a présenté son pare-feu pour l’IA à RSA 2025 comme l’un de ces outils qui a aidé à signaler 6% de plus de 100 000 demandes faites sur la plate-forme d’un client précoce comme «risqué». Les demandes risquées comprenaient des fuites de données sensibles, des réponses toxiques et des tentatives d’injection rapides.
Le lancement suscite des discussions sur le besoin de passer des WAFs et des passerelles API traditionnels aux contrôles de sécurité dédiés pour les flux de travail LLM et AI agentiques.
Les outils de sécurité traditionnels ont du mal à suivre car ils se heurtent constamment à des menaces introduites par les LLM et les systèmes d’IA agentiques que les défenses héritées n’étaient pas conçues pour s’arrêter. De l’injection rapide vers l’extraction du modèle, la surface d’attaque des applications d’IA est uniquement bizarre.
«Les outils de sécurité traditionnels comme les WAF et les passerelles API sont largement insuffisants pour protéger les systèmes d’IA génératifs, principalement parce qu’ils ne pointent pas, lisent et se croisent avec les interactions de l’IA et ne savent pas comment les interpréter», a déclaré Avivah Litan, analyste de VP distingué, Gartner.
Les menaces d’IA pourraient être zéro-jour
Les systèmes et applications d’IA, bien que extrêmement capables d’automatiser les flux de travail commerciaux et les routines de détection et de réponse des menaces, apportent leurs propres problèmes au mélange, les problèmes qui n’étaient pas là auparavant. Les menaces de sécurité sont passées à partir d’injections SQL ou d’exploits de scripts inter-sites vers des manipulations comportementales, où les adversaires font des modèles en fuite de données, en contournant des filtres ou en agissant de manière imprévisible.
Le Litan de Gartner a déclaré que si les menaces d’IA comme les extractions de modèles existent depuis de nombreuses années, certains sont très nouveaux et difficiles à aborder. «Les États-nations et les concurrents qui ne respectent pas les règles ont été des modèles d’IA à la pointe de la technologie que d’autres ont créés depuis de nombreuses années.»
« Les menaces spécifiques au Genai telles que l’injection rapide sont nouvelles et pas encore courantes pour autant que nous le sachions », a-t-elle ajouté. « Le problème est que nous ne savons pas ce que nous ne savons pas – et si les entreprises ne mettent pas les outils pour rechercher ces menaces, ils peuvent ne pas être conscients de la façon dont ce nouveau vecteur de menace est exploité. »
John Grady, analyste principal chez Enterprise Strategy Group (ESG), a toutefois souligné que ces menaces sont très réelles et présentes. « Nous avons vu des exemples de ces types d’attaques contre des applications publiques Genai comme Chatgpt / Openai, donc ils ne sont pas hypothétiques », a-t-il déclaré. «De nombreuses entreprises progressent rapidement avec des applications construites en interne en tirant parti de l’IA, ce qui va être un problème croissant à mesure que ces applications sont développées et deviennent accessibles au public ou à un usage interne dans l’organisation.»
Les deux ressentent fortement le besoin d’un lot distinct d’outillage de sécurité destiné aux systèmes d’IA génératifs, en raison de l’incapacité des invites traditionnelles à comprendre ou à filtrer les invites en langage naturel, ou à appliquer les garde-corps pour les réponses.
Pare-feu pour l’IA à la rescousse
Répondant à l’appel à une protection adaptative et au contexte que la sécurité de l’IA implique, le pare-feu d’Akamai pour les offres d’IA pour analyser et répondre aux menaces auxquelles les applications d’IA, les LLM et les API dirigés par l’IA. La solution revendique la détection des menaces d’IA en temps réel, ainsi que les caractéristiques d’atténuation des risques telles que le filtrage des sorties d’IA pour prévenir le contenu toxique, les hallucinations et les fuites de données non autorisées.
«Nous pensons que toutes les entreprises mondiales auront besoin d’outils de sécurité spécifiques aux interactions LLMS et IA», a déclaré Rupesh Choksi, vice-président principal et directeur général de la sécurité des applications, Akamai. «Les WAF restent fondamentaux, mais l’IA introduit une nouvelle classe de menaces qui nécessitent une protection spécialisée.»
Selon lui, quelques premiers adoptants du pare-feu d’Akamai pour l’IA, qui ont déclaré qu’ils n’avaient pas utilisé l’IA dans leur entreprise, ont découvert de nombreux appels d’API passés aux LLM dans une exécution de preuve de concept (POC).
Pesant sur l’offre, Grady a déclaré: «Des solutions comme celle-ci sont destinées au Genai utilisées pour les applications développées en interne. Je pense qu’il est naturel de s’attendre à ce que, au fil du temps, ces capacités deviendront étroitement intégrées, sinon complètement incorporées dans les outils de sécurité des applications traditionnelles telles que WAF.»
Un passage vers une pile de sécurité dédiée?
En parlant de la direction générale que la sécurité de l’IA est dirigée, Grady d’ESG a déclaré: «L’espace d’IA se déplace si rapidement, est si différent et représente à la fois une opportunité et un risque significatifs. rien d’autre. «
Litan, lui aussi, ne voit pas de telles offres former un marché de sécurité autonome. «Je le vois comme une fonctionnalité incrémentielle et importante que les fournisseurs de sécurité existants doivent construire ou acquérir pour rester pertinents et compétitifs.»
Outre Akamai, nous avons déjà vu une poignée de mouvements stratégiques axés sur la sécurité de l’IA, comme Palo Alto à acquérir Protect-AI pour lutter contre les risques de sécurité spécifiques à l’IA, et Cisco acquérir des renseignements robustes pour améliorer la protection des menaces et la visibilité du trafic IA.
Récemment, des fournisseurs comme Zscaler et SecUriti ont également ajouté des fonctionnalités nativement ajoutées à la sécurisation des flux de travail de l’IA.
Grady et Litan ont convenu de l’impact positif que les changements réglementaires de l’IA, comme la loi sur l’IA de l’UE, devraient avoir sur la demande de ces types d’outils. «Les secteurs réglementés comme la finance et les soins de santé sont déjà régis par des lois strictes sur la confidentialité des données (par exemple, l’ACRC, PCI DSS), et nous verrons l’adoption accélérée (de ces outils) dans ces industries pour éviter les risques juridiques et de réputation», a ajouté Litan.