1,5 million d’agents d’IA risquent de devenir des voyous

Lucas Morel

Une enquête auprès de grandes entreprises aux États-Unis et au Royaume-Uni révèle que plus de la moitié des agents déployés ne sont pas activement surveillés ou sécurisés.

Une étude publiée mercredi par Gravitee, fournisseur de plateforme de gestion d’API, indique que plus de la moitié des trois millions d’agents actuellement utilisés par les organisations aux États-Unis et au Royaume-Uni « ne sont pas gouvernés et risquent de devenir des voyous ».

Basés sur une enquête menée en décembre 2025 par Opinion Matters auprès de 750 responsables et praticiens informatiques, les résultats ont révélé que les agents d’IA sont déployés plus rapidement que les équipes de sécurité ne peuvent suivre. Il y a, a déclaré Rory Blundell, PDG de Gravitee, plus de trois millions d’agents d’IA opérant au sein des entreprises, qu’il a décrit comme un effectif plus important que l’ensemble des employés mondiaux de Walmart.

Le chiffre de trois millions est basé sur une extrapolation des résultats d’une enquête, basée sur des estimations gouvernementales portant sur 8 250 entreprises britanniques et 77 000 entreprises américaines employant 250 salariés ou plus. Le nombre moyen d’agents IA déployés par entreprise est de 36,9, et lorsqu’on a demandé aux personnes interrogées si leur organisation « avait subi ou soupçonné un incident de sécurité ou de confidentialité des données lié aux agents IA au cours des 12 derniers mois », 88 % ont répondu par l’affirmative.

Le pourcentage moyen d’agents qui ne sont pas activement surveillés et sécurisés, selon les résultats, était de 53 %

Lorsqu’on lui a demandé ce qui avait motivé l’étude, Blundell a écrit dans un e-mail : « Nous connaissons tous des histoires d’agents d’IA devenus voyous : suppression de bases de code, fuite d’informations confidentielles, invention de fausses données. L’hypothèse de travail qui a motivé cette recherche était que, même si le déploiement d’agents atteint une étape passionnante, les entreprises n’ont pas encore rattrapé leur retard en matière de gouvernance des agents. La recherche le valide. »

Un problème mondial

Les agents, a-t-il déclaré, « peuvent offrir aux entreprises un énorme gain de productivité, mais nous devons être réalistes quant aux risques : sans gouvernance et sans surveillance, ils peuvent facilement commencer à devenir des responsabilités et un danger pour les consommateurs comme pour les entreprises ».

En outre, a déclaré Blundell, bien que les personnes interrogées viennent uniquement du Royaume-Uni et des États-Unis, « il s’agit d’un problème absolument mondial. Les entreprises du monde entier utilisent des agents d’IA et, de manière générale, il existe un écart entre le niveau de déploiement et le niveau de gouvernance. Nous avons une solide base de clients dans l’UE, où nous constatons les mêmes problèmes. »

David Shipley, directeur de la société canadienne de formation et de sensibilisation à la sécurité Beauceron Security, a déclaré : « la seule chose qui me choque, c’est que les gens pensent que seulement 53 % des agents ne sont pas surveillés. C’est plus élevé. »

Il a comparé les résultats de l’étude Gravitee à « une leçon sur le Titanic que tout le monde dans le domaine de la technologie continue d’ignorer. La catastrophe du Titanic ne s’est pas produite parce qu’ils ne savaient pas qu’il y aurait des icebergs pendant le voyage. Ils savaient que c’était la haute saison des icebergs, ils savaient qu’ils allaient trop vite ».

Shipley a déclaré que le capitaine du navire et son équipage « pensaient qu’ils détecteraient (un iceberg); s’ils ne le faisaient pas et en heurtaient un, leurs contrôles technologiques les protégeraient pour les aider à récupérer ». Ils ont fait confiance aux soi-disant compartiments étanches qui, en fin de compte, n’étaient pas étanches au sommet, mais, plus important encore, ils ont fait confiance à la nouvelle technologie de communication sans fil qu’ils pouvaient utiliser pour appeler à l’aide en cas de problème. L’équivalent aujourd’hui : « Eh bien, l’informatique et la sécurité peuvent résoudre le problème si nous avons des problèmes avec nos agents. »

« C’est faux alors, c’est vraiment faux maintenant », a-t-il déclaré.

Il a déclaré : « Nous savons que les agents d’IA sont intrinsèquement dangereux et peu fiables. Il existe littéralement des preuves mathématiques qui le montrent. Nous savons donc qu’il existe des icebergs. Permettez-moi de répéter ceci pour ceux qui sont au fond de la salle : 100 % des agents d’IA ont le potentiel de devenir malveillants. Si un fournisseur vous assure que ce n’est pas possible et que sa technologie de base est un LLM, il ment. Nous savons que nous allons trop vite dans l’adoption pour les risques que nous connaissons. »

Shipley a ajouté : « Maintenant, ce qui est amusant : imaginez si le Titanic faisait toujours les choix qu’il a fait, sachant que les compartiments étanches ne fonctionnent pas (c’est-à-dire que la surveillance manque pour 53 % des agents IA), nous savons qu’au moment où l’informatique et la sécurité prennent le risque d’un agent IA, le mal est fait (le navire coule trop vite et la radio ne va pas aider parce que l’aide sera trop tard). Et nous avons quand même fait les choix que nous faisons.  »

Le vrai problème est l’IA invisible, pas l’IA malveillante

Manish Jain, directeur de recherche principal chez Info-Tech Research Group, a déclaré qu’à mesure que la vitesse « exponentielle » du développement de l’IA se poursuit, son entreprise, sur la base des expériences des DSI et des CDO, prédit qu’il y aura plus d’agents d’IA dans le monde d’ici 2028 que le nombre d’employés humains. « Ce serait l’un des plus grands défis pour les dirigeants d’entreprise et informatiques de les gouverner sans restreindre l’innovation que ces agents d’IA apportent avec eux », a-t-il déclaré.

Même aujourd’hui, a-t-il noté, « nous constatons que la plupart des agents d’IA d’entreprise fonctionnent sans surveillance. De nombreuses organisations ne savent même pas combien d’agents elles ont, où ils travaillent, ou ce qu’elles peuvent toucher. Si vous ne savez pas combien de mules se trouvent dans la grange, ne soyez pas surpris quand on enfonce la porte. »

Jain a souligné que les agents IA ne sont pas différents. « Les agents disparus émergent souvent grâce à des outils low-code sanctionnés et à des expérimentations informelles, contournant l’examen informatique traditionnel jusqu’à ce que quelque chose se brise. Vous ne pouvez pas gouverner ce que vous ne pouvez pas voir. Nous devons donc comprendre que le véritable problème n’est pas une « IA malveillante », mais une IA invisible. »

Info-Tech, a-t-il ajouté, « croit fermement que gouverner les modèles d’IA ou pré-approuver les agents ne suffit plus, car des agents invisibles et voyous feront le tandava (la danse de la destruction) au moment de l’exécution. En effet, lorsqu’il s’agit de gouverner ces agents d’IA, le nombre est si énorme que les portes d’approbation ne seront pas durables sans arrêter l’innovation. La surveillance continue devrait être la priorité de la gouvernance de l’IA après avoir mis en place des garde-fous initiaux dans le cadre de la stratégie d’IA. « 

La perspective, a-t-il déclaré, doit également changer : « Les agents IA ne sont plus des robots utiles. Ils opèrent souvent avec des informations d’identification déléguées mais larges, un accès persistant et une responsabilité indéfinie. Cela peut devenir une erreur coûteuse car les agents trop privilégiés constituent la nouvelle menace interne. Nous devons définir un accès à plusieurs niveaux pour les agents IA. Même si nous ne pouvons pas éviter de donner les clés de notre maison à quelques personnes pour accélérer les choses, si vous confiez vos clés de maison à chaque étranger, nous ne pourrions pas blâmer le serrurier lorsque des choses disparaissent. « 

Intelligence artificielleGestion des risquesSécurité