Gardez les navigateurs IA hors de votre entreprise, prévient Gartner

Lucas Morel

Ils sont déjà utilisés mais peuvent entraîner une perte de données « irréversible et intraçable », selon les analystes.

Les navigateurs IA, notamment Perplexity Comet et ChatGPT Atlas d’OpenAI, présentent des risques de sécurité qui ne peuvent pas être atténués de manière adéquate, et les entreprises devraient empêcher leurs employés de les utiliser, selon Gartner.

« Gartner recommande fortement aux organisations de bloquer tous les navigateurs IA dans un avenir prévisible en raison des risques de cybersécurité », ont écrit les analystes Dennis Xu, Evgeny Mirolyubov et John Watts dans une note de recherche la semaine dernière. Ils ont fait leur recommandation sur la base des risques qu’ils avaient déjà identifiés, « et d’autres risques potentiels qui restent encore à découvrir, étant donné qu’il s’agit d’une technologie très naissante ».

L’avertissement arrive à point nommé, car les navigateurs IA prennent déjà pied dans les entreprises : 27,7 % des organisations ont déjà au moins un utilisateur sur lequel Atlas est installé, et certaines entreprises voient jusqu’à 10 % de leurs employés utiliser activement le navigateur, a déclaré la société de cybersécurité Cyberhaven en octobre. L’étude révèle que les taux d’adoption sont les plus élevés dans l’industrie technologique (67 %), les produits pharmaceutiques (50 %) et la finance (40 %), tous des secteurs ayant des exigences de sécurité accrues.

ChatGPT Atlas, lancé le 21 octobre, a enregistré 62 fois plus de téléchargements d’entreprise que Perplexity Comet, publié le 9 juillet, selon Cyberhaven. Le lancement d’Atlas a également suscité un regain d’intérêt pour les navigateurs IA dans leur ensemble, les téléchargements de Comet ayant été multipliés par six au cours de la même semaine.

Mais des inquiétudes ont été soulevées immédiatement après le lancement de ChatGPT Atlas concernant la menace posée par les navigateurs IA, les analystes soulignant des vulnérabilités d’injection rapide et des problèmes de sécurité des données.

Données sensibles menacées

La raison pour laquelle les navigateurs IA sont préoccupants est que lorsqu’ils envoient du contenu Web actif, l’historique de navigation et le contenu des onglets ouverts vers le cloud pour analyse, les entreprises perdent le contrôle de leurs données.

La documentation de Perplexity, par exemple, prévient que « Comet peut traiter certaines données locales en utilisant les serveurs de Perplexity pour répondre à vos requêtes. Cela signifie que Comet lit le contexte sur la page demandée (comme le texte et le courrier électronique) afin d’accomplir la tâche demandée. « 

Mirolyubov, analyste principal chez Gartner, a déclaré : « Le vrai problème est que la perte de données sensibles au profit des services d’IA peut être irréversible et introuvable. Les organisations peuvent ne jamais récupérer les données perdues. »

Ce n’est pas seulement l’endroit où les navigateurs envoient vos données pour traitement qui pose problème ; c’est ce qu’ils font en conséquence : « Les transactions agents erronées soulèvent des problèmes de responsabilité en cas d’erreurs coûteuses », a-t-il déclaré.

Contrôles traditionnels inadéquats

Les navigateurs IA peuvent naviguer de manière autonome sur des sites Web, remplir des formulaires et effectuer des transactions tout en étant authentifiés auprès des ressources Web. Comme lui et ses collègues l’ont écrit dans leur rapport, cela rend les navigateurs IA vulnérables à de nouveaux risques de cybersécurité, « tels que des actions d’agents malveillants induites par une injection indirecte, des actions d’agent erronées basées sur un raisonnement inexact, et une perte et un abus supplémentaires des informations d’identification si le navigateur IA est trompé en naviguant de manière autonome vers un site Web de phishing. »

« Les contrôles traditionnels sont inadéquats face aux nouveaux risques introduits par les navigateurs IA, et des solutions commencent seulement à émerger », a déclaré Mirolyubov. « Il existe une lacune majeure dans l’inspection des communications multimodales avec les navigateurs, y compris les commandes vocales vers les navigateurs IA. »

L’injection rapide reste une préoccupation particulière, a reconnu Dane Stuckey, RSSI d’OpenAI, dans un message sur X, anciennement Twitter, le lendemain du lancement de ChatGPT Atlas : « L’injection rapide reste un problème de sécurité frontalier et non résolu, et nos adversaires consacreront beaucoup de temps et de ressources pour trouver des moyens de faire tomber les agents ChatGPT dans le piège de ces attaques.

Les vulnérabilités découvertes mettent en évidence l’immaturité

Au-delà des risques théoriques, des failles de sécurité concrètes sont apparues dans les deux principaux navigateurs d’IA. Quelques jours après le lancement de ChatGPT Atlas, les chercheurs ont découvert qu’il stockait les jetons OAuth non chiffrés avec des paramètres de fichiers trop permissifs sur macOS, permettant potentiellement un accès non autorisé aux comptes d’utilisateurs. La vulnérabilité a été documentée par le groupe de recherche en sécurité Teamwin le 27 octobre.

OpenAI n’avait pas publié de correctif au 31 octobre, date à laquelle Gartner a terminé ses recherches.

Par ailleurs, la société de cybersécurité LayerX Security a signalé en août la découverte d’une vulnérabilité dans Comet appelée « CometJacking » qui pourrait potentiellement exfiltrer les données des utilisateurs vers des serveurs contrôlés par des attaquants.

OpenAI et Perplexity n’ont pas immédiatement répondu aux demandes de commentaires.

Des années, pas des mois, pour mûrir

Les vulnérabilités découvertes mettent en évidence des préoccupations plus larges concernant la maturité de la technologie des navigateurs IA. « La sécurité et la confidentialité doivent devenir des principes de conception fondamentaux plutôt que des réflexions après coup », a déclaré Mirolyubov. Les fournisseurs de navigateurs IA doivent intégrer dès le départ des contrôles de cybersécurité de niveau entreprise et assurer une plus grande transparence concernant les flux de données et les décisions agents, a-t-il déclaré.

Les solutions émergentes de contrôle de l’utilisation de l’IA prendront probablement « quelques années plutôt que quelques mois » pour mûrir, a-t-il déclaré. « Il est peu probable qu’il soit possible d’éliminer tous les risques : les actions erronées des agents d’IA resteront une préoccupation. Les organisations ayant une faible tolérance au risque devront peut-être bloquer les navigateurs d’IA à plus long terme. »

Les organisations ayant une tolérance au risque plus élevée et souhaitant expérimenter devraient limiter les projets pilotes à de petits groupes s’attaquant à des cas d’utilisation à faible risque faciles à vérifier et à annuler, indique le rapport Gartner. Les utilisateurs doivent « toujours surveiller de près la façon dont le navigateur AI navigue de manière autonome lorsqu’il interagit avec les ressources Web ».

Pour l’instant, a déclaré Gartner, les organisations devraient bloquer les installations de navigateurs IA en utilisant les contrôles de sécurité des réseaux et des points de terminaison existants et revoir leurs politiques en matière d’IA pour garantir qu’une large utilisation des navigateurs IA est interdite.

« Aujourd’hui, la plupart des équipes de cybersécurité choisissent de bloquer les navigateurs IA, retardant ainsi leur adoption jusqu’à ce que les risques soient mieux compris et que les contrôles soient plus matures », a déclaré Mirolyubov.

Cet article a été publié pour la première fois sur Computerworld.

Intelligence artificielleSécurité du navigateurProtection des points de terminaisonSécurité