Les stratégies de Gen AI placent les RSSI dans une situation de stress

Lucas Morel

Les dirigeants font pression de manière agressive pour toutes sortes de déploiements et d’expérimentations de la génération AI, même s’ils connaissent les risques – et les RSSI se retrouvent avec le sac de la gestion des risques.

Les perceptions des cadres supérieurs quant aux promesses de l’IA générative s’avèrent être un chant de sirène pour de nombreux RSSI.

Selon une enquête récente de NTT Data, 89 % des dirigeants « sont très préoccupés par les risques de sécurité potentiels associés aux déploiements de la génération IA ». Mais, selon le rapport, ces mêmes hauts dirigeants estiment que « les promesses et le retour sur investissement de la génération IA l’emportent sur les risques » – une situation qui peut faire du RSSI le seul porte-parole en matière de gestion des risques.

Et cela pourrait avoir des conséquences néfastes, car près de la moitié des RSSI d’entreprise « ont des sentiments négatifs » à l’égard de l’IA générative, se sentant « sous pression, menacés et dépassés », selon l’enquête.

Le conflit est assez familier. Les cadres supérieurs font pression sur les chefs de secteur d’activité pour qu’ils adoptent une nouvelle technologie afin de tirer parti des gains d’efficacité et d’améliorer les résultats. Mais l’IA générative est une activité risquée – sans doute plus risquée que n’importe quelle technologie à ce jour. Il hallucine, contourne les garde-fous, met en péril la conformité et engloutit les données sensibles de l’entreprise. Et il est rapidement adopté par les entreprises sans un renforcement adéquat de la sécurité, tout en étant poussé par les fournisseurs qui privilégient la fonctionnalité plutôt que la sécurité.

« Nous sommes dans le Far West, avec de nombreuses applications d’IA et un large choix de modèles de langage, ce qui rend difficile le contrôle de ce qui est sécurisé. Il existe également des applications masquées pour paraître légitimes, mais qui constituent des stratagèmes visant à exfiltrer des données et à faciliter les ransomwares », a déclaré Will Townsend, vice-président et analyste principal chez Moor Insights & Strategy. « L’inquiétude concernant les fuites de données est réelle. Nous constatons déjà que cela se produit avec des attaques par injection rapide introduisant du code malveillant.

L’un des problèmes les plus problématiques auxquels sont confrontés les RSSI en matière d’IA de génération est la désinvolture de nombreux fournisseurs d’IA de génération lors de la sélection des données utilisées pour former leurs modèles, a déclaré Townsend. « Cela crée un risque de sécurité pour l’organisation. »

Jim Routh, leader vétéran de la sécurité, qui a occupé des postes de RSSI chez Mass Mutual, CVS, Aetna, KPMG, American Express et JP Morgan Chase, a déclaré que la pénétration de l’IA générative dans les solutions SaaS rend cela plus problématique.

« La surface d’attaque de la génération AI a changé. Auparavant, il s’agissait d’utilisateurs d’entreprise utilisant des modèles de base fournis par les plus grands fournisseurs. Aujourd’hui, des centaines d’applications SaaS intègrent des LLM qui sont utilisés dans toute l’entreprise », a déclaré Routh, qui est aujourd’hui directeur de la confiance chez le fournisseur de sécurité Saviynt. « Les ingénieurs logiciels disposent de plus d’un million de LLM open source sur HuggingFace.com. »

Robert Taylor, un avocat spécialisé dans les stratégies juridiques en matière d’IA et de cybersécurité et qui est of counsel chez Carstens, Allen & Gourley, un cabinet d’avocats en propriété intellectuelle basé à Dallas, a déclaré qu’il voyait un thème commun à tous les niveaux au sein des organisations de toutes tailles.

« Ils ne savent pas ce qu’ils ne savent pas. Au moins, les RSSI sont déjà prêts à réfléchir aux risques et à avoir une idée des risques de sécurité posés par l’IA », a déclaré Taylor. « Mais l’IA s’accompagne de nombreux nouveaux risques de sécurité qu’ils tentent de maîtriser. Des projets sont en cours pour tenter d’évaluer les nombreux types de risques de sécurité liés à la génération IA. J’ai entendu des catégories de risques de sécurité allant de plusieurs centaines à bien plus d’un millier de types de risques de sécurité.

Tout cela peut avoir des conséquences psychologiques sur les RSSI, a supposé Townsend. « Quand ils se sentent dépassés, ils se ferment », a-t-il déclaré. « Ils font ce qu’ils pensent pouvoir et ils ignoreront ce qu’ils estiment ne pas pouvoir contrôler. »

Un problème qui s’accélère

Pendant ce temps, alors que les hauts dirigeants avancent, laissant leurs RSSI submergés par les risques, les attaquants agissent rapidement.

« Les acteurs malveillants s’efforcent fébrilement d’exploiter ces nouvelles technologies de manière malveillante. Les RSSI ont donc raison de s’inquiéter de la manière dont ces solutions et systèmes d’IA de nouvelle génération peuvent être exploités », a déclaré Taylor. « Les solutions Gen AI ne sont pas des logiciels et des services traditionnels et présentent certaines vulnérabilités que les autres technologies n’ont pas à gérer. »

Pire encore, affirme Taylor, les risques liés à la génération IA sont plus flous et plus changeants que les risques technologiques traditionnels.

« La génération AI continue de se transformer après le déploiement, ce qui crée de nouvelles opportunités de risques de sécurité tels que l’injection rapide, l’empoisonnement des données et l’extraction d’informations confidentielles ou PII » à partir des informations partagées avec la génération AI, a déclaré Taylor.

Jeff Pollard, vice-président et analyste principal chez Forrester, a souligné que la sécurité rapide, en particulier, « est immédiate et nécessaire si l’organisation dispose d’invites adressées aux clients – ou aux employés mais ayant un impact sur les clients – qui pourraient conduire à un accès non autorisé aux données ou à un accès non autorisé aux données. divulgation. »

Et le problème, a déclaré Pollard, va s’aggraver – rapidement. « Il est important d’apprendre dès maintenant à les sécuriser, car il s’agit de la première version de l’IA générative susceptible d’être déployée à grande échelle en entreprise. L’IA agentique arrive bientôt – si elle n’est pas déjà là et cela nécessitera ces contrôles et bien plus encore pour être correctement sécurisé.