Les utilisateurs de l’entreprise divulguent des données d’entreprise sensibles grâce à l’utilisation d’applications généatives non autorisées et autorisées à des taux alarmants. Le branchement des fuites est essentiel pour réduire l’exposition aux risques.
Les fuites de données GEN AI des employés sont un cauchemar d’entreprise en devenir.
Selon un récent rapport sur la fuite de données GEN AI de l’harmonique, 8,5% des invites des employés aux LLM populaires comprenaient des données sensibles, présentant la sécurité, la conformité, la confidentialité et les préoccupations juridiques.
Harmonic, qui a analysé des dizaines de milliers d’invites à Chatgpt, Copilot, Gemini, Claude et Perplexity au cours du quatrième trimestre 2024, a révélé que les données des clients, y compris les informations de facturation et les données d’authentification, ont pris en compte la plus grande part de données divulguées à 46%. Ici, l’harmonique a mis en évidence les réclamations d’assurance comme un type de rapport répandant avec des données client qui est fréquemment entrée dans les outils de Gen IA par les employés pour gagner du temps dans le traitement.
Les données des employés, y compris les données de paie et les informations personnellement identifiables (PII), ont représenté 27% des invites sensibles, suivies de données juridiques et financières à 15%.
«Les informations liées à la sécurité, comprenant 6,88% des invites sensibles, sont particulièrement préoccupantes», selon le rapport. «Les exemples incluent les résultats des tests de pénétration, les configurations de réseau et les rapports d’incident. Ces données pourraient fournir aux attaquants un plan pour exploiter les vulnérabilités. »
Hors des ombres
La fuite générative des données de l’IA est un problème difficile – et une raison clé pour laquelle les stratégies de GEN-GEN EA II mettent les CISO dans une liaison stressante.
Enterprise LLM Use se transforme en trois grandes catégories: les services sanctionnés, y compris les implémentations agréées et développées en interne; Shadow AI, comprenant généralement des applications de qualité grand public gratuites interdites par l’entreprise pour une bonne raison; et semi-ombragée Gen Ai.
L’IA de l’ombre non autorisée est un problème principal pour les CISO, mais cette dernière catégorie est un problème croissant qui peut être le plus difficile à contrôler. Initiée par les chefs d’unité commerciale, l’IA semi-shadow peut inclure des applications de génération AI payantes qui n’ont pas reçu l’approbation informatique, enrôlé pour expérimentation, opportunité ou amélioration de la productivité. Dans de tels cas, l’exécutif peut s’engager dans l’ombre de l’informatique alors que les employés des entreprises ne le sont pas, ayant été invité à utiliser les outils par la direction dans le cadre de sa stratégie d’IA.
Les applications d’ombre ou semi-ombragées et génératrices gratuites sont les plus problématiques, car les termes de leur licence permettent généralement une formation sur chaque requête. Selon les recherches de Harmonic, l’utilisation de l’IA de niveau libre commande la part du lion de la fuite de données sensibles. Par exemple, 54% des invites sensibles ont été entrées sur le niveau gratuit de Chatgpt.
Mais la plupart des spécialistes des données découragent également les CISO de faire confiance aux promesses contractuelles des applications de Gen AI payantes, dont la plupart interdisent la formation sur les requêtes utilisateur dans les versions d’entreprise.
Robert Taylor, avocat du cabinet d’avocats de la propriété intellectuelle de Carstens, Allen & Gourley, donne l’exemple des secrets commerciaux. Diverses protections juridiques – en particulier les protections du secret commercial – peuvent être perdues si un employé demande à un système d’IA génératif une question qui révèle le secret commercial, a-t-il dit, ajoutant que les avocats protégeant la propriété intellectuelle ont souvent des questions d’équipe à poser des questions à un large éventail d’applications d’IA sur Trade secrets pour voir si des données interdites sont découvertes. Si c’est le cas, alors ils savent que quelqu’un l’a divulgué.
Si un concurrent apprend la fuite, il peut faire valoir devant le tribunal que la fuite invalide les protections juridiques du secret commercial. Selon Taylor, les avocats du propriétaire de l’IP doivent alors prouver que l’entreprise a déployé un large éventail de mécanismes pour protéger le secret. S’appuyer sur les dispositions d’un contrat qui ne promet aucune formation sur les requêtes génératrices de l’IA « n’est pas un niveau suffisant d’effort raisonnable », a déclaré Taylor.
« Ce serait une situation totale de circonstances », a-t-il déclaré. Les entreprises doivent déployer et appliquer strictement «des politiques qui limitent vos employés sur l’utilisation de ces données».
Pratiques soucieuses de données
Les CISO devraient travailler avec les chefs d’entreprise pour s’assurer que les employés sont formés sur les moyens d’obtenir les mêmes résultats des LLM sans utiliser de données protégées, a déclaré Jeff Pollard, vice-président et analyste principal chez Forrester. Cela nécessite plus de finesse avec des invites, mais il protège les informations sensibles sans diluer l’efficacité de la réponse générée de l’IA.
« Vous n’avez vraiment pas à révéler des informations sensibles afin de tirer un avantage positif du système, mais nous devons former les utilisateurs à comprendre les stratégies de phrasé de requête », a déclaré Pollard.
En ce qui concerne l’utilisation des employés d’outils d’IA gratuits plutôt que les applications payées sur l’entreprise, «Craquer les employés est la chose la plus évidente à faire, mais la question principale est:« Pourquoi les employés le font-ils? », A demandé Arun Chandrasekaran, un vice-président distingué et analyste à Gartner.
«Les employés le font parce que cela ne leur fournit pas les outils dont ils ont besoin», a-t-il soutenu.
Les CISO devraient souligner cela vers leurs homologues C-suite pour aider à appliquer que les outils d’IA à l’échelle de l’entreprise devraient être «vraiment utilisables», a-t-il déclaré.
Malheureusement, avec une IA générative, le Genie est déjà hors de la bouteille, selon Kaz Hassan, communauté de marketing de communauté et partenaire senior chez Software Vendor Uily.
« L’utilisation de l’IA par les employés a dépassé la capacité des équipes informatiques à se rattraper », a-t-il déclaré. «Les équipes informatiques savent que la situation n’est pas formidable, mais ne pas être en mesure de casser les communications, la culture ou la stratégie de l’équation pour avoir un impact.»
Hassan a ajouté: « Un nouveau plan est nécessaire, et les organisations ont maintenant besoin de stratégies d’IA claires pour réduire les risques, et ils doivent faire un suivi avec l’IA tissé dans la pile technologique des employés. »
Les applications typiques de surveillance et de contrôle manquent le point de fuite de données, a-t-il affirmé.
«Les utilisateurs de puissance traitent les données sensibles via des outils d’IA non autorisés non pas parce qu’ils ne peuvent pas être contrôlés, mais parce qu’ils ne seront pas ralentis. L’ancien livre de jeu de restriction et protection n’est pas seulement échoué – il pousse activement l’innovation de l’IA dans l’ombre », a déclaré Hassan. «Les CISO doivent faire face à cette réalité: soit diriger la transformation de l’IA, soit regarder leur périmètre de sécurité se dissoudre.»
Hassan a souligné que le problème de données de l’IA génératrice va dans deux directions: les données sensibles partant via des requêtes et des données défectueuses – soit via des hallucinations, soit avoir été formé sur des informations incorrectes – en arrivant dans l’entreprise via des réponses génératives sur l’IA sur laquelle votre équipe s’appuie pour l’analyse d’entreprise.
« Les CISO d’aujourd’hui ne devraient pas se contenter de s’inquiéter des données sensibles qui sortent », a déclaré Hassan. «Ils devraient également être préoccupés par le fait que les mauvaises données entrent.»