Il est conseillé aux CISO d’appliquer la même discipline d’évaluation à l’IA que dans toute autre application de l’entreprise.
Presque toutes les organisations utilisent une plate-forme d’IA ces jours-ci. Les modèles de grandes langues (LLM) sont soit intégrés dans les applications existantes, avec de nouvelles applications, sont essayées par les employés ou sont sélectionnées pour l’ajout dans les flux de travail.
Cependant, avertissez les experts en cybersécurité, ces modèles doivent être choisis en pensant à la gestion des risques, comme toute autre application, quel que soit le battage médiatique ou la pression du PDG.
Lorsqu’un CISO choisit un modèle d’IA pour son organisation, des politiques, des procédures et des contrôles technologiques importants sont nécessaires, ainsi qu’une analyse des risques, a déclaré Joseph Steinberg, un expert américain en cybersécurité, en IA et en confidentialité.
« Mais », a-t-il noté, « de nombreuses organisations ont très peu investi dans l’un de ces trois domaines, choisissant plutôt d’ignorer l’ampleur des problèmes de sécurité créés par les LLM. »
« Un point critique pour les CISO à considérer est que, quel que soit le nombre de violations de sécurité, il y a le problème de la fuite des données via les invites elles-mêmes », a-t-il déclaré. «Les utilisateurs de l’IA peuvent partager par inadvertance des informations privées via leurs invites – et les personnes qui le font peuvent ne pas avoir la moindre idée qu’ils le font. Par exemple, si 10 personnes provenant d’adresses IP appartenant à une organisation particulière commencent à poser des questions techniques d’IA sur une technologie particulière, ou sur la façon de mettre en œuvre certains types de fonctionnalités.
La recherche trouve plus de risques de sécurité
Les chercheurs de CyberNews affirment que cinq des 10 modèles d’IA qu’ils ont examinés, en utilisant des informations accessibles au public, avaient des dizaines de B ou moins pour le risque. Les cinq autres, dont l’anthropique, le cohere et le Mistral, ont été jugés à faible risque.
Deux acteurs majeurs, OpenAI et 01.ai, ont reçu un score D, indiquant un risque élevé, tandis que l’inflexion AI a marqué un F, un risque de sécurité critique.
De plus, cinq des 10 fournisseurs avaient enregistré des violations de données, ont indiqué les chercheurs. Ils ont déclaré qu’Openai aurait subi le plus de violations, avec 1 140 incidents, dont une fuite de données récents neuf jours seulement avant la réalisation de l’analyse. Perplexity AI aurait connu une violation 13 jours plus tôt, ont déclaré les chercheurs, avec 190 titres de compétences en entreprise compromis.
Nous avons également envoyé un e-mail à l’inflexion AI pour commentaires. Aucune réponse n’a été reçue au moment de la presse.
A demandé des commentaires sur l’histoire de CyberNews, Robert T. Lee, chef de la recherche au Sans Institute, a déclaré dans un e-mail que «la plupart des LLM ne peuvent pas réussir un test de reniflement de sécurité». Se référant aux cotes des fournisseurs de CyberNews AI, il a déclaré que «DS et FS, plus les infractions chaque semaine, vous disent tout ce que vous devez savoir – la sécurité n’est même pas sur la feuille de route.»
Conseils aux OSC
- Données de formation: déterminer où le modèle a obtenu ses informations. Les captures sur le Web aléatoire exposent vos secrets;
- Historique rapide: Si vos questions restent sur leurs serveurs, ils se présenteront dans le prochain bulletin de violation;
- Informations d’identification: Les clés d’API volées et les mots de passe faibles gardent les attaquants nourris. Poussez pour le MFA (authentification multifactor) et les alertes en temps réel;
- Infrastructure: Assurez-vous que TLS est serré, les patchs atterrissent sans délai et que les réseaux sont scellés. Les configurations à moitié cuites sont apparues;
- Contrôles d’accès: verrouiller les rôles, enregistrer chaque appel AI et diffuser les journaux dans SIEM / DLP. Shadow Ai est l’agresseur silencieux;
- Exercices d’incident: insister sur les notifications de violation immédiates. Pratiquez des scénarios de clé divulguée et d’injection rapide afin que vous ne vous précipitez pas lorsqu’il frappe le ventilateur.
« Traitez les LLM comme s’ils gardaient votre coffre-fort bancaire », a déclaré Lee. « Oubliez le battage médiatique. Mettez-les à travers la même vérification brutale que vous utiliseriez sur n’importe quel système critique de mission. Faites-le, et vous obtenez une AI à la hausse sans laisser la porte dérobée ouverte. »



