Plus de 91% des entreprises sacrifient la sécurité du cloud hybride dans la ruée vers l’adoption de l’IA

Lucas Morel

De nouvelles données montrent qu’une augmentation des architectures de cloud IA et hybride crée des lacunes dangereuses et que les équipes de sécurité ne peuvent pas suivre.

Selon Gigamon, 91% des organisations admettent avoir fait des compromis sur la sécurité à risque dans leurs environnements de nuages ​​hybrides sous une souche croissante de l’influence croissante de l’IA. À mesure que l’adoption de l’IA surtension et les architectures hybrides se développent, les postures de sécurité restent dangereusement fragmentées.

Les taux de violation ont bondi de 17% en glissement annuel à 55%, en grande partie par des attaques alimentées par l’IA, selon l’étude, qui a interrogé plus de 1 000 dirigeants de sécurité et informatique aux États-Unis, au Royaume-Uni, en Allemagne, en France, en Australie et à Singapour. Parmi les principaux moteurs de ces compromis figurent une mauvaise qualité de données pour le déploiement de la charge de travail d’IA sécurisée (46%) et un manque de visibilité dans le mouvement du trafic est-ouest (47%).

Les coûts mondiaux de la cybercriminalité, atteignant 10,5 billions de dollars par an d’ici 2025, selon le Forum économique mondial, s’intensifie avec les menaces axées sur l’IA. Le rapport sur la violation du coût des données en 2024 d’IBM pèche les coûts moyens des incidents à 4,88 millions de dollars.

Le cloud public est désormais considéré comme la principale vulnérabilité de 70% des leaders de la sécurité. Plus de la moitié envisagent activement de rapatrient des données aux nuages ​​privés, tandis que 54% hésitent à déployer l’IA dans les nuages ​​publics en raison de craintes concernant les fuites de propriété intellectuelle et les lacunes de gouvernance, selon le Gigamon Survey.

La visibilité reste le point de douleur central. La majorité (55%) des dirigeants de la sécurité manquent de confiance dans la capacité de leurs outils à détecter les violations à travers une infrastructure fragmentée. En conséquence, 64% hiérarchisent la surveillance des menaces en temps réel grâce à une visibilité complète dans les données en mouvement, 89% jugeant une observabilité profonde fondamentale pour sécuriser les infrastructures de nuages ​​hybrides. Environ 83% des conseils ont déclaré que l’observabilité est maintenant en cours de discussion au niveau du conseil d’administration pour mieux protéger les environnements de nuages ​​hybrides.

« L’enquête de cette année signale un changement profond dans les priorités de gestion des risques, et le moment est venu de recalibrer la façon dont les infrastructures de nuages ​​hybrides sont sécurisées et gérées dans l’ère de l’IA », a déclaré Chaim Mazal, directeur de la sécurité de Gigamon dans le communiqué de presse. «L’observabilité profonde fournit que le recalibrage en combinant les données de journal traditionnelles avec une télémétrie dérivée du réseau, en donnant aux équipes de sécurité la clarté de voir à travers le trafic chiffré, de détecter les menaces alimentées par l’IA et de renforcer les défenses avant que le rayon de souffle ne se développe.»

« L’observabilité seule ne suffit pas », a déclaré Manish Ranjan, directrice de recherche pour Software & Cloud chez IDC EMEA. «Dans les environnements informatiques complexes d’aujourd’hui – en particulier avec les charges de travail distribuées sur l’IA – la sécurité doit être intégrée comme un pilier stratégique, soutenu par la gouvernance, non traité comme une réflexion après coup.»

L’IA aggrave en effet les lacunes de sécurité existantes. Les entreprises voient une augmentation des ransomwares alimentés par l’IA, de 41% en 2024 à 58% cette année – et 47% ont déjà rencontré des attaques ciblant spécifiquement les modèles de grandes langues (LLM). Mark Walmsley, CISO à Freshfields, a averti que «la sécurité de l’IA ne peut pas être une réflexion après coup», exhortant les entreprises à adopter une observabilité profonde et à repenser les stratégies du cloud public pour garder une longueur d’avance sur les menaces axées sur l’IA, conformément à la déclaration, selon le communiqué de presse.

L’impératif de sécurité de l’IA

Des cadres structurés émergent pour gérer les risques d’IA. «ISO / IEC 42001: 2023 est un plan pour la sécurité de l’IA», a déclaré Anuj Jain, directeur associé pour informatique de l’informatique chez Uhy James Advisory LLC. L’intégration standard contrôle entre les pipelines de données, la gouvernance des modèles et la résilience du système – vital pour atténuer les risques spécifiques à la LLM comme l’injection rapide et l’empoisonnement du modèle.

Selon Ranjan d’IDC, les organisations adoptent une approche mesurée de l’adoption de l’IA. «L’IA est toujours en train de mûrir et la qualité des données est un défi majeur, en particulier dans les secteurs réglementés comme le gouvernement, la banque, le pétrole et le gaz et les soins de santé», a déclaré Ranjan. «Plutôt que de se précipiter dans des déploiements à grande échelle, la plupart gèrent des pilotes et des initiatives de bac à sable, en s’appuyant fortement sur des partenaires technologiques et des écosystèmes pour obtenir des conseils.»

L’IA étant prévu pour stimuler les volumes de trafic sans précédent et approfondir la complexité des infrastructures, les experts s’accordent: le cloud hybride ne disparaît pas – mais la sécuriser exige la visibilité, la gouvernance et l’intégration profonde entre la stratégie et les opérations.