Lors de Cloud Next ’26, Google a présenté des agents de sécurité basés sur l’IA, une protection multicloud basée sur Wiz et de nouveaux contrôles pour sécuriser la surface d’attaque croissante de l’IA.
Google a dévoilé une vaste avancée vers une défense agentique basée sur l’IA lors de Google Cloud Next ’26 pour aider les analystes SOC alors qu’ils se démènent pour suivre l’afflux de CVE que menace le mythe.
Alors que Mythos promet de découvrir davantage de vulnérabilités logicielles, Google parie que seuls les agents, et non les analystes, pourront suivre le rythme de ce qui s’en vient.
Google a dévoilé de nouvelles fonctionnalités axées sur l’automatisation de la détection, l’accélération de la réponse et la sécurisation de l’intersection de plus en plus compliquée des écosystèmes de l’IA, du cloud et des tiers.
Dans ce cadre, le géant de la recherche a annoncé trois nouveaux agents dans les opérations de sécurité de Google, une sécurité étendue dans les cloud et les studios d’IA avec une intégration étendue de Wiz, et la plateforme d’agents Gemini Enterprise qui promet une couche de défense contre l’IA fantôme.
De plus, Google a déclaré qu’il travaillait à la simplification des autorisations avec un IAM moderne, ainsi qu’à une poignée d’améliorations de la sécurité Google Cloud.
Nouvel accent sur la défense agent
L’aide la plus directe de Google aux équipes SOC se présente sous la forme de trois nouveaux agents d’IA intégrés aux opérations de sécurité de Google. Il s’agit notamment d’un agent de chasse aux menaces, d’un agent d’ingénierie de détection et d’un agent contextuel tiers.
Alors que les agents d’ingénierie de chasse et de détection des menaces, tous deux désormais en préversion, visent respectivement à identifier de nouveaux modèles d’attaque et à combler les lacunes de détection, l’agent contextuel tiers, prêt à entrer en préversion, est conçu pour enrichir les enquêtes avec des renseignements externes.
Google a affirmé que son agent de tri et d’enquête existant avait déjà traité plus de cinq millions d’alertes, réduisant ainsi le temps d’analyse de 30 minutes à environ une minute grâce à Gemini.
Il existe également une tendance vers ce que Google appelle « l’automatisation agentique », où des actions de réponse peuvent être déclenchées automatiquement, associées à de nouvelles capacités d’intelligence du dark web (infusées dans Google Threat Intelligence) pour hiérarchiser les menaces réelles avec une grande précision.
Wiz, AI-BOM et sécurisation de l’expansion du développement de l’IA
Google a élargi son portefeuille Wiz pour faire face au chaos du développement de l’IA et aux risques multi-cloud.
Wiz se positionne comme le tissu conjonctif entre les environnements, prenant en charge tout, depuis AWS et Azure jusqu’aux plates-formes SaaS et aux studios d’agents d’IA. « Wiz prend désormais en charge Databricks ainsi que de nouveaux studios d’agents comme AWS Agentcore, Gemini Enterprise Agent Platform, Microsoft Azure Copilot Studio et Salesforce Agentforce, afin que les clients gagnent en visibilité quelle que soit la manière dont leurs équipes choisissent de construire », a déclaré Francis deSouza, COO, Google Cloud et président, Produits de sécurité.
D’autres nouvelles fonctionnalités issues de l’intégration prennent la forme d’une analyse en ligne du code généré par l’IA, d’intégrations directes dans les flux de travail des développeurs et d’une nomenclature IA (AI-BOM) qui inventorie tous les composants IA, y compris les modèles, les frameworks et les plugins IDE dans une organisation.
AI-BOM est conçu comme une réponse pratique à l’IA fantôme, offrant une visibilité sur les outils utilisés par les développeurs par rapport à ce qui est approuvé.
Sécuriser le Web agent
Google vise également à avoir une visibilité sur le plan dans lequel les agents d’IA interagissent de manière autonome entre les systèmes, ce qu’il appelle le « web agent ».
Pour résoudre ce problème, la société a introduit Agent Identity et Agent Gateway pour la gouvernance et l’application des politiques, ainsi que des intégrations plus approfondies pour Model Armor afin d’atténuer les risques tels que l’injection rapide et la fuite de données. Il existe également une approche retravaillée de la détection des robots et des fraudes via Google Cloud Fraud Defense, qui vise à faire la distinction entre les humains, les robots et les agents IA dans les flux de travail.



