Au-delà de la liste de contrôle : créer des cadres GRC adaptatifs pour l’IA agentique

Lucas Morel

Les listes de contrôle ne suffiront plus : l’IA évolue trop vite. GRC doit s’adapter en temps réel, comprendre l’intention de l’IA et tenir les humains informés.

Si vous êtes comme moi, vous remarquez un décalage effrayant au sein du conseil d’administration : la vitesse d’adoption de l’IA agentique dépasse largement la maturité de nos cadres de gouvernance, de risque et de conformité.

Nous avons passé des décennies à affiner la liste de contrôle GRC, à concevoir des politiques statiques et des audits annuels pour garantir la conformité. Cependant, lorsque j’examine la nouvelle génération d’agents d’IA autonomes et auto-optimisés actuellement déployés dans les domaines de la finance, de la logistique et des opérations, je me rends compte que notre approche traditionnelle est non seulement obsolète, mais également dangereuse. Cela donne aux responsables de la sécurité et des risques un faux sentiment de sécurité, tandis que les systèmes autonomes introduisent des risques complexes et émergents qui évoluent à la milliseconde.

Un récent rapport d’analyste de Gartner sur l’accélération des risques induite par l’IA, Top 10 des risques liés à l’IA pour 2025, confirme ce besoin urgent de changement. Le temps de la conformité statique est révolu. Nous devons construire un cadre GRC aussi dynamique et adaptatif que l’IA qu’il régit.

Quand la liste de contrôle échoue : trois risques autonomes

J’ai récemment vécu trois situations distinctes qui ont renforcé mon point de vue selon lequel la méthodologie « cocher la case » échoue complètement à l’ère agentique.

Dérive des agents autonomes

Premièrement, j’ai vécu une dérive d’agent autonome qui a failli provoquer une grave crise financière et de réputation. Nous avons déployé un agent sophistiqué chargé d’optimiser nos dépenses cloud et l’allocation de nos ressources dans trois régions, lui donnant ainsi un haut degré d’autonomie. Son mandat initial était clair, mais après trois semaines d’auto-apprentissage et d’optimisation continue, la stratégie émergente de l’agent consistait à déplacer brièvement les données sensibles des clients au-delà d’une frontière nationale non conforme afin de réaliser une économie de 15 % sur les coûts de traitement. Aucun humain n’a approuvé ce changement et aucun contrôle existant ne l’a signalé jusqu’à ce que j’exécute une analyse manuelle et rétrospective du flux de données. L’agent atteignait son objectif économique, mais il s’était complètement écarté de sa contrainte cruciale de conformité à la souveraineté des données, démontrant un écart dangereux entre l’intention politique et l’exécution autonome.

La difficulté d’auditer la prise de décision non linéaire

Deuxièmement, j’ai dû faire face à l’impossibilité du défi de l’auditabilité lorsqu’une chaîne d’agents coopérants a pris une décision dont je ne pouvais pas retracer. J’avais besoin de comprendre pourquoi une décision cruciale en matière de gestion de la chaîne d’approvisionnement avait été prise ; cela a entraîné un retard qui nous a coûté plusieurs milliers de livres sterling.

J’ai fouillé dans les journaux, m’attendant à une séquence claire d’événements. Au lieu de cela, j’ai trouvé une conversation confuse entre quatre agents d’IA différents : un agent d’approvisionnement, un agent logistique, un agent de négociation et un agent de profilage des risques. Chaque action était construite sur le résultat de la précédente, et même si je pouvais voir l’action finale enregistrée, je ne pouvais pas facilement identifier la cause profonde ou le contexte de raisonnement spécifique qui a initié la séquence. Notre système traditionnel d’agrégation de journaux, conçu pour suivre l’activité humaine ou un simple programme, était totalement inutile face à une décision collaborative non linéaire d’un agent.

Le manque de compétences de l’IA en matière d’ambiguïté peut affecter la conformité

Enfin, j’ai été confronté à la froide réalité d’un vide réglementaire où les règles de conformité existantes étaient ambiguës pour les systèmes autonomes. J’ai demandé à mon équipe de comparer nos exigences GRC actuelles en matière de criminalité financière à un nouvel agent de détection de fraude interne. La politique indiquait clairement qu’un analyste humain devait approuver « toute décision visant à signaler une transaction et à geler des fonds ». L’agent, cependant, a été conçu pour effectuer un micro-gel et l’isolement des actifs en attendant un examen, une distinction subtile mais significative qui tombait dans une zone grise.

J’ai réalisé que l’agent avait l’intention de suivre la règle, mais le moyen qu’il a utilisé – une restriction autonome et temporaire des actifs – constituait une violation non examinée de l’esprit de la réglementation. Nos anciens documents GRC ne parlent tout simplement pas le langage de l’autonomie.

Je propose que chaque agent soit mandaté pour générer et stocker un vecteur de contexte de raisonnement (RCV) pour chaque décision critique qu’il prend. Le RCV est un enregistrement cryptographique structuré des facteurs qui ont motivé le choix de l’agent. Il comprend non seulement les données entrées, mais également les paramètres spécifiques du modèle, les objectifs pondérés utilisés à ce moment-là, les contrefactuels considérés et, surtout, les contraintes GRC spécifiques auxquelles l’agent a accédé et appliqué au cours de sa délibération.

Cette approche transforme le processus d’audit. Lorsque je dois examiner un retard coûteux dans la chaîne d’approvisionnement, je ne parcoure plus des millions d’entrées de journaux. Au lieu de cela, j’interroge les RCV pour connaître la décision finale et je remonte le lien de causalité à travers la chaîne des agents coopérants, identifiant immédiatement quel agent a introduit la contrainte ou la logique qui a conduit au résultat indésirable.

Cette méthode permet aux auditeurs et aux enquêteurs d’examiner la logique du système plutôt que simplement le résultat, satisfaisant ainsi la demande de systèmes auditables et traçables alignés sur les normes internationales en développement.

Niveau deux : transfert contextuel

Si l’agent rencontre une zone grise GRC, comme dans mon scénario de criminalité financière, il doit initier un transfert sécurisé et asynchrone vers un analyste humain. L’agent fournit à l’humain le RCV complet, lui demandant une décision définitive sur la règle ambiguë. La décision humaine devient alors une nouvelle règle temporaire intégrée à la logique de l’agent, permettant au cadre GRC lui-même d’apprendre et de s’adapter en temps réel.

Nous entrons dans une ère où nos systèmes agiront en notre nom avec peu ou pas d’intervention humaine. Ma priorité – et la vôtre – doit être de garantir que l’autonomie de l’IA ne se traduise pas par une absence de responsabilité. J’exhorte tous les hauts responsables de la sécurité et des risques à mettre leurs équipes GRC actuelles au défi de regarder au-delà de la liste de contrôle statique. Construisez un cadre adaptatif aujourd’hui, car les agents opérationnalisent déjà les risques de demain.

Cet article est publié dans le cadre du Foundry Expert Contributor Network.
Voulez-vous nous rejoindre ?