Du code à la salle de réunion : une approche GenAI GRC des risques liés à la chaîne d’approvisionnement

Lucas Morel

GenAI GRC fait passer les risques de la chaîne d’approvisionnement de la paperasse à l’intelligence en temps réel, aidant ainsi les RSSI à détecter rapidement les problèmes et à maintenir le conseil d’administration concentré sur la résilience.

Je connais la pression à laquelle sont actuellement confrontés les responsables de la sécurité de l’information. Nous avons passé des années à renforcer notre propre périmètre, puis quelques années supplémentaires à gérer le risque lié aux fournisseurs tiers. Aujourd’hui, nous sommes confrontés à une menace existentielle provenant des quatrième, cinquième et nième parties d’une chaîne d’approvisionnement qui adopte discrètement et avec enthousiasme l’IA générative (GenAI).

Nous traitons la GRC de la chaîne d’approvisionnement comme un exercice de paperasse : un cycle de questionnaires trimestriels et de rapports de conformité. Mais voici la vérité cruciale : la GRC traditionnelle échoue face à la complexité de la chaîne d’approvisionnement pilotée par GenAI. Nos outils actuels ne nous disent que ce qui était vrai hier. La rapidité de mise en œuvre de GenAI et les nouveaux risques insidieux qu’elle crée, de l’empoisonnement des données de formation à l’adoption de l’IA fantôme, signifient qu’au moment où un RSSI lit un rapport de conformité, la défaillance systémique est déjà en marche.

C’est le manque de connaissances que je veux combler. Il est temps d’arrêter de gérer les risques liés au code avec des listes de contrôle et de commencer à gérer la résilience stratégique avec l’intelligence. Ma thèse centrale est claire : l’intégration de GenAI dans GRC (GenAI GRC) ne consiste pas à automatiser le remplissage de formulaires ; c’est la seule voie viable pour faire passer le risque de la chaîne d’approvisionnement d’un problème technique tactique (code) à un impératif stratégique surveillé en permanence et présenté au conseil d’administration. Nous avons besoin d’une défense active alimentée par la technologie même qui génère la menace.

Le vecteur d’attaque invisible : dérive du modèle et IA fantôme

Les nouvelles menaces les plus critiques dans notre chaîne d’approvisionnement étendue sont désormais entièrement numériques et presque invisibles aux contrôles traditionnels. Je ne parle pas d’une simple attaque de phishing ou d’un serveur non patché. Je parle des risques intégrés dans le tissu même des opérations de notre fournisseur grâce à l’adoption de GenAI.

Tout d’abord, considérons l’IA fantôme. Votre principal fournisseur de logiciels utilise un LLM public pour générer rapidement un nouveau code pour votre produit principal. Ils ne vous l’ont pas dit parce que cela accélérait leur délai de livraison. Mais désormais, les données de formation exclusives de ce modèle, potentiellement extraites de sources compromises, sont intégrées à votre environnement de production. Si un développeur tiers intègre du code non conforme provenant d’un LLM, votre entreprise est immédiatement exposée à des risques de propriété intellectuelle, de licence et de sécurité – des risques que les contrats de diligence raisonnable actuels ne peuvent tout simplement pas détecter (voir la discussion sur les responsabilités générées par l’IA dans le Journal of AI Risk).

Deuxièmement, nous devons reconnaître la dérive du modèle. La logique métier de base d’un fournisseur, comme la détection ou l’optimisation des fraudes, peut s’appuyer sur un modèle d’IA déployé. Au fil du temps, ce modèle peut dériver dans son comportement en raison de changements subtils dans son environnement opérationnel ou dans son flux de données, exposant potentiellement des données confidentielles ou introduisant des biais qui violent les nouvelles exigences réglementaires. Il s’agit d’un risque systémique subtil qu’un audit annuel ne peut pas détecter. Les RSSI doivent comprendre que la surface des risques liés à la chaîne d’approvisionnement est désormais fluide, définie par le comportement d’algorithmes externes, et non plus uniquement par des pare-feu externes.

Le mandat GenAI GRC : Du reporting à la prédiction

Pour contrer une menace qui évolue à la vitesse du calcul, notre GRC doit également devenir génératif et prédictif. Le mandat de GenAI GRC est de passer de la documentation de la conformité à la prévision des défaillances systémiques.

Les méthodes GRC actuelles sont conçues pour la documentation. Ils vérifient qu’une politique existe. GenAI GRC est conçu pour l’intelligence. Il vérifie qu’une politique est efficace et anticipe quand elle échouera. Je vois cela se produire de trois manières critiques :

1. Intelligence contextuelle

Nous devons utiliser des modèles de langage étendus (LLM) pour ingérer des données diverses et non structurées : rapports d’incidents de fournisseurs, fils d’actualités géopolitiques, discussions sur le Dark Web, indicateurs de santé financière et activité du référentiel de codes. Un LLM peut alors contextualiser ces signaux disparates plus rapidement que n’importe quelle équipe humaine, identifiant ainsi les corrélations de risques émergentes.

Par exemple, le LLM pourrait signaler qu’un fournisseur clé de semi-conducteurs confronté à des difficultés financières soudaines et voyant un volume élevé de validations de code open source non examinées présente un risque élevé et immédiat, un signal qui passerait inaperçu s’il était analysé de manière isolée, voir l’analyse de McKinsey sur l’IA pour la gestion des risques.

2. Surveillance continue

Nous devons mettre en œuvre un registre de confiance numérique. Il ne s’agit pas d’un grand livre de blockchain, mais d’un système conceptuel dans lequel GenAI note et quantifie en permanence le quotient de confiance de chaque fournisseur majeur. Ce quotient, exprimé sous forme de mesure de risque dynamique, est calculé en comparant automatiquement les documents fournis par le fournisseur avec des signaux externes réels. Si un fournisseur revendique une dette technique minime, mais que le moteur GenAI absorbe un pic dans ses rapports de bogues publics, le quotient de confiance diminue, déclenchant un audit immédiat et ciblé.

3. Synthèse réglementaire

De nouvelles réglementations complexes, comme la loi européenne sur la résilience opérationnelle numérique (DORA) et la loi sur l’IA, exigent un niveau de conformité synthétique que les équipes manuelles ne peuvent pas maintenir. J’utilise GenAI pour croiser instantanément les dépendances de notre chaîne d’approvisionnement avec ces changements réglementaires mondiaux, en identifiant et en priorisant les domaines dans lesquels la défaillance d’un fournisseur entraîne une non-conformité immédiate au niveau de l’entreprise.

Traduire le risque lié au code en résilience au sein des conseils d’administration

Le plus gros échec du GRC moderne est la communication. Nous prenons les vulnérabilités techniques et les présentons comme des problèmes techniques. Le conseil d’administration ne se soucie pas du nombre de serveurs non corrigés ; ils se soucient de l’impact, de la rapidité et de la valeur actionnariale. Mon rôle et le vôtre est de traduire le risque technique en résilience stratégique.

Lors de la présentation des initiatives GenAI GRC, je conseille aux RSSI d’arrêter de parler de coûts et de commencer à définir les dépenses comme une allocation stratégique du capital.

Au lieu de déclarer : « Nous avons 50 vulnérabilités hautement prioritaires de la chaîne d’approvisionnement », je vous suggère de rapporter la mesure de la vitesse du risque (RVM) : « Notre cadre GenAI GRC indique que la probabilité d’une interruption catastrophique de la chaîne d’approvisionnement (coûtant X $) a été réduite de 18 % au cours du dernier trimestre, plaçant ce risque en dessous du seuil acceptable du conseil d’administration.

Le grand livre de confiance numérique fournit ces quantificateurs. Cela vous permet de déplacer la discussion d’un centre de coûts opérationnels vers un moteur de résilience stratégique qui protège la capitalisation boursière. Je pense que ce cadre stratégique est ce qui garantit le budget et permet de gagner une véritable place à la table des hauts dirigeants. Cela permet au RSSI de passer du statut d’intervenant d’urgence à celui de catalyseur de croissance de l’entreprise (un concept bien soutenu par les dernières directives RSSI de Gartner).

L’heure du changement systémique est arrivée

Je ne suggère pas que nous démantelions nos programmes GRC actuels, mais que nous les superposions immédiatement à une couche stratégique alimentée par GenAI. Attendre une solution parfaite équivaut à accepter la défaite. La chaîne d’approvisionnement a déjà été numérisée et le risque a déjà été injecté dans vos systèmes centraux.

Votre appel à l’action est simple et immédiat : testez dès maintenant le concept du grand livre de confiance numérique. Commencez petit en utilisant GenAI pour surveiller la différence entre les auto-attestations des fournisseurs et leur empreinte numérique publique. Identifiez les quatre ou cinq fournisseurs critiques dont la défaillance mettrait fin à votre activité. Faites-en votre projet pilote.

La chaîne d’approvisionnement est un réseau de dépendances tissé de code, de données et de jugement humain. Si nous n’exploitons pas l’intelligence générative pour gérer cette complexité, nous attendons passivement la prochaine défaillance systémique. Je vous exhorte à diriger ce changement et à vous assurer que votre stratégie de résilience reflète le rythme du paysage moderne des menaces, en explorant les changements réglementaires liés aux infrastructures critiques pour le contexte. Transformez la GRC d’un fardeau de conformité en une protection prédictive, en déplaçant dès aujourd’hui votre défense stratégique du code vers la salle de réunion.

Cet article est publié dans le cadre du Foundry Expert Contributor Network.
Voulez-vous nous rejoindre ?


Intelligence artificielleOpérations commercialesIA générativeGouvernance informatiqueDirection informatiqueGestion des risquesSécuritéChaîne d’approvisionnement