Surmonter la lassitude de l’IA

Lucas Morel

Un manuel de gouvernance pratique pour les RSSI.

L’IA est désormais partout au sein des entreprises. De nombreux RSSI avec qui je parle se sentent coincés entre vouloir aller de l’avant et ne pas savoir par où commencer. La crainte de se tromper à la fois sur l’utilisation de l’IA en matière de sécurité et sur la sécurisation de l’IA au sein de l’organisation arrête souvent leur processus avant qu’il ne commence. Cela dit, contrairement à d’autres grandes vagues technologiques telles que le cloud, le mobile et le DevOps, nous avons en fait la possibilité de mettre en place des garde-fous autour de l’IA, qui devient pleinement ancrée dans tous les domaines de l’entreprise. C’est une opportunité rare, que nous ne devrions pas laisser passer.

De la lassitude de l’IA à une clarté indispensable

Une grande partie de la confusion vient du mot « IA » lui-même. Nous utilisons la même étiquette pour parler d’un chatbot rédigeant des textes marketing et d’agents autonomes qui génèrent et mettent en œuvre des playbooks de réponse aux incidents. Techniquement, ce sont tous deux des IA, mais les risques sont loin d’être les mêmes. Le moyen le plus simple de couper court au battage médiatique de l’IA est de diviser l’IA en catégories en fonction de l’indépendance du système et des dégâts qu’il pourrait causer en cas de problème.

D’un côté, vous avez l’IA générative, qui n’agit pas seule. Il répond aux invites. Cela crée du contenu. Cela aide à la recherche ou à la rédaction. La plupart des risques proviennent du fait que des personnes l’utilisent d’une manière qu’elles ne devraient pas : partage de données sensibles, collage de code propriétaire, fuite de propriété intellectuelle, etc. La bonne nouvelle est que ces problèmes sont gérables. Des politiques claires d’utilisation acceptable, la formation des personnes sur ce qu’il ne faut pas mettre dans les outils GenAI et la mise en œuvre de contrôles techniques exécutoires permettront de gérer une grande partie des considérations de sécurité liées à l’IA générative.

Le risque augmente lorsque les entreprises laissent GenAI influencer les décisions. Si les données sous-jacentes sont erronées, empoisonnées ou incomplètes, alors les recommandations construites à partir de ces données seront également fausses. C’est là que les RSSI doivent prêter attention à l’intégrité des données, et pas seulement à leur protection.

Ensuite, il y a l’autre extrémité du spectre : l’IA agentique. C’est là que les enjeux prennent toute leur ampleur. Les systèmes agentiques ne se contentent pas de répondre aux questions : ils prennent des mesures. Ils font parfois des choix. Certains peuvent déclencher des flux de travail ou interagir avec des systèmes internes avec très peu d’implication humaine. Plus le système est indépendant, plus son impact potentiel est important. Et contrairement à GenAI, vous ne pouvez pas compter sur de « meilleures invites » pour résoudre le problème.

Si une IA agentique adopte un « mauvais comportement », les conséquences peuvent être extrêmement rapides. C’est pourquoi les RSSI doivent désormais prendre de l’avance dans cette catégorie. Une fois que l’entreprise commence à dépendre de systèmes autonomes, il est presque impossible d’essayer de mettre en place des mesures de protection par la suite.

Pourquoi les RSSI ont réellement une ouverture ici

Si vous travaillez dans la sécurité depuis assez longtemps, vous avez probablement vécu au moins une vague technologique au cours de laquelle l’entreprise a progressé et où l’on a demandé à la sécurité de rattraper son retard. L’adoption du cloud est un exemple récent. Et une fois que ce train a quitté la gare, il n’y a plus eu de retour en arrière et il n’y a certainement pas eu de ralentissement.

L’IA est différente. La plupart des entreprises – même les plus avant-gardistes – sont encore en train de déterminer ce qu’elles attendent de l’IA et comment la déployer au mieux. En dehors de la technologie, de nombreux dirigeants expérimentent sans véritable stratégie. Cela crée une fenêtre permettant aux RSSI de définir leurs attentes à un stade précoce.

C’est le moment de définir les « règles inviolables », de déterminer quelles équipes examineront les demandes d’IA et de structurer la manière dont les décisions sont prises. Les responsables de la sécurité ont aujourd’hui plus d’influence qu’au cours des évolutions technologiques précédentes, et la gouvernance de l’IA est rapidement devenue l’une des responsabilités les plus stratégiques de leur rôle.

Intégrité des données : fondement du risque lié à l’IA

Lorsque les gens parlent de la triade de la CIA, « l’intégrité » est généralement celle qui occupe le moins de temps d’antenne. Dans la plupart des organisations, les applications gèrent l’intégrité en arrière-plan. Mais l’IA change notre façon de penser.

Si les données alimentant vos systèmes d’IA sont compromises, incomplètes, incorrectes ou manipulées, alors les décisions fondées sur ces données peuvent affecter les processus financiers, les chaînes d’approvisionnement, les interactions avec les clients ou même la sécurité physique. Le travail du RSSI consiste désormais à s’assurer que les systèmes d’IA s’appuient sur des données fiables, et pas seulement sur des données protégées. Ces deux-là ne sont plus la même chose.

Une approche simple et hiérarchisée de la gouvernance de l’IA

Pour donner un sens à tous les différents cas d’utilisation de l’IA, je recommande une approche à plusieurs niveaux. Cela reflète le nombre d’entreprises qui gèrent déjà des risques liés aux tiers : plus le risque est élevé, plus vous appliquez de surveillance et de contrôles.

Étape 1 : Catégoriser l’utilisation de l’IA

Un programme pratique de gouvernance de l’IA commence par catégoriser chaque cas d’utilisation selon deux indicateurs principaux : le niveau d’autonomie du système et son impact potentiel sur l’entreprise. L’autonomie couvre un spectre allant de l’IA générative réactive à la prise de décision assistée, en passant par les systèmes agents humains dans la boucle et, finalement, jusqu’aux agents d’IA totalement indépendants.

Chaque cas d’utilisation de l’IA doit être évalué en fonction de son impact sur l’entreprise, en catégorisant simplement cet impact comme faible, moyen ou élevé. Les systèmes à faible impact et à faible autonomie peuvent nécessiter seulement une surveillance légère, tandis que les cas d’utilisation à forte autonomie et à fort impact nécessitent une gouvernance formelle, une révision architecturale rigoureuse, une surveillance continue – et dans certains cas, une surveillance humaine explicite ou l’ajout d’un kill switch. Cette approche structurée permet aux RSSI de déterminer rapidement quand des contrôles plus stricts sont nécessaires et quand des concepts tels que les principes de confiance zéro doivent être appliqués au sein des systèmes d’IA eux-mêmes.

Étape 2 : Définir les contrôles des enjeux de table pour toutes les IA

Une fois la hiérarchisation des risques en place, les RSSI doivent garantir que les contrôles fondamentaux sont appliqués de manière cohérente dans tous les déploiements d’IA. Quelle que soit la sophistication de la technologie, chaque organisation a besoin de politiques d’utilisation acceptables claires et applicables, d’une formation de sensibilisation à la sécurité qui traite des risques spécifiques à l’IA et de contrôles techniques qui empêchent les fuites de données et les comportements indésirables. La surveillance de base des activités anormales de l’IA garantit en outre que même les cas d’utilisation de l’IA générative à faible risque fonctionnent dans des limites sûres et prévisibles.

Étape 3 : Déterminer où l’examen de l’IA aura lieu

Une fois ces fondations établies, les organisations doivent déterminer où se déroulera réellement la gouvernance de l’IA. Le bon forum dépend de la maturité organisationnelle et des structures existantes. Certaines entreprises peuvent intégrer les examens de l’IA dans un comité d’examen de l’architecture établi ou dans un comité de confidentialité ou de sécurité ; d’autres pourraient avoir besoin d’un organe de gouvernance de l’IA dédié et interfonctionnel. Quelle que soit la structure choisie, une surveillance efficace de l’IA nécessite la contribution des acteurs de la sécurité, de la confidentialité, des données, des aspects juridiques, des produits et des opérations. La gouvernance ne peut pas relever de la responsabilité d’un seul service : l’impact de l’IA s’étend à l’ensemble de l’entreprise, tout comme sa surveillance.

Étape 4 : Établir des règles inviolables et des contrôles critiques

Enfin, avant qu’un cas d’utilisation de l’IA ne soit approuvé, l’organisation doit articuler ses règles non négociables et ses contrôles critiques. Ce sont les limites que les systèmes d’IA ne doivent jamais franchir, comme la suppression autonome de données ou l’exposition d’informations sensibles. Certains systèmes peuvent nécessiter une surveillance humaine explicite, et toute IA agentique capable de contourner les mécanismes humains dans la boucle doit inclure un kill switch fiable.

Les principes d’accès au moindre privilège et de confiance zéro devraient également s’appliquer au sein des systèmes d’IA, les empêchant d’hériter de plus d’autorité ou de visibilité que prévu. Ces règles doivent être dynamiques et évoluer à mesure que les capacités de l’IA et les besoins des entreprises évoluent.

L’IA n’est plus facultative, mais la bonne gouvernance ne peut pas non plus l’être

Les RSSI n’ont pas besoin de devenir des experts en apprentissage automatique ni de ralentir l’activité. Ce dont ils ont besoin, c’est d’un moyen clair et pratique d’évaluer les risques liés à l’IA et d’assurer la sécurité des choses à mesure que son adoption se développe. Décomposer l’IA en catégories compréhensibles, l’associer à un modèle de risque simple et impliquer les bonnes personnes dès le début contribuera grandement à réduire le débordement.

L’IA va remodeler tous les recoins de l’entreprise. La question est de savoir qui façonnera l’IA. Pour la première fois depuis longtemps, les RSSI ont la possibilité de fixer les règles, sans se démener pour les faire respecter.

Carpe diem !

Cet article est publié dans le cadre du Foundry Expert Contributor Network.
Voulez-vous nous rejoindre ?

Intelligence artificielleGouvernance informatiqueDirection informatiqueSécurité des données et des informationsSécurité