Les directives du Pentagone sur la façon de supprimer Anthropic montrent à quoi pourrait ressembler l’application de ces mesures, mais la plupart des organisations manquent de visibilité et de consensus nécessaires pour répondre à ce que l’administration Trump décrit comme une nouvelle catégorie de risque pour la chaîne d’approvisionnement.
La décision de l’administration Trump d’interdire la société d’IA Anthropic des actifs du Pentagone et d’autres systèmes gouvernementaux en tant que « risque de chaîne d’approvisionnement » pourrait contraindre les RSSI à se retrouver dans une position que peu de gens ont rencontrée auparavant : se préparer à identifier, isoler et potentiellement supprimer une technologie d’IA spécifique au sein de leur organisation sans une compréhension claire de son emplacement ni de la profondeur de son intégration.
Alors que l’administration défend cette désignation devant un tribunal fédéral comme une mesure légitime de sécurité nationale et de chaîne d’approvisionnement, le fardeau pratique se déplace déjà vers les entreprises, en particulier les sous-traitants gouvernementaux qui pourraient bientôt devoir prouver qu’ils n’utilisent plus la technologie de l’entreprise sous quelque forme que ce soit.
Cette difficulté découle d’un fossé de longue date qui devient désormais inévitable. La plupart des entreprises ne tiennent pas un inventaire complet ou à jour de la manière dont les systèmes d’IA sont utilisés dans leurs environnements, et ne comprennent pas non plus pleinement comment ces systèmes sont intégrés dans leurs réseaux.
Les modèles d’IA sont accessibles directement via des API, intégrés dans des applications développées en interne, incorporés aux flux de travail des développeurs ou introduits indirectement via des logiciels et des services tiers. Dans de nombreux cas, ces dépendances sont invisibles pour les équipes centrales de sécurité, en particulier dans les organisations où l’expérimentation de l’IA générative a dépassé la gouvernance.
Malgré cela, le Pentagone prend des mesures agressives pour retirer la technologie Anthropic de ses réseaux internes et de ceux de ses sous-traitants. Un mémo du Pentagone du 6 mars ordonne aux composantes militaires de retirer les produits Anthropic des systèmes et réseaux dans un délai de 180 jours, en donnant la priorité aux environnements critiques pour la mission tels que les opérations nucléaires, de défense antimissile et les cyberopérations.
La directive oblige également les responsables des contrats à informer les fournisseurs et les entrepreneurs à certifier leur conformité dans le même délai, étendant ainsi l’exigence à l’ensemble de la base industrielle de défense.
Les actions de l’administration marquent un changement dans la manière dont les technologies de l’IA sont traitées dans le contexte de la sécurité nationale. Les modèles ne sont plus de simples outils ; ils sont traités comme des éléments réglementés de la chaîne d’approvisionnement. Pour les RSSI, ce changement introduit une nouvelle classe de risques, combinant incertitude politique, opacité technique et délais de conformité potentiellement agressifs.
Un mandat qui suppose une visibilité que les RSSI n’ont pas encore
Sur le papier, la directive du Pentagone suit un schéma familier. Il établit un délai, priorise les systèmes critiques, transmet les exigences aux entrepreneurs et n’autorise que des exemptions limitées dans des conditions contrôlées. Des cadres similaires ont été utilisés dans le passé pour supprimer des fournisseurs spécifiques des systèmes fédéraux, en particulier dans le secteur des télécommunications.
Ce qui distingue le cas Anthropic, c’est la nature de la technologie impliquée. Contrairement aux composants matériels ou logiciels traditionnels, les systèmes d’IA ne sont pas faciles à énumérer. Un modèle unique est accessible via plusieurs interfaces, intégré dans différentes applications ou enveloppé dans des couches d’outils qui obscurcissent son origine. Les dépendances peuvent également être transitives, apparaissant via des bibliothèques, des plugins ou des services intégrés dans des systèmes plus larges.
Cette complexité rend la première étape – identifier où Anthropic est utilisé – bien plus difficile que ne le laisse entendre la directive. Pace a comparé le défi à l’expérience de l’industrie avec Log4j, où les organisations ont eu du mal à localiser un composant largement utilisé enfoui dans des écosystèmes logiciels tentaculaires. Dans le cas de l’IA, le problème est aggravé par le fait que toutes les dépendances ne se comportent pas comme des artefacts logiciels traditionnels – ou ne sont même pas visibles comme telles.
Le manque de visibilité se reflète dans la préparation plus large de l’industrie. Selon l’indice de préparation à l’IA 2025 de Cisco, seules 31 % des organisations déclarent être entièrement équipées pour sécuriser les systèmes d’IA agentique, tandis que seulement 27 % déclarent disposer de contrôles d’accès granulaires sur les systèmes et ensembles de données d’IA. Ces chiffres suggèrent que même la gouvernance de base sur l’utilisation de l’IA reste incomplète dans une grande partie du paysage des entreprises, laissant les organisations mal placées pour répondre à une directive qui suppose un niveau de connaissance que beaucoup ne possèdent pas encore.
La pression de la conformité avant la clarté des politiques
« Vous ne pouvez pas gérer ce que vous n’avez pas trouvé », explique Major, soulignant que la tâche immédiate des RSSI est de déterminer où existent les dépendances anthropiques au sein de leurs systèmes et réseaux de fournisseurs.
Ce processus, dit-il, doit être abordé à la fois comme un exercice technique et comme un exercice de conformité. Les organisations peuvent avoir besoin de documenter comment elles ont identifié les systèmes concernés, les mesures qu’elles ont prises pour supprimer ou remplacer des composants et comment elles ont validé que ces mesures étaient efficaces. Dans un environnement de certification, la capacité à faire preuve de diligence raisonnable peut être aussi importante que le résultat technique.
Dans le même temps, Major a mis en garde contre une action trop rapide dans des environnements réglementés sans contrôles appropriés.
« Ralentissez », conseille-t-il. « Mettez en forme votre analyse de la chaîne d’approvisionnement et ne faites rien tant que ces choses ne se sont pas produites. » Il ajoute : « Si vous agissez rapidement, le risque de non-conformité d’un retrait précipité dans un environnement sensible peut dépasser le risque de non-conformité d’un plan de transition délibéré et documenté. »
Aucun accord sur le moment où agir
Cette tension se reflète dans l’absence de consensus parmi les experts sur la manière dont les RSSI devraient réagir à court terme. La directive du Pentagone fournit un signal clair pour les systèmes liés à la défense, mais le paysage politique plus large reste instable, laissant les organisations interpréter avec quelle agressivité elles doivent agir.
Il a décrit les orientations comme incomplètes et insuffisamment détaillées pour être traduites en exigences opérationnelles, compte tenu notamment de la complexité des systèmes d’IA et des lacunes existantes dans la sécurité de la chaîne d’approvisionnement logicielle.
Pace adopte une vision plus pragmatique des organisations opérant déjà dans des environnements fédéraux. « Si vous faites partie du gouvernement fédéral, vous devez supprimer toute preuve et toute utilisation d’Anthropic, point final », dit-il.
Dans le même temps, Pace a reconnu que de nombreuses organisations sont susceptibles de retarder leur action jusqu’à ce que les exigences soient formalisées dans les cadres d’approvisionnement et réglementaires. Cette hésitation reflète une incertitude plus large quant à la manière de répondre à une politique qui continue d’évoluer, même si les premiers signaux d’application apparaissent.
Le problème de visibilité est antérieur à l’IA
La difficulté d’identifier les dépendances à l’IA n’est pas entièrement nouvelle. Il s’appuie sur des défis de longue date en matière de visibilité de la chaîne d’approvisionnement logicielle, où les organisations ont eu du mal à maintenir des inventaires précis des composants de leurs systèmes.
Wysopal a déclaré qu’une certaine forme de nomenclature peut aider les organisations à déterminer si une technologie spécifique apparaît dans leur logiciel, en particulier lorsqu’elles répondent aux exigences des clients ou aux exigences réglementaires. Dans le même temps, il a averti que le remplacement des modèles pourrait ne pas être anodin si les applications ont été construites autour de fonctionnalités spécifiques, nécessitant des ajustements du code, des flux de travail et des processus de test.
AI-BOM ou SBOM ?
La question de savoir comment obtenir cette visibilité a déclenché un débat actif sur la question de savoir si les cadres de nomenclature logicielle (SBOM) existants sont suffisants pour l’IA ou si les organisations ont besoin d’une nouvelle approche.
Amy Chang, responsable de la recherche sur les menaces et la sécurité de l’IA chez Cisco Systems, affirme que les SBOM traditionnels ne capturent pas toute la portée des systèmes d’IA. « Les systèmes d’IA comprennent des modèles, des agents, des invites et des données », explique-t-elle. « Si vous suivez uniquement les colis, vous ne savez pas comment le système fonctionne réellement. »
Selon elle, les organisations ont besoin d’une représentation plus dynamique du fonctionnement des systèmes d’IA, y compris de la façon dont les modèles interagissent avec les données et d’autres composants, pour comprendre les risques et gérer efficacement le changement.
Allan Friedman, le « père » du SBOM et désormais technologue en résidence au sein du groupe TPO, offre une perspective plus mesurée. Il convient que la transparence est essentielle, mais met en garde contre l’hypothèse que la visibilité seule résoudra le problème.
Pace de NetRise rejette l’hypothèse selon laquelle l’IA nécessite sa propre nouvelle catégorie de nomenclature, arguant qu’un SBOM correctement mis en œuvre devrait déjà capturer les composants liés à l’IA. Selon lui, le problème ne réside pas dans l’absence d’un nouveau cadre, mais dans l’adoption incomplète de ceux qui existent déjà. « Les AI-BOM sont stupides », dit-il. « L’AI-BOM n’existe pas. Vous avez un SBOM, qui identifie les composants de l’IA. L’IA est un logiciel, la dernière fois que j’ai vérifié. »
Ce désaccord reflète une incertitude plus profonde quant à la manière de modéliser les risques liés à la chaîne d’approvisionnement de l’IA, à un moment où les organisations sont invitées à agir en conséquence.
Le retrait n’est pas la même chose que le remplacement
Même si les organisations peuvent identifier où la technologie Anthropic est utilisée, la supprimer ne constitue qu’une partie du défi. Le remplacement introduit son propre ensemble de complexités, en particulier lorsque les applications ont été conçues autour de comportements de modèle spécifiques.
Les dépendances peuvent être intégrées profondément dans les applications ou introduites via des logiciels tiers, nécessitant une coordination entre les fournisseurs et les équipes de développement. Dans certains cas, le remplacement d’un modèle peut nécessiter de retravailler les invites, de recycler les systèmes ou de revalider les résultats pour garantir le maintien des fonctionnalités et des performances.
Anand Oswal, vice-président directeur de Palo Alto Networks, souligne que la visibilité n’est qu’un élément d’une stratégie de sécurité plus large. Les organisations ont également besoin de contrôles continus en matière de découverte, de tests et d’exécution pour gérer les risques liés à l’IA à mesure que les systèmes évoluent.
Une nouvelle catégorie de risque pour la chaîne d’approvisionnement
Le cas Anthropic représente un changement dans la façon dont les gouvernements abordent les technologies de l’IA, traitant les modèles et leurs écosystèmes associés comme des éléments de la chaîne d’approvisionnement qui peuvent être restreints ou supprimés.
Pour les RSSI, le défi ne consiste pas simplement à répondre à une seule directive, mais à préparer un avenir dans lequel des actions similaires pourraient être appliquées à d’autres fournisseurs d’IA, non seulement par le gouvernement américain, mais également par les régulateurs et les clients. Cela nécessite une visibilité sur les dépendances de l’IA, une clarté sur la manière dont ces dépendances sont utilisées et une stratégie pour les remplacer sans perturber les systèmes critiques.
À mesure que ces attentes prennent forme, les organisations sont invitées à fonctionner à un niveau de compréhension et de contrôle que beaucoup n’ont pas encore atteint. Comme le prévient Friedman, « tout le monde s’efforce rapidement de s’appuyer sur ces systèmes sans vraiment comprendre ce qu’ils contiennent. »
Une plus grande collaboration au sein de la chaîne d’approvisionnement en logiciels et en IA pourrait éventuellement rendre ce problème plus gérable, a-t-il déclaré, mais pour l’instant, l’écart entre ce que les organisations sont censées savoir et ce qu’elles peuvent réellement voir reste important.



