Ultimatums anthropiques de l’IA et vol de propriété intellectuelle : le risque tacite

Lucas Morel

Les affrontements d’Anthropic avec le Pentagone au sujet des garde-fous de Claude et une campagne de distillation basée en Chine contre sa propriété intellectuelle mettent en évidence les pressions externes que les meilleurs modèles d’IA peuvent transmettre aux entreprises en aval.

Deux événements récents très médiatisés concernant l’IA Claude d’Anthropic soulignent un risque peu discuté au cœur de la ruée de l’entreprise pour capitaliser sur les capacités d’IA de pointe.

Le premier incident impliquait une campagne d’extraction basée en Chine contre la propriété intellectuelle d’Anthropic. La seconde a été l’interdiction par l’administration Trump de Claude pour un usage fédéral après que l’entreprise ait résisté aux demandes américaines de modifier ses garde-fous.

Certes, Claude n’est pas le problème, et Anthropic n’est pas le méchant. L’entreprise et le produit eux-mêmes ne sont pas le problème. Le problème est que les modèles d’IA frontaliers attirent désormais simultanément deux types de pression très différents : l’extraction illégale par des acteurs étrangers qui souhaitent étudier et reproduire leur comportement, et les demandes légales de clients nationaux qui souhaitent remodeler ce comportement pour leurs propres missions.

Les deux forces opèrent selon leurs propres motivations. Les deux sont réels. Et tous deux créent des conditions que les RSSI doivent prendre en compte dans toute décision de déployer ces systèmes au sein de leur entreprise.

La neutralité de l’IA frontalière n’existe plus

Les modèles Frontier AI ne fonctionnent plus dans un espace neutre. Ils évoluent dans un environnement dans lequel des acteurs étrangers collectent à grande échelle des informations à leur sujet et contre eux, et où les principaux clients nationaux tentent d’orienter leur comportement en fonction des besoins de leur mission.

Aucune des deux dynamiques ne fait d’Anthropic un méchant, et aucune ne fait de Claude un atout compromis. Cela signifie que l’isolation géopolitique dont ces systèmes bénéficiaient autrefois a disparu. L’environnement qui les entoure fait désormais partie de la surface de risque, et les RSSI doivent désormais tenir compte des pressions qui s’exercent sur le modèle bien avant qu’elles n’atteignent leur entreprise.

La campagne d’extraction de la Chine : une opération ciblée, pas une curiosité

La révélation d’Anthropic selon laquelle trois sociétés d’IA basées en Chine (DeepSeek, Moonshot AI et MiniMax) ont effectué plus de 16 millions d’interactions via environ 24 000 comptes frauduleux n’est pas une histoire d’utilisation abusive de modèles. C’est une histoire de ciblage. Ces campagnes ont touché directement les capacités les plus sensibles de Claude : le raisonnement agentique, l’utilisation d’outils et le codage. Il ne s’agit pas d’un échantillonnage aléatoire ; c’est une collection structurée.

J’ai passé suffisamment de temps dans le monde du ciblage pour reconnaître immédiatement ce modèle, et vous n’avez pas besoin de mon niveau d’expérience pour le voir. Lorsqu’un adversaire peut observer un système à grande échelle, il peut cartographier ses forces, ses coutures et ses comportements prévisibles. La Chine dispose désormais de cette télémétrie comportementale pour Claude, et elle l’utilisera pour régler ses propres systèmes et pour façonner des opérations offensives contre des environnements dans lesquels des modèles de type Claude sont déployés.

Et Claude n’est pas le seul système ciblé par la Chine. Les mêmes acteurs ont utilisé des méthodes similaires d’extraction de gros volumes contre d’autres modèles pionniers, notamment Gemini de Google et ChatGPT d’OpenAI. Ils génèrent suffisamment de données d’interaction pour comprendre comment ces systèmes pensent et où ils peuvent subir des pressions.

L’appel d’Anthropic rend service à l’ensemble de la communauté en levant le drapeau d’avertissement là où il est à la fois haut et visible. L’implication est simple : les modèles Frontier sont désormais des surfaces de renseignement.

Pression du gouvernement américain : directe, immédiate et significative sur le plan opérationnel

La pression de l’autre côté de Claude venait du gouvernement américain, et elle était directe.

Les hauts responsables de la défense ont clairement indiqué qu’ils voulaient pouvoir orienter Claude vers des missions qui nécessiteraient de modifier ou de supprimer les garde-fous qu’Anthropic avait mis en place autour des armes autonomes et de la surveillance à grande échelle. Le PDG d’Anthropic, Dario Amodei, a répondu avec deux préoccupations importantes pour toute personne responsable du risque : les systèmes d’IA ne disposent pas de la sécurité humaine permettant de refuser une commande inappropriée, et l’utilisation de l’IA pour traiter l’intégralité du flux de conversation publique soulève des questions constitutionnelles et de libertés civiles que l’entreprise n’était pas prête à ignorer. Ces points expliquent pourquoi Anthropic a décliné.

La réaction du gouvernement a été rapide. Il a annoncé que Claude serait retiré de tous les systèmes gouvernementaux avec une élimination progressive de six mois et a qualifié Anthropic de risque pour la chaîne d’approvisionnement.

La propre déclaration de l’entreprise a souligné la tension : Claude a été simultanément décrite comme un risque potentiel en matière de sécurité et comme un système suffisamment important pour justifier des mesures extraordinaires pour remodeler son comportement.

Pour les RSSI, la question à retenir n’est pas de savoir qui a raison. Le fait est qu’un modèle frontière déjà intégré dans des réseaux classifiés, des flux de travail de renseignement et une planification opérationnelle peut être soumis à des pressions externes qui modifieraient sensiblement son comportement pour chaque client en aval.

Deux pressions, une exposition structurelle

La campagne d’extraction de la Chine et la pression directe du gouvernement américain sur Anthropic sont venues de directions opposées et pour des raisons totalement différentes, mais l’effet opérationnel est le même : les deux forces agissent sur le modèle depuis l’extérieur de l’entreprise. Aucune des deux pressions ne dit quoi que ce soit sur la qualité du modèle ou sur l’intégrité du vendeur. Cela montre que l’IA de pointe est entrée dans une phase où les acteurs externes travaillent dur pour influencer le fonctionnement de ces systèmes.

Pour les RSSI, c’est le point qui compte. Un modèle peut être profilé, étudié ou mis sous pression bien avant qu’il n’atteigne votre environnement, et ces forces en amont peuvent façonner ses performances une fois qu’il est à l’intérieur de votre écosystème.

Le risque est que tout modèle frontière fonctionnant à ce niveau de capacité attirera la même attention et les mêmes tentatives pour orienter son comportement. L’environnement autour de ces systèmes est désormais un espace contesté, et cette exposition accompagne le modèle partout où il est déployé.

Réponse des fournisseurs d’IA

Une fois que le gouvernement a annoncé son intention de retirer Claude des systèmes fédéraux, d’autres vendeurs ont rapidement occupé l’espace. OpenAI a été le premier à sortir, publiant un nouvel arrangement pour amener son modèle sur des réseaux classifiés. Sam Altman a ensuite ajouté un commentaire mesuré dans une interview à CNBC, soulignant son inconfort face à la pression exercée sur les sociétés d’IA tout en positionnant OpenAI comme une alternative prête. C’était un signal clair : l’opportunité était ouverte et OpenAI avait l’intention de la saisir.

xAI a suivi avec sa propre approbation pour un déploiement classifié, le déploiement initial de Grok étant prévu début 2026. Elon Musk a présenté Anthropic en termes contradictoires, mais la rhétorique est secondaire par rapport à la réalité opérationnelle : le gouvernement voulait des options supplémentaires, et l’écosystème des fournisseurs les a fournies sans hésitation.

Pour les RSSI, la leçon est simple : lorsqu’un fournisseur refuse d’ajuster un modèle pour répondre aux attentes d’un client majeur, un autre fournisseur prend immédiatement le relais. La pression ne se dissipe pas. La pression se déplace vers le modèle suivant en ligne. Cette dynamique fait désormais partie de l’environnement opérationnel de toute entreprise s’appuyant sur l’IA de pointe.

La nouvelle réalité opérationnelle

Frontier AI s’inscrit désormais dans un environnement façonné par des forces que l’entreprise ne contrôle pas. Les fournisseurs prennent des décisions sous ces pressions externes, et les effets se propagent en aval. Rien de tout cela ne signifie que les modèles sont défectueux ou peu fiables. Cela signifie qu’ils opèrent dans un paysage où les acteurs externes ont un effet de levier, une intention et une visibilité.

Pour les RSSI, l’ajustement consiste à traiter ces systèmes comme des dépendances de grande valeur exposées à une influence en amont. Le modèle que vous déployez n’est pas seulement l’artefact que vous recevez ; c’est le produit des pressions exercées sur le fournisseur et de l’attention que le modèle attire une fois qu’il démontre ses capacités.

La tâche consiste à créer suffisamment de visibilité et de surveillance pour comprendre quand ces forces commencent à apparaître dans votre propre environnement.

Intelligence artificielleGestion des risquesSécuritéIndustrie technologique