Alors que Washington et Pékin se rencontrent cette semaine, l’écart entre l’IA américaine et chinoise se réduit – et la technologie qui pourrait déstabiliser l’infrastructure numérique mondiale s’échappe, avec des implications potentielles dans la cyberguerre froide.
Le sommet Trump-Xi qui s’ouvre cette semaine à Pékin comporte un point à l’ordre du jour sans précédent dans l’histoire de la diplomatie américano-chinoise : que faire à propos de l’intelligence artificielle capable de trouver et d’exploiter de manière autonome les vulnérabilités des logiciels les plus critiques au monde – et que se passe-t-il lorsque les deux superpuissances en disposent.
Mythos Preview d’Anthropic, publié le mois dernier auprès d’un groupe limité de partenaires de sécurité, a démontré la capacité de découvrir des vulnérabilités zero-day dans tous les principaux systèmes d’exploitation et navigateurs, trouvant parfois des bogues qui avaient survécu à des décennies d’examen humain et à des millions de tests automatisés.
Anthropic a présenté Mythos comme un tournant décisif, en lançant le projet Glasswing et en engageant 100 millions de dollars en crédits d’utilisation pour aider les défenseurs à sécuriser les infrastructures critiques avant que des capacités similaires ne soient largement disponibles.
Pendant ce temps, le tampon stratégique que Washington a longtemps supposé détenir sur Pékin se rétrécit plus rapidement que la plupart des décideurs politiques ne sont prêts à l’admettre.
Des entités chinoises ont cherché à accéder à Mythos et ont jusqu’à présent été refusées, mais il est probable que le modèle soit divulgué. Mythos a déjà constaté un accès non autorisé : un petit groupe d’utilisateurs aurait eu accès au modèle le jour même où Anthropic a annoncé sa sortie limitée.
L’écart qui n’était pas
Pendant des années, la compétition entre les États-Unis et la Chine en matière d’IA a été conçue comme une compétition asymétrique : les laboratoires américains en tête, les laboratoires chinois des années en retard, les contrôles à l’exportation et les restrictions sur les puces faisant gagner du temps aux États-Unis.
Cependant, l’indice AI 2026 de Stanford, publié le mois dernier, a révélé que les modèles américains et chinois ont échangé leur avance en termes de performance mondiale à plusieurs reprises depuis le début de 2025. En mars 2026, Claude Opus 4.6 d’Anthropic devançait le meilleur modèle chinois de seulement 2,7 points de pourcentage sur un indice de référence clé, contre un écart de 17 à 31 points de pourcentage à la mi-2023.
La Chine est leader mondial en matière de dépôts de brevets sur l’IA, de citations de recherches et d’installations de robots industriels. Alors que l’indice de Stanford montre que l’investissement privé américain est 23 fois supérieur à l’investissement privé chinois, les fonds d’orientation de l’État chinois ont déployé environ 912 milliards de dollars dans des secteurs stratégiques sur une période de deux décennies, un chiffre que les comparaisons avec l’investissement privé ignorent totalement.
Le tableau des talents en IA est, au contraire, plus alarmant. Le nombre de chercheurs en IA s’installant aux États-Unis a chuté de 89 % depuis 2017, 80 % de cette baisse s’étant produite au cours de l’année dernière seulement, accélérée en partie par les restrictions H-1B de l’administration Trump.
La vraie menace n’est pas celle que tu penses
Le cadre américano-chinois – utile pour les budgets et les récits politiques – masque les risques les plus conséquents liés à des systèmes comme Mythos.
Le danger ne réside pas simplement dans le fait que Pékin développe des modèles dotés de cybercapacités avancées. La plus grande préoccupation est de savoir ce qui se passe lorsque ces capacités – ou quelque chose qui s’en rapproche – se diffusent dans des écosystèmes criminels, des opérations de ransomware ou des groupes mandataires vaguement affiliés qu’aucun gouvernement ne contrôle.
« Le coût et la complexité des attaques diminuent », déclare Tal-Hochberg. « Les défenseurs qui pouvaient auparavant s’en sortir en étant moins sophistiqués ne pourront peut-être plus le faire. »
Une analogie nucléaire qui a des limites mais qui tient
De hauts responsables américains, s’exprimant avant le sommet, ont déclaré que Washington était prêt à « explorer des voies de déconfliction » avec Pékin sur l’IA, en utilisant un langage qui évoque la logique nucléaire de la guerre froide.
Ce à quoi pourraient ressembler ces chaînes est en train de prendre forme. Les deux parties réfléchissent à un ensemble de conversations récurrentes axées sur l’établissement de garde-fous couvrant les modèles d’IA se comportant de manière inattendue, les systèmes militaires autonomes et les acteurs non étatiques utilisant de puissants outils open source.
L’IA et les armes nucléaires impliquent des technologies aux capacités offensives potentiellement catastrophiques. Les deux impliquent deux puissances rivales qui partagent le même intérêt à empêcher les pires résultats, même si elles sont en concurrence. Et dans les deux cas, les États-Unis doivent décider si le dialogue avec un adversaire est une concession ou une nécessité.
Mais l’analogie nucléaire s’effondre sur un point critique : les armes nucléaires n’étaient économiquement pas pertinentes en dehors des écosystèmes de défense. L’IA est le contraire. Il s’agit à la fois de la technologie économique polyvalente la plus importante de cette époque et d’une capacité offensive potentiellement déstabilisatrice.
Comme le dit Tal-Hochberg, « L’IA est à la fois une énergie nucléaire et des armes nucléaires. Les gouvernements veulent des avantages économiques tout en essayant de limiter les risques offensifs. »
Cette double nature rend les limites convenues extrêmement plus difficiles à négocier, à vérifier ou à appliquer. Le Council on Foreign Relations a fait valoir que l’intérêt réel de Pékin pour le dialogue sur la sécurité de l’IA est avant tout instrumental – une opportunité de combler le déficit de capacités plutôt que de le limiter.
Le seul dialogue précédent entre les États-Unis et la Chine sur la sécurité de l’IA, tenu en 2024, a illustré l’asymétrie : les États-Unis ont envoyé des experts techniques pour décrire les risques partagés ; La Chine a envoyé des diplomates pour se plaindre des contrôles à l’exportation de puces.
Ce que Washington n’a toujours pas décidé
La vérité la plus inconfortable est que les États-Unis n’ont pas encore résolu ce que sont réellement les systèmes de classe Mythe. L’administration Trump a passé une grande partie de l’année dernière à résister à une réglementation générale de l’IA, arguant que la surveillance affaiblirait l’avantage concurrentiel.
Elle fait désormais face à une pression interne croissante pour élaborer des exigences de test pour les modèles pionniers dotés de cybercapacités avancées et serait en train de préparer une action exécutive sur la sécurité de l’IA, un tournant important par rapport à sa position antérieure.
La décision d’Anthropic de publier Mythos via le projet Glasswing – donnant aux défenseurs un accès avant que les capacités offensives ne soient largement disponibles – représente un modèle pour gérer ce problème.
Et les décisions d’accès elles-mêmes deviennent déjà géopolitiques. L’UE, notamment, n’a toujours pas obtenu l’accès à Mythos, alors même qu’OpenAI a décidé de permettre aux équipes européennes de cybersécurité d’accéder à son propre modèle de cybersécurité. Il s’agit de jugements unilatéraux d’entreprises privées et non d’un cadre politique.
La fenêtre ne restera pas ouverte longtemps
Une IA plus performante peut accélérer le développement d’une IA encore plus performante. Le pays – ou l’entreprise ou l’acteur – qui possède aujourd’hui les modèles les plus solides possède des avantages structurels pour construire les modèles de demain.
Ce dont Washington et Pékin discutent à Pékin cette semaine ne résoudra pas la tension fondamentale entre le développement compétitif de l’IA et les risques que ce développement crée. Mais la mise en place de canaux de déconfliction, même étroits – une ligne d’assistance téléphonique pour les crises liées à l’IA, des normes partagées autour des applications les plus dangereuses, des mécanismes de transparence permettant à chaque partie de vérifier que l’autre ne franchit pas les lignes convenues – représenterait un progrès significatif par rapport à l’état actuel, qui n’est aucun cadre.



