La Maison Blanche décide de donner aux agences fédérales accès à Claude Mythos d’Anthropic

Lucas Morel

Cette décision permettrait aux agences civiles d’accéder à une version modifiée de la puissante IA de chasse aux vulnérabilités d’Anthropic, dans le cadre de garanties conçues pour limiter les utilisations abusives.

Le gouvernement américain se prépare à autoriser l’utilisation d’une version du modèle Claude Mythos d’Anthropic par les principales agences fédérales américaines, craignant que le modèle d’IA puisse rapidement détecter les vulnérabilités de la cybersécurité et offrir la possibilité de les exploiter.

Le directeur fédéral de l’information, Gregory Barbaccia, du Bureau de la gestion et du budget (OMB) de la Maison Blanche, a déclaré mardi aux responsables des départements du Cabinet que l’OMB mettait en place des protections pour permettre aux agences fédérales de commencer à utiliser le modèle, a rapporté Bloomberg, citant une note interne.

Le mémo n’engageait pas d’agences spécifiques à déployer ni ne fournissait de calendrier, indique le rapport.

« Nous travaillons en étroite collaboration avec les fournisseurs de modèles, d’autres partenaires industriels et la communauté du renseignement pour garantir que les garde-fous et les garanties appropriées sont en place avant de potentiellement publier une version modifiée du modèle aux agences », a écrit Barbaccia dans l’e-mail, selon le rapport.

La décision de l’OMB intervient alors que la désignation de risque de chaîne d’approvisionnement du ministère de la Défense contre Anthropic, publiée le 3 mars, reste en vigueur. Le circuit DC a refusé de suspendre la désignation le 8 avril, maintenant Anthropic exclu des contrats de défense tandis que les agences civiles sont désormais en mesure d’y accéder.

La Maison Blanche et Anthropic n’ont pas immédiatement répondu aux demandes de commentaires.

Définir les garde-corps

La référence dans la note à une version modifiée du modèle soulève des questions ouvertes sur ce à quoi ressemblerait réellement le déploiement de l’agence. Anthropic a annoncé Claude Mythos Preview le 7 avril dans le cadre du Project Glasswing, un programme à accès contrôlé destiné à certaines organisations technologiques et financières.

La société a ensuite déclaré que le modèle avait identifié des milliers de vulnérabilités zero-day sur tous les principaux systèmes d’exploitation et navigateurs lors de tests internes et a déclaré qu’elle n’avait pas l’intention de rendre le modèle généralement disponible.

« Pour qu’un déploiement fédéral soit défendable, les modifications doivent couvrir des dimensions d’assurance spécifiques », a déclaré Neil Shah, vice-président de la recherche et partenaire chez Counterpoint Research. « La base de code logiciel analysée doit rester souveraine dans un environnement isolé et isolé, et les données ne doivent pas être utilisées pour recycler le modèle de base. » Des étapes supplémentaires pourraient inclure des exigences de transparence et un examen humain avant l’application d’une correction de bogue, a-t-il déclaré, afin de rendre le déploiement plus contrôlé.

Implications pour l’entreprise

Ces mêmes questions d’assurance se répercutent directement sur les achats des entreprises. La décision de l’OMB indique que la cyberdéfense fédérale s’oriente vers des modèles pionniers capables de détecter les vulnérabilités plus rapidement que les équipes humaines ne peuvent les corriger, et le fossé entre le Pentagone et la Maison Blanche est porteur d’une leçon pour les acheteurs du secteur privé, a déclaré Shah.

« Le fossé entre les deux entités gouvernementales est une leçon sur l’importance de contrôler le déploiement de puissantes capacités d’IA qui pourraient être utilisées à mauvais escient », a-t-il déclaré, appelant à un cadre de contrôle à plusieurs niveaux couvrant la découverte, la classification, la sécurité, l’assurance et l’action.

L’asymétrie s’étend au-delà des frontières américaines. Les agences européennes ont été largement bloquées et n’ont pas accès à un accès anticipé, seul l’AI Security Institute du Royaume-Uni ayant obtenu la possibilité de tester le modèle. Si l’autorisation de l’OMB se déroule selon les conditions décrites par Barbaccia, la capacité défensive d’IA au sein du gouvernement fédéral américain progresserait devant ses homologues européens, tandis que la désignation du Pentagone contre le même fournisseur continue de progresser devant les tribunaux.

Une solution civile à l’interdiction du Pentagone

L’approche de la version modifiée permet à Anthropic de naviguer autour de la position du Pentagone sans perdre le contrôle du modèle, a déclaré Shah.

« La version modifiée d’Anthropic contourne ainsi l’approche noir et blanc du Pentagone et aide d’autres entités à adopter le modèle en tant qu’enclave de sécurité pour la souveraineté des civils et des entreprises avec des garde-fous convenus », a déclaré Shah. Il a ajouté que cet accord crée un précédent pour l’adoption future d’Anthropic par d’autres entités gouvernementales et entreprises.

L’accès fédéral à Anthropic est en évolution depuis des semaines. Un tribunal de district américain de Californie a accordé à Anthropic une injonction préliminaire le 26 mars contre une désignation civile parallèle, une décision qui a donné aux entrepreneurs une marge de manœuvre pour réévaluer les chaînes d’approvisionnement en IA.

Anthropic est désormais simultanément mis sur la liste noire des achats militaires, interdit de retrait dans les systèmes civils et en discussion pour un accès élargi via l’OMB. Les entrepreneurs sont confrontés à des difficultés opérationnelles pour identifier où se situent des modèles d’IA spécifiques dans leurs piles, un défi qui a remodelé le risque de la chaîne d’approvisionnement dans les déploiements fédéraux d’IA.

Sécurité des applicationsSécuritéVulnérabilités