Une agence gouvernementale américaine va tester la sécurité des modèles d’IA frontaliers avant leur publication

Lucas Morel

Les accords de CAISI avec Google, Microsoft et xAI ont précédé la publication d’un rapport selon lequel la Maison Blanche envisageait peut-être de créer son propre système de contrôle de l’IA.

Le Center for AI Standards and Innovation (CAISI), une division du ministère américain du Commerce, a signé des accords avec Google DeepMind, Microsoft et xAI qui donneraient à l’agence la possibilité d’examiner les modèles d’IA de ces organisations et d’autres avant qu’ils ne soient rendus publics.

Selon un communiqué du CAISI, qui fait partie de l’Institut national des normes et technologies (NIST) du département, il « mènera des évaluations préalables au déploiement et des recherches ciblées pour mieux évaluer les capacités de l’IA à la frontière et faire progresser l’état de la sécurité de l’IA ».

Les trois rejoignent Anthropic et OpenAI, qui ont signé des accords similaires il y a près de deux ans sous l’administration Biden, lorsque le CAISI était connu sous le nom d’Institut américain de sécurité de l’intelligence artificielle.

Un communiqué d’août 2024 concernant ces accords indiquait que l’institut prévoyait de fournir des commentaires aux deux sociétés sur « les améliorations potentielles de la sécurité de leurs modèles, en étroite collaboration avec ses partenaires de l’AI Safety Institute (AISI) du Royaume-Uni ».

Microsoft a déclaré mardi dans un blog sur le dernier accord que celui-ci, et d’autres similaires, sont essentiels pour renforcer la confiance dans les systèmes d’IA avancés. Selon le rapport, à mesure que les capacités de l’IA progressent, la rigueur des tests et des garanties qui les sous-tendent doit également évoluer.

Une évolution vers une sécurité proactive

Fritz Jean-Louis, conseiller principal en cybersécurité chez Info-Tech Research Group, a déclaré que les accords CAISI signalent une évolution vers une sécurité proactive pour l’IA agentique en permettant aux gouvernements de tester des modèles avancés avant et après le déploiement.

Cela devrait, a-t-il déclaré, « contribuer à renforcer la visibilité sur les comportements autonomes tout en accélérant le développement de normes pour atténuer les risques. En combinant un accès anticipé, une évaluation continue et une collaboration intersectorielle, l’initiative pousse l’industrie vers une sécurité dès la conception pour des systèmes d’IA de plus en plus autonomes ».

Cependant, ajoute Jean-Louis, « il y a quelques obstacles potentiels à considérer, par exemple : comment la propriété intellectuelle serait-elle protégée dans le cadre de cette approche ? Quoi qu’il en soit, je pense que c’est une étape positive pour l’industrie ».

Le décret « prend forme »

Suite à l’annonce du CAISI, un rapport publié mercredi indiquait que la Maison Blanche était sur le point de préparer un décret qui verrait la création d’un système de contrôle pour tous les nouveaux modèles d’intelligence artificielle, parmi lesquels le mythe d’Anthropic.

Bloomberg a rapporté : « la directive prend forme quelques semaines après qu’Anthropic a révélé que son modèle révolutionnaire Mythos était apte à détecter les vulnérabilités des réseaux et pourrait poser un risque de cybersécurité mondial. »

Changement important dans l’orientation politique

Carmi Levy, une analyste technologique indépendante, a déclaré : « il est tout à fait évident que l’annonce de cette semaine qui établit le Centre pour les normes et l’innovation en IA comme terrain d’essai pour les modèles d’IA de pointe est directement liée à l’éventuel décret qui conduirait à un système de contrôle pour les modèles d’IA. »

Ce n’est pas une coïncidence, a-t-il déclaré, « si les annonces ont été faites en succession rapide, et cela renforce l’urgence croissante pour les gouvernements aux États-Unis et ailleurs de resserrer leurs partenariats avec les principaux fournisseurs d’IA afin de maximiser la sécurité liée à l’IA et de minimiser le potentiel de risque systémique ».

Cette dernière vague d’activités à Washington marque un changement significatif dans l’orientation politique d’une administration qui, jusqu’à récemment, suivait une approche plus laissez-faire en matière de réglementation, a souligné Levy.

Les inquiétudes autour du modèle Claude Mythos d’Anthropic, et la relative facilité avec laquelle il pourrait découvrir et exploiter les vulnérabilités des systèmes numériques, « auraient pu contribuer à changer la position du gouvernement fédéral sur la réglementation liée à l’IA, en particulier autour de la nouvelle pression visant à appliquer les normes pour les déploiements liés à l’IA dans l’infrastructure gouvernementale », a-t-il déclaré.

Les fournisseurs d’IA comme Google, Microsoft et xAI, a ajouté Levy, « doivent franchir une sorte de cap politique alors qu’ils équilibrent la nécessité de lancer des modèles sur le marché de manière opportune et rentable avec des règles de plus en plus définies autour de la cybersécurité et de la sûreté liées à l’IA. L’industrie ne peut pas se permettre un scénario dans lequel les fournisseurs eux-mêmes établissent les règles au fur et à mesure. « 

Dans le même temps, a-t-il déclaré, la récente confrontation entre Anthropic et le Pentagone illustre pourquoi on pourrait pardonner aux fournisseurs de considérer l’intérêt croissant du gouvernement fédéral pour les tests et la réglementation de l’IA avec au moins un certain degré de prudence.

Selon Levy, « alors que les efforts de l’administration pour centraliser les tests et la surveillance devraient rationaliser le processus de mise sur le marché pour les fournisseurs et accélérer le développement des meilleures pratiques autour du développement de modèles pionniers, les connotations politiques des récents partenariats gouvernement-industrie ne peuvent être ignorées ».

Intelligence artificielleGouvernementIndustrieSécurité