Le chef de la CISA a téléchargé des fichiers gouvernementaux sensibles sur ChatGPT public

Lucas Morel

Madhu Gottumukkala a téléchargé plusieurs documents contractuels « à usage officiel uniquement » sur la plateforme publique d’OpenAI, contournant les outils d’IA approuvés par le DHS et déclenchant des cyber-alertes automatisées.

Le directeur par intérim de l’Agence américaine de cybersécurité et de sécurité des infrastructures a téléchargé des documents contractuels gouvernementaux sensibles sur une version publique de ChatGPT l’été dernier, déclenchant des alertes de sécurité automatisées et soulevant des questions sur la gouvernance de l’IA au sein de l’agence chargée de défendre les réseaux fédéraux et les infrastructures critiques.

Madhu Gottumukkala, qui dirige la CISA depuis mai 2025, a téléchargé au moins quatre documents marqués « à usage officiel uniquement » sur la plateforme ChatGPT d’OpenAI entre la mi-juillet et le début août, a rapporté Politico. Les documents contenaient des informations contractuelles non destinées à être rendues publiques.

Des capteurs de cybersécurité ont détecté l’activité début août, générant plusieurs alertes au cours de la seule première semaine, selon le rapport citant quatre responsables du ministère de la Sécurité intérieure.

L’incident s’est produit bien que Gottumukkala ait personnellement demandé une autorisation spéciale pour utiliser ChatGPT peu de temps après avoir rejoint CISA. À l’époque, l’outil d’IA était bloqué pour la plupart des employés du DHS, craignant que des informations sensibles puissent être conservées en dehors des systèmes fédéraux, ajoutait le rapport, citant les responsables du DHS.

Les données saisies dans la version publique de ChatGPT peuvent être incorporées aux données de formation du modèle et exposées à des centaines de millions d’utilisateurs. Contrairement aux outils d’IA approuvés par le DHS et dotés de contrôles empêchant les entrées de quitter les réseaux fédéraux, le ChatGPT public conserve les informations téléchargées sur les serveurs OpenAI.

Les échecs de la gouvernance de l’IA d’entreprise révélés

L’incident met en évidence des défaillances systémiques dans la manière dont les agences gouvernementales, et par extension, les entreprises, gèrent les exceptions aux outils d’IA pour les hauts fonctionnaires, ont déclaré des analystes en sécurité.

« FOUO n’est pas classifié, mais il s’agit toujours d’informations gouvernementales sensibles », a déclaré Arjun Chauhan, directeur pratique chez Everest Group. « Le télécharger sur un outil public d’IA crée une réelle exposition : perte de contrôle des données, surface d’exposition élargie, risque d’utilisation abusive secondaire et effondrement des limites politiques. »

Ce modèle reflète les premiers incidents d’entreprise au cours desquels des employés ont collé des documents confidentiels dans ChatGPT, a déclaré Chauhan. La différence cruciale est que des contrôles auraient existé au sein de la CISA et que la violation s’est produite via une voie d’exception. « Cela met en évidence un échec fondamental de la gouvernance. Les exceptions et l’accès des seniors sont souvent les points où les contrôles de l’IA échouent. »

Les agences fédérales disposent désormais de politiques et d’organes de gouvernance en matière d’IA, mais l’écart semble résider dans l’exécution plutôt que dans l’intention, selon Chauhan. Les outils d’IA sûrs et approuvés ne constituent pas toujours l’option par défaut ou la plus utilisable, et leur application varie selon le rôle et l’ancienneté.

Sunil Varkey, conseiller chez Beagle Security, a déclaré que l’incident reflète un défi organisationnel plus large. « Les équipes de direction peuvent faire référence à ces outils de manière positive pour l’apprentissage, la productivité et le perfectionnement de la communication, ce qui normalise involontairement leur utilisation », a-t-il déclaré. « En conséquence, ces plates-formes sont rapidement devenues des applications de productivité de facto sans être traitées avec la rigueur de gouvernance généralement appliquée aux systèmes d’entreprise traitant des informations sensibles. »

La tension entre commodité et sécurité est souvent à l’origine de tels incidents, a ajouté Varkey. Étant donné que les données « à usage officiel uniquement » ne sont pas formellement classifiées, les utilisateurs sous-estiment souvent leur impact opérationnel, contractuel ou sur leur réputation.

Jaishiv Prakash, analyste directeur chez Gartner, a déclaré que le plus grand risque lorsque les responsables téléchargent des documents marqués FOUO sur des plateformes publiques d’IA est de perdre le contrôle des données. « Vous n’avez aucune visibilité sur la durée pendant laquelle ils sont conservés, s’ils peuvent un jour être supprimés ou s’ils sont exposés lors de conservations légales ou de découverte. »

Les organisations doivent fournir à leurs employés des plates-formes d’IA sous licence et gouvernées, caractérisées par une résidence des données convenue par le fournisseur, des garanties strictes d’absence de formation et une rétention minimale, a déclaré Prakash. « Sans cela, les gens continueront à se tourner vers les outils publics d’IA par commodité, mettant ainsi en danger les informations sensibles. »

La crédibilité du leadership remise en question

Les téléchargements ont déclenché une évaluation interne du DHS impliquant l’avocat général par intérim du ministère, Joseph Mazzara, et le directeur de l’information Antoine McCord, ainsi que le directeur de l’information de la CISA, Robert Costello, et l’avocat en chef Spencer Fisher, selon le rapport. Le résultat n’a pas été divulgué.

Selon le rapport, la porte-parole de la CISA, Marci McCarthy, a confirmé que Gottumukkala avait reçu l’autorisation d’utiliser ChatGPT dans le cadre des garanties du DHS et a décrit cette utilisation comme « à court terme et limitée ». Elle a déclaré qu’il avait utilisé l’outil pour la dernière fois à la mi-juillet 2025 dans le cadre d’une exception temporaire autorisée et que la politique par défaut de la CISA bloquait l’accès à ChatGPT à moins qu’une exception ne soit accordée.

Le fait que les alertes automatisées soient déclenchées montre que les contrôles peuvent détecter les abus, ont déclaré les analystes, mais l’incident survenu au niveau de la direction soulève des questions de responsabilité.

« Comme cela implique le chef de l’agence civile de cybersécurité, l’impact est en grande partie sur la réputation », a déclaré Chauhan. « Les dirigeants fixent des normes de comportement. Les écarts sapent la culture de conformité et affaiblissent la crédibilité lorsqu’ils conseillent d’autres agences et opérateurs d’infrastructures critiques. »

L’incident de ChatGPT s’ajoute aux controverses croissantes entourant le bref mandat de Gottumukkala. En décembre, Politico a rapporté qu’il avait échoué à un test polygraphique de contre-espionnage fin juillet et que le DHS avait par la suite suspendu six membres du personnel de carrière, qualifiant le polygraphe de « non autorisé ».

La CISA a perdu un nombre important de ses effectifs depuis l’arrivée au pouvoir de l’administration Trump, son effectif étant passé de plus de 3 300 à environ 2 200 personnes en raison de rachats, de retraites anticipées et de licenciements. L’agence est confrontée à des réductions budgétaires proposées de près de 500 millions de dollars pour l’exercice 2026.

Gottumukkala était auparavant directeur de l’information du Dakota du Sud sous la direction du gouverneur de l’époque, Kristi Noem, aujourd’hui secrétaire du DHS. La CISA n’a pas immédiatement répondu à une demande de commentaires.

ConfidentialitéSécuritéIA générativeIntelligence artificielle