Les pirates peuvent transformer Grok et Copilot en canaux secrets de commande et de contrôle, préviennent les chercheurs

Lucas Morel

Un accès permissif à l’IA et une surveillance limitée pourraient permettre aux logiciels malveillants de se cacher dans le trafic d’entreprise fiable, accélérant ainsi les attaques adaptatives basées sur l’IA.

Les équipes de sécurité d’entreprise qui se battent pour activer les outils d’IA générative négligent peut-être un nouveau risque : les attaquants peuvent abuser des assistants d’IA basés sur le Web tels que Grok et Microsoft Copilot pour relayer discrètement les communications de logiciels malveillants via des domaines qui sont souvent exemptés d’une inspection plus approfondie.

La technique, décrite par Check Point Research (CPR), exploite les capacités de navigation Web et de récupération d’URL de ces plates-formes pour créer un canal de commande et de contrôle bidirectionnel qui se fond dans le trafic IA de routine et ne nécessite ni clé API ni compte authentifié.

« Le scénario d’attaque que nous proposons est assez simple : un attaquant infecte une machine et installe un logiciel malveillant », a déclaré CPR. Le logiciel malveillant communique ensuite avec l’assistant IA via l’interface Web, l’invitant à récupérer le contenu d’une URL contrôlée par l’attaquant et à renvoyer les instructions intégrées à l’implant.

Étant donné que de nombreuses organisations autorisent par défaut l’accès sortant aux services d’IA et appliquent une inspection limitée à ce trafic, cette approche transforme efficacement les domaines d’IA fiables en infrastructure de sortie secrète.

Les analystes en sécurité ont déclaré que les résultats révèlent un angle mort croissant dans la gouvernance de l’IA d’entreprise.

« Les entreprises qui autorisent un accès sortant illimité aux services Web publics d’IA sans inspection, sans contrôle d’identité ou sans journalisation rigoureuse sont plus exposées que beaucoup ne le pensent », a déclaré Sakshi Grover, directeur de recherche senior pour IDC Asia Pacific Cybersecurity Services.

« Ces plates-formes peuvent fonctionner efficacement comme des points de terminaison externes de confiance, ce qui signifie que les activités malveillantes peuvent être dissimulées dans le trafic réseau normal, y compris les sessions HTTPS de routine vers des domaines d’IA largement utilisés », a-t-elle ajouté.

Sunil Varkey, analyste en cybersécurité, a déclaré que cette technique fait écho à des stratégies d’évasion passées telles que la stéganographie et les attaques « vivre de la terre », où les adversaires abusent d’outils légitimes et d’infrastructures fiables pour éviter d’être détectés.

Le CPR a déclaré que l’utilisation de plates-formes d’IA comme relais C2 n’est qu’un cas d’abus potentiel. Les mêmes interfaces pourraient être invitées à générer des commandes opérationnelles à la demande, depuis la localisation de fichiers et l’énumération des systèmes jusqu’à la production de scripts PowerShell pour les mouvements latéraux, permettant aux logiciels malveillants de déterminer leurs prochaines étapes sans contrôle humain direct.

Dans un scénario plus avancé, un implant pourrait transmettre un bref profil de l’hôte infecté et s’appuyer sur le modèle pour déterminer la progression de l’attaque.

Un changement structurel dans la détection

L’étude souligne également un changement plus large dans la manière dont les logiciels malveillants peuvent évoluer à mesure que l’IA est intégrée aux opérations d’exécution plutôt qu’aux simples flux de travail de développement.

« Lorsque l’IA passe d’une assistance au développement à un guidage actif du comportement des logiciels malveillants au moment de l’exécution, la détection ne peut plus s’appuyer uniquement sur des signatures statiques ou des indicateurs d’infrastructure connus », a déclaré Krutik Poojara, spécialiste de la cybersécurité. « Au lieu d’une logique codée en dur, vous avez affaire à un comportement adaptatif, polymorphe et contextuel qui peut changer sans modifier le malware lui-même. »

Grover a déclaré que cela rend les attaques plus difficiles à identifier, obligeant les défenseurs à s’appuyer davantage sur la détection comportementale et une corrélation plus étroite entre les points finaux, le réseau, l’identité et la télémétrie SaaS.

Plus important encore, cela modifie le rythme de la défense. Si les attaquants peuvent ajuster dynamiquement les commandes et les chemins d’exécution en fonction de l’environnement qu’ils rencontrent, les équipes de sécurité ne répondent plus à un manuel fixe mais à une interaction en constante évolution.

« Cela réduit la fenêtre entre l’intrusion et l’impact et augmente l’importance de la détection en temps réel, de la réponse automatisée et des boucles de rétroaction plus étroites entre les renseignements sur les menaces et les opérations SOC », a déclaré Grover.

Étapes à suivre

Les responsables de la sécurité ne devraient pas réagir en bloquant purement et simplement l’IA, estiment les analystes, mais en appliquant la même discipline de gouvernance que celle utilisée pour d’autres plateformes SaaS à haut risque.

Varkey a recommandé de commencer par un inventaire complet de tous les outils d’IA utilisés et d’établir un cadre politique clair pour les approuver et les activer.

Les organisations doivent également mettre en œuvre des règles de surveillance du trafic spécifiques à l’IA et de détection basées sur des séquences pour identifier les modèles d’automatisation anormaux. D’autres options à considérer incluent le déploiement de programmes de sensibilisation progressifs. « D’un point de vue architectural, les organisations devraient également investir dans des plates-formes offrant une visibilité unifiée sur les couches réseau, cloud, identité et application, permettant aux équipes de sécurité de corréler les signaux et de suivre l’activité entre les domaines plutôt que de traiter l’utilisation de l’IA comme un trafic Web isolé », a déclaré Grover.

IA générativeIntelligence artificielleSécurité