Lorsque AI nukes votre base de données: le côté obscur de l’ambiance codage

Lucas Morel

Alors que les développeurs s’appuient sur Copilot et Ghostwriter, les experts mettent en garde contre les valeurs par défaut, les dépendances hallucinées et les attaques qui glissent les défenses traditionnelles.

Un matin de juillet, un fondateur de startup a regardé avec horreur leur base de données de production disparaître, nu non pas par un pirate, mais par un assistant de codage de l’IA bien intentionné dans Replit. Une seule commande sous-mariée AI, exécutée sans un deuxième coup d’œil, a anéanti les données en direct en quelques secondes.

L’accident est devenu une histoire édifiante sur le «codage de l’ambiance», l’habitude croissante de décharger des travaux de outils comme Github Copilot ou Replit Ghostwriter qui transforment les invites en anglais simple en code exécutable. L’attrait est évident: le prototypage plus rapide, moins de barrières pour les non-codeurs et un tir direct de l’idée à la démo – mais cette vitesse coupe dans les deux sens, laissant l’IA glisser les vulnérabilités en production ou, comme le cas de Replit l’a prouvé, les effacer complètement.

Il y a beaucoup de problèmes inhérents au codage d’ambiance. «Des problèmes fréquemment qui se déroulent sont manquants ou des contrôles d’accès faibles, des secrets ou des mots de passe codés en dur, des entrées non animées et une limitation de taux insuffisante», a déclaré l’analyste de Forrester, Janet Worthington. « En fait, Veracode a récemment constaté que 45% du code généré par l’AI contenait une vulnérabilité Top 10 OWASP. »

Secure Code Warrior CTO Matias Madou adopte une position zéro-frust. « En tant que professionnel de la sécurité, je vérifie tout code généré par l’IA pour les défauts », a déclaré le développeur vétéran. « Mais les développeurs moins expérimentés ne le feront pas. C’est là que les secrets et les défauts de défaut dangereux se déroulent. »

Des bugs logiques se cachant à la vue

Les études montrent qu’environ un quart des extraits de Python et JavaScript générés par l’IA contiennent des défauts logiques ou des défaillances en insécurité. Cela suit les expériences de Madou. « Lorsqu’il a été testé contre les défis de sécurité, les LLM ont constamment eu du mal avec de vagues catégories comme la protection du DOS ou les autorisations erronées – des vecteurs d’attaque courants. »

Worthington ajoute que les applications codées par vibration manquent souvent même une hygiène de base comme la limitation du taux, que les attaquants peuvent rapidement exploiter. «Les développeurs professionnels peuvent également être trop confiants dans la sortie de l’IA et sauter la validation de l’IDE, aggravant le risque», a-t-elle noté.

Les conséquences sont surfacées. Plus tôt cette année, un fondateur du SaaS a admis sur X que son application construite par curseur avait été piratée. Tea, une application de rencontres pour femmes que certains critiques affirmée étaient codées par vibe et divulguées les données des utilisateurs tandis que son clone de knock-off, Teoonher, a exposé 53 000 e-mails et mots de passe par une faille triviale.

Injection rapide: le petit secret de l’IA

Echoleak de Microsoft a montré comment un e-mail conçu malicieusement pourrait tromper le copilote dans l’exfiltration de données internes – à l’épreuve de l’injection rapide indirecte est plus qu’une expérience de pensée. Les chercheurs ont découvert plus tard que l’agent de codage de l’IA d’Amazon pouvait être ensemencé avec des commandes d’attribution informatique, brouillant la ligne entre l’abus de LLM et l’attaque de la chaîne d’approvisionnement.

Une seule invite injectée cachée dans une dépendance ou un bloc de code partagé peut passer directement à travers des applications codées par vibration dans des environnements de production, achetant efficacement l’attaque passée par les défenses traditionnelles. « Le risque se développe à mesure que ces outils s’intègrent plus profondément dans les systèmes d’entreprise », a déclaré Worthington.

BugCrowd Ciso Nick McKenzie a souligné que les équipes d’AppSec peuvent faire face si les processus sont à l’échelle. « C’est une grande demande avec toutes les vibrations en cours, mais si vous avez correctement construit vos processus AppSec, la révision du code généré par l’IA a les mêmes idiosyncrasies que de réviser le code écrit humain », a-t-il déclaré. « Le problème est lorsque l’ombre AI passe du tout sans examen. »

Bien que ce ne soit pas une petite tâche. La formation, la gouvernance et les changements culturels se heurtent tous ici, ce qui rend le défi moins sur les outils et plus sur la façon dont les gens s’y adaptent. De plus, le rythme de l’avancement de l’IA dépasse de loin le taux auquel la plupart des équipes peuvent apprendre, laissant un écart de compétences élargie que les organisations ne peuvent pas se permettre d’ignorer.

McKenzie convient que les enjeux sont élevés. « Shadow Ai n’est pas un risque marginal – c’est ici maintenant, et c’est notre travail de le gérer », a-t-il souligné.