Les assistants de codage d’IA amplifient les risques de cybersécurité plus profonds

Lucas Morel

Bien que capables de réduire les erreurs triviales, les copilotes de codage de l’IA laissent les entreprises à risque d’augmentation des modèles de codage non sécurisés, de secrets exposés et de erreurs de configuration des nuages, révèle la recherche.

Les améliorations de la productivité qui découlent de l’utilisation croissante des outils de codage d’IA sont au détriment de risques de sécurité plus élevés.

Bien que l’utilisation des assistants de codage d’IA diminue le nombre d’erreurs de syntaxe peu profonde, cela est plus que compensé par une augmentation des défauts structurels plus coûteux, selon les recherches de la société de sécurité des applications APIIRO. L’analyse d’Apiiro montre que les erreurs de syntaxe triviale dans le code AI-écrit abandonné et les bogues logiques ont chuté, mais les chemins d’escalade des privilèges ont sauté et les défauts de conception architecturale ont également augmenté.

L’IA multiplie des défauts allant des dépendances open source aux modèles de codage sans sécurité, aux secrets exposés et aux erreurs de configuration des cloud, ont constaté que les chercheurs ont constaté, ajoutant que moins de demandes de traction beaucoup plus importantes associées aux outils de codage de l’IA sont le risque de risque.

Le développement du code d’IA est un «risque automatisant à grande échelle»

Zahra Timsah, co-fondatrice et PDG de l’I-Gentic AI, dit que les résultats d’Apiiro mettent en évidence ce que leur entreprise a vu dans la pratique: les assistants de l’IA peuvent éliminer les bogues triviaux tout en amplifiant les vulnérabilités systémiques plus profondes.

«Les outils d’IA ne sont pas conçus pour faire preuve de jugement», explique Timsah. «Ils ne pensent pas aux chemins d’escalade des privilèges, aux modèles architecturaux sécurisés ou aux nuances de conformité. C’est là que le risque arrive.»

Timsah ajoute: «Le code est expédié plus rapidement, mais si la surveillance est mince, les entreprises automatisent efficacement le risque à grande échelle.»

«Nous voyons très rarement des bogues simples générés par les Top LLMS; au lieu de cela, la plupart des bogues que nous rencontrons ont atteint le test ou même la production avant d’être repéré», explique Dandage.

Ingénieurs «  Shadow  » et vibration des risques composés codants

Ashwin Mithra, responsable mondial de la sécurité de l’information dans la société de développement de logiciels continu CloudBees, note qu’une partie du problème est que les équipes non techniques utilisent l’IA pour créer des applications, des scripts et des tableaux de bord.

«Ces ingénieurs fantômes ne réalisent pas qu’ils font partie du cycle de vie du développement logiciel et contournent souvent les critiques critiques et les contrôles de sécurité», explique Mithra. « En outre, les outils de sécurité fondamentaux comme Sast (statique des tests de sécurité des applications), DAST (Dynamic Application Security Testing) et les avis manuels n’ont pas été construits pour attraper du code généré par l’AI au moment de l’invite. »

Le résultat est une surface d’attaque croissante, alimentée par des personnes qui n’ont jamais été formées pour sécuriser le code, prévient Mithra.

«Lorsque quiconque peut coder, les risques se multiplier et que les vérifications de sécurité sont limitées et ne peuvent pas tout attraper, en particulier les risques spécifiques au contexte ou les vulnérabilités complexes, les fuites d’API, l’authentification faible, les PII exposés (informations personnellement identifiables) et les données non cryptées», explique Mithra.

Chetan Conikee, fondateur et CTO chez Qwiet AI, convient que le «codage d’ambiance» pose un problème pour amener des contributeurs plus formés dans les pipelines de production.

«De grandes demandes de traction générées par AI-Touch Ai-Touch submergent les examinateurs, diluant la surveillance et augmentant le rayon de souffle de chaque fusion», explique Conikee.

Demandes massives de traction AI complexifie la détection de défaut

Roman Rylko, CTO chez le cabinet de développement de logiciels et de conseil, Pynest, affirme que les recherches d’Apiiro correspondaient aux problèmes auxquels son entreprise a été confrontée lorsqu’il a commencé à utiliser les assistants en développement de l’IA, l’élimination des erreurs de syntaxe étant plus que compensées par une augmentation des vulnérabilités architecturales et des erreurs de configuration du cloud.

«Dans l’un des projets pour une fintech du Canada, la génération de l’IA a créé un service avec le formatage de code idéal, mais avec une logique d’autorisation non sécurisée, malgré le fait que le correctif semblait évident, ce qui pourrait entraîner une escalade des privilèges entre les modules», a déclaré Rylko. «Sans examen en profondeur, un tel bug pourrait facilement atteindre la production.»

Un autre problème vient de la tendance de l’IA à faire des demandes de traction massives qui impliquent des dizaines de fichiers et même plusieurs microservices en une seule fois.

«Nous avons vu que cela se produire dans un petit projet de détaillant – un engagement par l’IA a impliqué plus de 10 fichiers en même temps, et les examinateurs ont eu du mal à surmonter tout cela en ligne», explique Rylko.

John Otte, consultant principal en matière de sécurité chez résultant, convient que la transition vers des demandes de traction générées par l’IA moins plus importantes mais beaucoup plus importantes «amplifie le rayon de souffle des vulnérabilités, rendant la détection, l’examen et le recul beaucoup plus difficiles pour les équipes de développement et de sécurité.»

«Pour atténuer ces risques, les entreprises devraient associer le développement axé sur l’IA avec une modélisation rigoureuse des menaces architecturales, appliquer des politiques d’examen de code à grain fin avec une analyse automatisée des dépendances et des secrets, et intégrer la gestion continue de la posture de sécurité du cloud pour assister aux faiblesses au niveau de la conception avant d’atteindre la production», conseille l’OTTE.

Les assistants de codage Verbose AI augmentent le risque

Neil Carpenter, architecte de solution principale au startup de sécurité des applications, indique que les assistants de codage de l’IA implémentent souvent plus de code pour effectuer la même quantité de travail – ce qui entraîne une augmentation des vecteurs d’attaque et une fiabilité plus faible.

«Les assistants IA, lorsqu’ils ne sont pas donnés de contexte approprié, reconstruisent ou réécrivent souvent les fonctionnalités, au lieu d’appeler d’autres fonctions ou modules de l’application», explique Carpenter.

Mehran Farimani, PDG de Rapidfort, soutient l’évaluation que les assistants de codage de l’IA sont susceptibles de générer des composants logiciels verbeux et difficiles à comprendre.

«Les outils d’IA génèrent des logiciels plus importants et plus complexes qui incluent souvent des composants, des dépendances et des décisions de configuration inutiles que les équipes ne considèrent pas pleinement ou ne examinent pas entièrement», explique Farimani.

Ordres de grandeur

Apiiro a utilisé son moteur d’analyse de code profond (DCA) pour analyser le code à partir de dizaines de milliers de référentiels de code impliquant plusieurs milliers de développeurs et une variété d’assistants de codage. En juin 2025, le code généré par l’AI-introduisait plus de 10 000 nouveaux résultats de sécurité par mois dans les référentiels de l’étude d’Apiiro – un pic de 10 fois en seulement six mois.

Les défauts allaient des dépendances open source aux modèles de codage sans sécurité, aux secrets exposés et aux erreurs de configuration des cloud.

Jeff Williams, co-fondateur et CTO lors de la sécurité du fournisseur de sécurité des applications d’exécution, conteste les conclusions d’Apiiro selon lesquelles les assistants de codage de l’IA quadruptent la vitesse de développement tout en entraînant une augmentation de 10 fois les vulnérabilités. D’autres études indiquent des chiffres beaucoup plus bas pour les deux mesures, note Williams.

Williams ajoute: « Je souhaite qu’ils aient abordé les études récentes (SEMGREP) qui montrent une détection de vulnérabilité basée sur l’IA ne trouvant que 10 à 20% des vulnérabilités positives réelles ainsi que des taux de faux positifs élevés. »

Atteint le commentaire, Apiiro a déclaré que les différences dans la portée, la méthodologie et la population expliquent l’écart entre ses recherches et les études en laboratoire antérieures.

«Les résultats d’Apiiro reflètent une portée plus large que les études antérieures. Nous avons examiné non seulement les défauts au niveau du code, mais également les risques de dépendance open source et les expositions secrètes, qui créent toutes des risques d’entreprise critiques», explique Itay Nussbaum, chef de produit chez Apiiro. « Contrairement au travail de Semgrep, nous ne mesurons pas la précision de la détection de vulnérabilité basée sur l’IA. Au lieu de cela, nos recherches ont examiné la sortie des assistants codants de l’IA dans des environnements d’entreprise du monde réel au fil du temps. »

Pieter Danhieux, PDG et co-fondateur de Secure Code Warrior, a déclaré que ses recherches sur les comparaisons LLM effectuées il y a 24 mois ont révélé que même si des classes de vulnérabilité plus simples, telles que les défauts d’injection, ont été traitées avec précision dans de nombreux cas, des classes plus subjectives telles que le contrôle d’accès et une mauvaise configuration de la sécurité avaient un taux de précision médiocre, sans compréhension avec des développeurs qualifiés de sécurité.

«De plus, nos recherches ont montré que les assistants de codage de l’IA – et les versions LLM qu’ils utilisent – peuvent parfois être douées pour produire du code sécurisé dans un langage de codage (par exemple, dactylographié) mais bien pire dans un autre (par exemple, PHP)», dit Danhieux.

«Il n’y a pas encore de monde où l’humain (développeur) devrait être retiré de la boucle», ajoute-t-il.

L’IA n’est pas un remplacement pour la responsabilité

Rich Marcus, CISO chez Audit, la conformité et le fournisseur de plate-forme de logiciels de gestion des risques Auditboard, soutient que le fait de ne pas reconnaître les limites de l’IA représente le plus grand risque à utiliser la technologie.

Avant de permettre aux développeurs d’IA, les entreprises devraient fournir une formation sur les risques et les meilleures pratiques d’utilisation.

«Les développeurs doivent comprendre que l’IA ne remplace pas la responsabilité», explique Marcus. « Chaque développeur est responsable du code qu’ils commettent, même si l’IA l’a écrit. »

Marcus poursuit: «Cela signifie que le code généré par l’IA est toujours soumis aux mêmes principes et pratiques de développement logiciel sécurisés tels que la revue de code, SCA (analyse de code statique), le sast et les tests manuels. Si un défaut là-bas entraîne des bogues ou un incident, ils seront appelés à y remédier – afin qu’ils le comprennent mieux et le possèdent.»

L’IA doit accélérer les workflows mais pas au détriment de la vérification appropriée, d’autres sont d’accord.

«Les demandes de traction liées au code généré par l’IA doivent toujours être examinées par des ingénieurs expérimentés qui comprennent le code, la logique commerciale et le contexte de la conformité», explique Timsah de l’IA-Gentic. «Les organisations devraient également hiérarchiser la transparence et la lignée en traitant le code autorisé comme toute autre dépendance tierce.»

Timsah ajoute: « Ils ont besoin de traçabilité complète de qui l’a écrit, quel modèle l’a généré, et dans quels paramètres, ce qui facilite la vérification et la résolution des problèmes plus tard. »

Stratégies d’atténuation

Les assistants de codage de l’IA peuvent être un multiplicateur de force pour les équipes de développement, mais uniquement si les entreprises créent des garde-corps pour gérer le risque associé.

«Avec une forte gouvernance, une surveillance automatisée et des organisations de responsabilité humaine peuvent exploiter la vitesse de l’IA sans multiplier les vulnérabilités», conseille Timsah de l’IA-Gentic.

D’autres experts ont présenté des recommandations sur l’atténuation des risques associés aux assistants de codage de l’IA:

  • Intégrez l’outillage de sécurité dans les assistants de code AI, par exemple, en tirant parti des serveurs MCP (Model Context Protocol).
  • Limitez le volume des modifications générées par l’IA en fonction du projet afin que les demandes de traction restent gérables.
  • Activer strictement les vérifications automatiques dans CI / CD – scanners secrets, analyse statique et contrôle de configuration du cloud.

L’atténuation des défauts créés par les assistants de codage de l’IA nécessite un état d’esprit différent, dit Timsah de l’IA-Gentic.

«Les entreprises doivent utiliser l’IA pour regarder l’IA en déploiement des solutions d’IA agentiques qui scannent automatiquement le code généré par l’IA contre les politiques, les normes de sécurité et les exigences réglementaires avant la fusion du code», soutient-il.

Les entreprises devraient également adopter la sécurité et la surveillance continue du changement à gauche.

«Les contrôles de sécurité ne peuvent pas être boulonnés à la fin du pipeline», explique Timsah. «Ils doivent être intégrés directement dans les processus CI / CD afin que le code généré par l’IA reçoive le même examen minutieux que les contributions open source.»

Rylko de Pynest ajoute: «Nous traitons les assistants de l’IA comme des« développeurs juniors »- leur code est toujours vérifié par des seniors.»