Lorsqu’Anthropic a annoncé le début des tests vendredi, les fournisseurs de sécurité et les marchés se sont redressés et en ont pris note. Mais la panique est-elle justifiée ?
Lorsqu’Anthropic a lancé vendredi un « aperçu de recherche limité » de son offre Claude Code Security, les investisseurs de Wall Street ont fait plonger les actions des plus grands fournisseurs de cybersécurité.
Mais le déploiement d’Anthropic justifiait-il une telle réaction ?
Après tout, ces entreprises, dont CrowdStrike, Zscaler, Palo Alto Networks et Okta, préparent leurs propres capacités d’agent, et même si ce n’était pas le cas, les capacités de vérification de code promises par Anthropic ne remplacent pas initialement leurs fonctionnalités.
« La sécurité des codes est un élément essentiel d’un programme de cybersécurité et d’une pile technologique globale, mais elle est loin d’être la seule », a souligné Justin Greis, PDG du cabinet de conseil Acceligence. « Il ne fait aucun doute que l’amélioration de la sécurité du code et l’amélioration du cycle de vie de développement logiciel sécurisé (SDLC) et du cycle de vie de développement de produits (PDLC) renforceront la posture de sécurité d’une organisation, mais cela n’éliminera pas le besoin d’outils et de services tels que EDR/MDR, IAM, informations sur les menaces et protection des données.
Il a ajouté : « Cependant, c’est un signal clair que les sociétés d’IA vont continuer à élargir leurs cas d’utilisation et à analyser de plus en plus de données et de codes, et à apporter de réelles connaissances et actions aux organisations de sécurité. Le rythme de leur innovation est stupéfiant et sans précédent. »
Tient un humain au courant
Cependant, Greis a lancé un avertissement aux RSSI : « Pour ceux qui s’appuient aveuglément sur n’importe quel outil d’analyse de code, IA ou autre, pour remplacer les principes fondamentaux des bonnes pratiques de sécurité et du codage sécurisé, c’est votre feu rouge clignotant pour ne pas externaliser l’expertise même qui protège la proposition de valeur du produit ou du service que vous développez. Nous devons garder les humains qualifiés au courant et garantir que nous utilisons l’IA comme un accélérateur et non comme un remplacement de l’expertise », a-t-il déclaré.
L’annonce d’Anthropic indiquait : « Claude Code Security, une nouvelle fonctionnalité intégrée à Claude Code sur le Web » « (analysera) les bases de code à la recherche de vulnérabilités de sécurité et suggérera des correctifs logiciels ciblés pour examen humain, permettant aux équipes de trouver et de résoudre les problèmes de sécurité que les méthodes traditionnelles oublient souvent. »
Le déploiement est limité, du moins au début, a déclaré Anthropic. « Nous le publions sous forme d’aperçu de recherche limité pour les clients Enterprise et Team, avec un accès accéléré pour les responsables des référentiels open source. »
L’entreprise n’a pas répondu à une demande d’entretien.
Anticipant les craintes que le vérificateur de code prenne en charge les fonctions de sécurité plutôt que de les augmenter, Anthropic a souligné qu’il souhaitait tenir les humains informés.
« Plutôt que de rechercher des modèles connus, Claude Code Security lit et raisonne sur votre code comme le ferait un chercheur en sécurité humaine : comprendre comment les composants interagissent, suivre la façon dont les données se déplacent dans votre application et détecter les vulnérabilités complexes qui manquent aux outils basés sur des règles », indique l’annonce. « Chaque résultat passe par un processus de vérification en plusieurs étapes avant d’arriver à un analyste. Claude réexamine chaque résultat, essayant de prouver ou de réfuter ses propres conclusions et de filtrer les faux positifs. »
Il a noté que les résultats validés apparaissent dans le tableau de bord Claude Code Security, où les équipes peuvent les examiner, inspecter les correctifs suggérés et approuver les correctifs. Mais, ajoute-t-il, « parce que ces problèmes impliquent souvent des nuances difficiles à évaluer à partir du seul code source, Claude fournit également un indice de confiance pour chaque résultat. Rien n’est appliqué sans l’approbation humaine : Claude Code Security identifie les problèmes et suggère des solutions, mais les développeurs prennent toujours l’appel. »
Ancre la posture de sécurité au modèle
Cependant, ces assurances n’ont pas fait disparaître toutes les inquiétudes.
« Au moment où ces codeurs d’ambiance connectent un modèle de base à leur pipeline CI, l’ensemble de leur posture de sécurité n’est plus ancrée uniquement dans le code de l’entreprise », a souligné Zahra Timsah, PDG d’I-Gentic AI.
« Il est ancré dans le comportement actuel de ce modèle. Anthropic peut mettre à jour les pondérations, ajuster les heuristiques de raisonnement, affiner les couches de sécurité ou modifier la façon dont les modèles sémantiques sont interprétés. Rien de tout cela ne nécessite votre approbation. Rien de tout cela ne déclenche votre contrôle interne des modifications. Vos pipelines restent verts. Vos tableaux de bord restent stables. Mais le moteur définissant ce qui compte comme une vulnérabilité a changé », a-t-elle déclaré.
« Anthropic a le contrôle total. Cela signifie que votre base de code sécurisée aujourd’hui pourrait être évaluée demain sous une limite de vulnérabilité différente sans que vous touchiez une seule ligne. Cela revient à externaliser une partie de votre définition de sécurité vers un système probabiliste en amont que vous ne contrôlez pas. «
La dépendance à l’externalisation n’a rien de nouveau
Mais d’autres ont suggéré que l’externalisation de la sécurité se produisait progressivement depuis des années, en commençant par les opérations cloud et SaaS, puis en passant aux entreprises de cybersécurité qui prenaient de plus en plus le contrôle des cyber-opérations des entreprises, et enfin aux fournisseurs de genAI et d’agents.
Flavio Villanustre, RSSI du groupe LexisNexis Risk Solutions, a applaudi le fait qu’Anthropic donne au moins des paroles en l’air aux humains qui supervisent le processus, mais, a-t-il noté, « cela ne signifie pas que les gens ne rogneront pas sur les raccourcis dans certains cas et n’ajouteront pas encore un autre LLM avec un comportement non déterministe au problème existant de la génération de code par un LLM avec un comportement non déterministe également.
Une préoccupation constante concernant les systèmes d’IA agentiques et génératifs est leur tendance à halluciner, en plus d’avoir d’autres problèmes de fiabilité. Mais plusieurs spécialistes de la cybersécurité affirment que cela n’a rien de nouveau, dans la mesure où les grands systèmes de sécurité ont toujours leur part de faux positifs et de faux négatifs.
Le consultant en cybersécurité Brian Levine, directeur exécutif de FormerGov, a déclaré que la réaction de Wall Street à l’annonce d’Anthropic pourrait indiquer que les investisseurs « se recalibrent autour de l’idée que la sécurité native de l’IA pourrait compresser ou même réorganiser des parties de la pile. Que ce soit justifié ou simplement une peur réflexive de perturbation, cela suggère que les gens croient maintenant qu’un modèle de base pourrait concurrencer de manière significative, ou être plus utile, que les moteurs de détection et d’analyse traditionnels. «
Une autre catégorie d’analyse
Si Anthropic peut continuer à produire ses résultats, cela pourrait signifier un changement encore plus fondamental, a-t-il noté.
« Si un modèle peut raisonner sur des bases de code tentaculaires, corréler les modèles qui manquent aux outils statiques et le faire en continu, il ne s’agit pas d’une amélioration incrémentielle, mais d’une toute autre catégorie d’analyse. Cela suggère un monde où la découverte de vulnérabilités concerne moins les bibliothèques de signatures que l’interprétation adaptative », a déclaré Levine.
Mais lui, comme Timsah, est préoccupé par les changements de modèle ayant un impact sur la posture de sécurité d’une organisation. « C’est le compromis », a-t-il déclaré. « Une puissance analytique sans précédent associée à un nouveau type de dépendance que les responsables de la sécurité devront évaluer avec lucidité. »
Un point de confiance unique et un point d’échec unique
Joshua Woodruff, PDG de MassiveScale.AI, a déclaré qu’il trouvait la décision d’Anthropic problématique, mais pas en raison des conséquences qu’elle pourrait avoir sur d’autres sociétés de sécurité. Il s’inquiète surtout des avantages qu’en tireront les cyberattaquants.
« Si le modèle d’Anthropic a trouvé plus de 500 vulnérabilités inconnues de haute gravité dans des projets open source, cela signifie que tout attaquant exécutant un modèle similaire peut trouver ces mêmes vulnérabilités dès maintenant. Mais personne ne les signale. Ils les exploitent », a déclaré Woodruff. « La découverte des vulnérabilités est devenue asymétrique. Les défenseurs disposent d’un outil qui suggère des correctifs à examiner par un humain. Les attaquants disposent d’un outil qui trouve les failles Zero Day à la vitesse de la machine, sans étape de révision. »
Il y a un autre problème, a-t-il ajouté : « Si un agent d’IA trouve le bug suggère le correctif, qui vérifie le correctif ? Vous faites confiance au même modèle pour être à la fois l’auditeur et l’équipe de réparation. Aucune équipe de sécurité ne laisserait la même personne trouver la vulnérabilité et rédiger le correctif sans une sorte d’examen indépendant. Mais c’est exactement ce qui se produit si les équipes traitent l’examen humain comme un tampon. Le correctif devient la nouvelle surface d’attaque. «
Ravid Circus, CPO chez Seemplicity, est d’accord avec Woodruff sur le fait que l’utilisation circulaire potentielle de l’IA pour trouver les trous et les réparer est une préoccupation.
« Lorsque la même IA écrit le code, trouve les vulnérabilités et propose le correctif, vous avez créé un point de confiance unique et un point de défaillance unique. Compromettez cela et vous ne vous contentez pas d’introduire des bugs, vous fabriquez potentiellement des portes dérobées à grande échelle », a déclaré Circus. « Je crains que nous ne soyons sur le point de voir « Nous utilisons Claude Security » devenir la nouvelle case à cocher, comme les badges SOC 2 ou la marque Zero Trust. La vraie question n’est pas de savoir quelle IA vous utilisez. Il s’agit de savoir si votre organisation a la maturité opérationnelle pour valider et gouverner ce qu’elle vous dit. « Claude a dit que nous sommes en sécurité » ne peut pas devenir une posture de sécurité. «
Certes, Anthropic a récemment eu ses propres problèmes en matière de cybersécurité, mais peu de gens ont contesté le fait que ce qu’il a apporté en matière d’examen du code est impressionnant. La question est de savoir si, à terme, elle offrira de meilleurs prix, évolutivité et fiabilité que les partenaires existants, et dans combien de temps cela pourrait se produire.
En fait, un autre cyber-responsable, Gadi Evton, PDG de Knostic, affirme que, parce que la vitesse de l’innovation évolue beaucoup plus rapidement que la plupart des acteurs du secteur ne l’ont jamais vu, certaines organisations ne réévaluent peut-être pas assez souvent leurs offres d’IA.
« Cela évolue si vite. Les gens qui ont essayé (l’offre d’Anthropic) il y a deux mois ne comprennent pas à quel point cela fonctionne maintenant », a déclaré Evton.
Et, a déclaré Rock Lambros, directeur de la sécurité de l’IA chez Zenity, « tant que la genAI reste non déterministe, la sécurité à la génération aura toujours des lacunes et vous aurez toujours besoin d’une validation post-génération pour quelque chose qui ne peut pas garantir deux fois le même résultat. Le vrai problème est que personne n’a de personnel, de financement ou même de portée pour gouverner les systèmes autonomes déjà déployés. «



