Six défauts découverts cachés dans la plomberie d’OpenClaw

Lucas Morel

Les chercheurs affirment qu’un scanner de code alimenté par l’IA a retracé les données non fiables à travers les couches d’OpenClaw, exposant des faiblesses exploitables, notamment SSRF, le contournement d’authentification et la traversée de chemin.

Les chercheurs en sécurité ont découvert six failles de niveau élevé à critique affectant le cadre d’agents d’IA open source OpenClaw, communément appelé « média social pour agents d’IA ». Les failles ont été découvertes par Endor Labs alors que ses chercheurs exécutaient la plate-forme via un moteur de test de sécurité des applications statiques (SAST) piloté par l’IA, conçu pour suivre la manière dont les données se déplacent réellement via le logiciel d’IA agentique.

Les bogues couvrent plusieurs catégories de sécurité Web, notamment la falsification de requêtes côté serveur (SSRF), l’authentification webhook manquante, les contournements d’authentification et la traversée de chemin, affectant le système agentique complexe qui combine de grands modèles de langage (LLM) avec l’exécution d’outils et des intégrations externes.

Les chercheurs ont également publié des exploits de preuve de concept pour chacune des failles, confirmant ainsi l’exploitabilité dans le monde réel. OpenClaw a publié des correctifs et des avis de sécurité pour ces problèmes.

Cela a aidé les chercheurs à comprendre « non seulement où se déroulent les opérations dangereuses, mais également si les données contrôlées par les attaquants peuvent les atteindre ». Le moteur de test a cartographié le parcours complet des « données non fiables », depuis les points d’entrée tels que les paramètres HTTP, les valeurs de configuration ou les réponses d’API externes jusqu’aux « puits » sensibles à la sécurité, comme les requêtes réseau, les opérations sur les fichiers ou l’exécution de commandes.

Endor Labs a déclaré avoir divulgué les vulnérabilités de manière responsable aux responsables d’OpenClaw, qui ont ensuite résolu les problèmes, permettant aux chercheurs de publier des détails techniques. La divulgation ne fournissait pas d’indications détaillées en matière d’atténuation, mais indiquait que des correctifs avaient été mis en œuvre dans les composants concernés.

IA générativeIntelligence artificielleSécurité