Un cornichon dans le code LLM de Meta pourrait permettre des attaques RCE

Lucas Morel

Les cadres AI, y compris le lama de Meta, sont sujets à la désérialisation automatique de Python par cornichon qui pourrait conduire à une exécution de code distante.

Le cadre du modèle grand langage (LLM) de META, LLAMA, souffre d’une surveillance de codage open source typique, permettant potentiellement l’exécution de code arbitraire sur les serveurs conduisant à un vol de ressources, des violations de données et une prise de contrôle du modèle d’IA.

Le défaut, suivi sous le nom de CVE-2024-50050, est un bogue de désérialisation critique appartenant à une classe de vulnérabilités résultant de l’utilisation inappropriée de la bibliothèque open source (PYZMQ) dans les cadres AI.

« L’équipe de recherche Oligo a découvert une vulnérabilité critique dans Meta-Lama, un cadre open source de Meta pour la création et le déploiement d’applications Gen IA », a déclaré les chercheurs en sécurité d’Oligo dans un article de blog. «La vulnérabilité, CVE-2024-50050, permet aux attaquants d’exécuter du code arbitraire sur le serveur d’inférence de lallame de LLAMA à partir du réseau.»

Meta, le 24 octobre 2024, a ensuite publié CVE-2024-50050 avec un score CVSS de 6,3 (gravité moyenne). Oligo, cependant, a souligné que la nature de la vulnérabilité justifie un score beaucoup plus élevé.

Snyk, une société de sécurité de la chaîne d’approvisionnement des logiciels, a attribué à la vulnérabilité un score CVSS critique de 9,3 sous les version 4.0 et 9,8 sous la version 3.1.

Meta n’a pas répondu aux questions sur la clarté de la cote de gravité du défaut avant la publication de cet article. La vulnérabilité est actuellement en attente d’analyse par la base de données nationale de vulnérabilité (NVD), un référentiel complet de vulnérabilités divulguées publiquement, gérées par l’Institut national américain des normes et de la technologie (NIST).