Auch wenn Hacker derzeit noch manuell nachbessern müssen: Wie eine Untersuchung von Netscope ergab, ist die Zukunft von Schadsoftware wohl KI-gesteuert.
La cybercriminalité s’applique à notre époque actuelle, avec des outils de Large Language Models (LLM) pour vous permettre d’automatiser vos opérations. Comment pouvez-vous obtenir un code générique, le « marché du marché » et le service pour l’opérationnel ? Les recherches de Netskope Threat Labs ont été découvertes, et les chatbots sont également disponibles, ainsi que les codes de code créés.
Comme Netskope-Threat-Hunter, Jan Michael Alcantara, a publié un blog sur un blog, où le chercheur a effectué deux tests séparés pour :
Maintenant, vous pouvez utiliser GPT-3.5-Turbo et GPT-4, un code Python pour les injections et l’analyse des processus AV/EDR pour les générer. Ce test montre le potentiel de la meilleure génération de codes autonomes.
L’altere GPT-3.5-Turbo a commencé à utiliser l’Alcantara sur la réponse douce, le Schadcode étant généré. Der Nachfolger GPT-4 lehnte die direkte Anweisung aufgrund seiner Sicherheitsmechanismen ab. Er musste stattdessen mithilfe rollenbasierter Prompts ausgetrickst werden. Alors laissez-vous guider par les experts du modèle qui sont un test de pénétration. Damit ließ sich der Chatbot dazu bewegen, den unerwünschten Code zu erzeugen. Cet article vous propose des solutions techniques, comme des procédures et des procédures antivirales/EDR-bezogènes, qui ont été créées.
Schadcode est nur der Anfang
Schadcode durch LLMs zu erzeugen, ist aber nur ein erster Schritt, wie die Experten feststellen. Les logiciels malveillants doivent être utilisés dans les systèmes d’exploitation et dans les fonctionnalités réelles.
Pour que les fonctions du modèle Python soient implémentées, les fonctionnalités de virtualisation apparaissent et s’affichent sous la forme « Vrai » ou « Faux ». Ce scénario est écrit dans trois scénarios sous-entendus:
- une station de travail VMware,
- un AWS Workspace VDI et
- einer herkömmlichen physischen Umgebung.
Un script du test n’est pas le meilleur, lorsqu’il est abstrait et libre de l’utilisation correcte du riche signal envoyé. Dans les options virtualisées, il faut que ce soit « Vrai », qui est affiché sur l’hôte physique « False »
GPT-4 et GPT-3.5-Turbo sont présents dans l’interface VMware avec des spécifications et des spécifications plus strictes dans AWS Workspace VDI, mais leur code n’est pas disponible dans une interface cloud moderne. Dans un cadre physischen standardisé, les liens entre les modèles et les charnières sehr gute Resultate.
| Umgebung | Mise à niveau des scripts Python (GPT-4) | Mise à niveau des scripts Python (GPT-3.5-Turbo) |
| Poste de travail VMware | 10/20 | 12/20 |
| AWS Workspace VDI | 3/20 | 2/20 |
| Environnement réel | 18/20 | 18/20 |
GPT-5 surperforme les autres modèles
L’auteur est le code Python généré par GPT-4 et GPT-3.5-Turbo pour des applications pratiques qui peuvent encore être utilisées. Le code GPT-5 est clairement articulé avec une citation de 90 % de plus en plus pertinente. Sie kommen daher zu dem Ergebnis, dass der Engpass in puncto Codezuverlässigkeit sich rasch aufzulösen scheint.
Les suggestions ont trait à la maîtrise des techniques d’OpenAI pour un nouveau modèle d’OpenAI, notamment dans les mécanismes de sécurité renforcés par la forme, qui sont particulièrement utiles :
Dans les tests, le GPT-5 est potentiellement puissant et le code est une alternative sûre, qui a une portée plus large. Les Fachleutes s’occupent de leur travail dans les schémas de contexte complexes et unzuverlässig.
Unterm Strich sind die Ergebnisse für Sicherheitsverantwortliche damit laut den Forschenden positif: LLM-basierte Malware cann zwar dynamischen Code erzeugen, scheitert jedoch häufig an technischen Anforderungen wie der Virtualisierungsumgehung. Les déclarations générales et les incertitudes actuelles sont telles que l’automatisation complète des attaques contre les logiciels malveillants – encore – n’est pas possible.
![]()



