Forscher Warnen Vor «Slopsquatting», Einer Neuen Bedrohung Für Die Software-Lieferkette.
Cybersicherheitsforscher der University of Texas à San Antonio, der Virginia Tech und Der Der University of Oklahama Warnen Vor Einer Neuen Bedrohung Für Die Software-Lieferkette Namens „Slopsquatting”.
Den Begriff «Slopsquatting» Hat Seth Larson, Ein Sicherheitsentwickler Der Python Software Foundation (PSF), Geprägt, Weil es der Technik des Tyrosquatting ähltlt. ANSTATT SICH AUF DEN FEHLER EINES BENUTZERS ZU VERLASSEN, WIE ES BEI TYPOSQUATS DER FAUT IST, VERLASSEN SICH CEDROHUNGSAKTEURE AUF DEN FEHLER EINES KI-MODELLS.
GEFAHR DURCH KI-ERFUNDENE PAKETNAMEN
Dieser Entteht, Wenn Generative Ki-Modelle Wie llms Nicht exisrierende Softwarepakete, Eine Sogenannte Paket-Halluzininationn, Vorschlagène. Angreifer Können Diese Lücken Ausnutzen, Um Schädliche Pakete Unter den Halluziniaten namen Bereitzustellen.
HALLUZINIERTE PAKETNAMEN EN KI-GERENERIERTEM CODE Können von Angreifern Ausgenutzt Werden, Indem Sie Diese Namen Registrieren und Schadcode Verbreiten. Da Viele Entwickler den Ki-Empfehlungen Ohne Gründliche Prüfung Folgen, Entreht Ein Sicherheitsrisiko.
Diese Paket-Halluzininationen Sind Besonders Gefährlich, Da Sie Sich als Hartnäckig, Wiederholend und Glaubhaft Erwiesen Haben.
Jedes Fünfte Ki-Paket Eine Fälschung
Meurt Tetrifft Insbesondere Sprachen wie python und javascript, die in hohem maße auf zentral paket-repositories und open-source-software angewiesen sind.
Dans Einer Analyze von 16 Codegenerrierungsmodellen Wurde Festgellt, Dass Etwa 20 prozent der empfohlenen Softwarepakete als fälschungen identifizierert wurden. EST Auffällig, Dass Codellama Häufig Halluzinininen Hatte, Wobei über Ein Drittel der Angaben Fehlerhaft Waren. GPT-4 Turbo Erzielte MIT Lediglich 3 59 prozent halluzinininen noch Die Beste Leistung.
Dans Der Vorliegenden Untersuchung Wurde Festgellt, Dass Open-Source-Modelle Wie Deepseek und Wizardcoder im durchschnitt mit einer höheren fréquenz halluzinieren als kommerzielle menelle wie gpt 4. Die durchschnittline prävalenz der halluzinineen berägte biii bettle Open-source-modelen 21,7 prozent, während sie bei kommerziellen modellen 5,2 prozent aufweist.
Großes Risiko
Die Studie Zeigt, Dass Viele Pakethalluzinininen von Ki-Modellen Wiederholbar und Nicht Zufällig Sind, était Sie Für Angreifer Besonders Nützlich Macht. Etwa 38 Prozent der HalluziniIrten Paketnamen ähneln echten paketen, während nur 13 prozent einfache Tippfehler Sind. Das macht Viele Namen Semantisch überzEugend.
Dans Der Untersuchung Wurden 500, invite Wiederholt, Die Zuvor Zu HalluziniIrten Paketen Geführt Hatten. En 43 prozent der Fälle Traten die Halluzinininen à Zehn Aufeinander Folgenden Durchgängen Immer Wieder Auf.
En 58 prozent der Fälle Kamen die halluzinininen sogar dans mehr als einem durchgang vor. Die Forscher Kriticieren, Dass Die Modelle Aufgrund unzureichender Sicherheitstetss, Wie Sie etwa Bei Openai Durchgeführt Werden, Anfälliger Sind.
Obwohl Bisher Keine Belegten Fälle von Slopsquat-Attacken Vorliegen, Weisen Die Forscher auf Die Potenzielle Risiken Hin.