Les cybercriminels exploitent de plus en plus les technologies de la génération AI pour améliorer la sophistication et l’efficacité de leurs attaques.
L’intelligence artificielle révolutionne l’industrie technologique et cela est également vrai pour l’écosystème de cybercriminalité, car les cybercriminels tirent de plus en plus l’IA génératrice pour améliorer leurs tactiques, techniques et procédures et offrent des attaques plus rapides, plus fortes et plus sournoises.
Mais comme pour l’utilisation légitime des outils d’IA émergents, l’abus d’IA génératif pour les fins néfastes ne concerne pas tant le nouveau et l’invisible que sur la productivité et l’efficacité, l’abaissement de la barrière à l’entrée et le déchargement des tâches automatisables en faveur de la plus haute- Ordrez la réflexion de la part des humains impliqués.
Garraghan continue: «Si un utilisateur légitime peut trouver l’utilité dans l’utilisation de l’IA pour automatiser ses tâches, capturer des modèles complexes, réduire la barrière de l’entrée technique, réduire les coûts et générer de nouveaux contenus, pourquoi un criminel ne ferait-il pas de même?»
Voici un aperçu de diverses manières que les cybercriminels mettent la génération AI à utiliser dans l’exploitation des systèmes d’entreprise aujourd’hui.
Faire passer le phishing au niveau supérieur
Gen AI permet la création d’e-mails de phishing très convaincants, de plus en plus la probabilité que des marques potentielles donnent des informations sensibles aux sites d’escroquerie ou téléchargeant des logiciels malveillants.
Au lieu d’envoyer un e-mail raisonnablement générique et peu convaincant, souvent avec des incohérences et des erreurs grammaticales et de mise en forme, l’utilisation de l’IA permet aux cybercriminels de générer rapidement des e-mails plus sophistiqués et légitimes, avec le potentiel de personnalisation plus importante pour cibler le destinataire.
Les outils de la génération AI aident les criminels à rassembler différentes sources de données pour enrichir leurs campagnes – qu’il s’agisse de profilage social de groupe ou d’informations ciblées glanées sur les réseaux sociaux.
«L’IA peut être utilisée pour apprendre rapidement quels types d’e-mails sont rejetés ou ouverts, et à son tour modifier son approche pour augmenter le taux de réussite du phishing», explique Garraghan de Mindgard.
Au fur et à mesure que les attaques de phishing se ramifient en nature, les profondeurs audio et vidéo générées par l’IA peuvent être utilisées dans le cadre d’attaques d’ingénierie sociale plus sophistiquées. Dans l’exemple le plus en vue à ce jour, un travailleur financier de la société de conception et d’ingénierie Arup a été amené à autorisation d’une transaction frauduleuse de 200 millions de dollars HK (25,6 millions de dollars) après avoir assisté à un appel de vidéoconférence au cours de laquelle les fraudeurs ont utilisé la technologie Deepfake pour usurper son usurpation au Royaume-Uni chef des finances.
Faciliter le développement de logiciels malveillants
L’intelligence artificielle peut également être utilisée pour générer des logiciels malveillants plus sophistiqués ou du moins moins à forte intensité de main-d’œuvre.
Par exemple, les cybercriminels utilisent Gen AI pour créer des documents HTML malveillants. L’attaque Xworm, lancée par HTML de contrebande, qui contient du code malveillant qui télécharge et exécute les logiciels malveillants, porte les caractéristiques du développement via l’IA.
« La description détaillée de la charge par le chargeur suggérant qu’elle a été conçue en utilisant une IA générative », selon la dernière édition du rapport de menace des menaces de HP Wolf Security.
De plus, la «conception de la page Web HTML livrant XWorm est presque visuellement identique à la sortie de Chatgpt 4O après avoir incité le LLM à générer une page HTML qui offre un téléchargement de fichier», ajoute HP Wolf Security.
Des techniques similaires étaient en jeu avec la campagne Asyncrat précédente, selon la division de sécurité de l’Enterprise de HP.
Ailleurs, le groupe Ransomware Funksec – un opérateur de Ransomware-As-A-Service (RAAS) lié à l’Algérie qui tire parti des tactiques à double expression – a commencé à exploiter des technologies d’IA, selon Check Point Research.
«Les opérateurs FunkSEC semblent utiliser le développement de logiciels malveillants assistés par l’IA, ce qui peut permettre aux acteurs même inexpérimentés de produire et d’affiner rapidement des outils avancés», a écrit des chercheurs de Check Point dans un article de blog.
Accélération de la chasse et des exploits de la vulnérabilité
La tâche traditionnellement difficile d’analyser les systèmes pour les vulnérabilités et les exploits en développement peut être simplifié grâce à l’utilisation des technologies de la génération AI.
« Au lieu d’un pirate de chapeau noir passant le temps de sonder et d’effectuer une reconnaissance contre un périmètre système, un agent d’IA peut être chargé de le faire automatiquement », a déclaré Garraghan de Mingard.
Le général AI peut être à l’origine d’une réduction de 62% du temps entre une vulnérabilité découverte et son exploitation par les attaquants de 47 jours à seulement 18 jours, selon une étude récente de la société de renseignement des menaces Reliaquest.
«Cette forte diminution indique fortement qu’un progrès technologique majeur – probablement Genai – permet aux acteurs de menace d’exploiter les vulnérabilités à des vitesses sans précédent», écrit Reliaquest.
Les adversaires tirent parti de la génération AI aux côtés des outils de test Pen pour écrire des scripts pour des tâches telles que la numérisation réseau, l’escalade des privilèges et la personnalisation de la charge utile. L’IA est également probablement utilisée par les cybercriminels pour analyser les résultats de la numérisation et suggérer des exploits optimaux, leur permettant efficacement d’identifier les défauts dans les systèmes de victimes plus rapidement.
«Ces avancées accélèrent de nombreuses phases dans la chaîne de mise à mort, en particulier l’accès initial», conclut Reliaquest.
Escalade des menaces avec des plateformes alternatives
Les cybercriminels passent rapidement de Chatgpt aux nouveaux modèles d’IA de Chine – Deepseek et Qwen – pour générer un contenu malveillant.
«Les acteurs de la menace partagent ouvertement des techniques pour jailbreaker ces modèles, contourner les contrôles de sécurité et créer des logiciels malveillants, des voleurs d’informations et des campagnes de spam avec des restrictions minimales», selon Check Point Research. «Certains discutent même de la façon d’utiliser ces outils d’IA pour échapper aux protections anti-fraude bancaires – une escalade significative dans les cyber-menaces.»
«Des discussions multiples et des techniques partagées sur l’utilisation de protections anti-fraude du système bancaire Deepseek ont été trouvées, indiquant le potentiel de vol financier important», prévient Check Point dans un article de blog technique.
La société d’IA basée en Chine Deepseek, dont l’entrée récente a envoyé des ondes de choc dans l’industrie, est faiblement protégée contre les abus par rapport à ses homologues occidentaux.
Check Point Research explique: «Bien que Chatgpt ait investi considérablement dans les dispositions anti-abus au cours des deux dernières années, ces nouveaux modèles semblent offrir peu de résistance à une mauvaise utilisation, attirant ainsi une augmentation d’intérêt de différents niveaux d’attaquants, en particulier les faibles qualifiés. – Les individus qui exploitent les scripts ou les outils existants sans compréhension approfondie de la technologie sous-jacente. »
Les cybercriminels ont également commencé à développer leurs propres modèles de langage large (LLM) – tels que Wormgpt, Fraudgpt, Darkbert et autres – construit sans les garde-corps qui limitent l’utilisation abusive des criminels des plates-formes générales Gen AI.
Ces plateformes sont généralement exploitées pour des applications telles que le phishing et la génération de logiciels malveillants.
Immencer avec le contournement de l’authentification
Les outils de la génération AI peuvent également être abusés pour contourner les défenses de sécurité telles que les captchas ou l’authentification biométrique.
«L’IA peut vaincre les systèmes CAPTCHA et analyser la biométrie vocale pour compromettre l’authentification», selon le fournisseur de cybersécurité Dispersif. «Cette capacité souligne la nécessité pour les organisations d’adopter des mesures de sécurité plus avancées et en couches.»
Contre-mesures
Collectivement, l’utilisation abusive des outils Genai facilite les cybercriminels moins qualifiés pour gagner une vie malhonnête. La défense contre le vecteur d’attaque met à l’épreuve les professionnels de la sécurité pour exploiter plus efficacement la puissance de l’intelligence artificielle que les attaquants.
«L’utilisation criminelle des technologies de l’IA est de conduire la nécessité de tester, de détecter et de répondre à ces menaces, dans lesquelles l’IA est également exploitée pour lutter contre l’activité cybercriminale», explique Garraghan de Mindgard.
Dans un article de blog, Lawrence Pingree, vice-président du marketing technique chez Dispersive, décrit les cyber-défenses préventives que les professionnels de la sécurité peuvent prendre pour gagner ce qu’il décrit comme une «race AI (AI (automatisation, reconnaissance et désinformation)» entre les attaquants et les défenseurs.
« S’appuyer sur les mécanismes traditionnels de détection et de réponse n’est plus suffisant », prévient Pingree.
Parallèlement aux programmes de formation et de sensibilisation des employés, les entreprises devraient utiliser l’IA pour détecter et neutraliser les menaces génératives basées sur l’IA en temps réel. La randomisation et les modifications préventives des adresses IP, des configurations du système, etc., peuvent agir comme un obstacle à l’attaque.
Tirer parti de l’IA pour simuler les scénarios d’attaque potentiels et prédire le comportement de l’adversaire grâce à la simulation des menaces et à l’intelligence prédictive offre également une résilience accrue contre les attaques potentielles.