Séparer le battage médiatique de la réalité: comment les cybercriminels utilisent réellement l’IA

Lucas Morel

La lutte contre les menaces plus avancées axées sur l’IA nécessite que nous évoluions collectivement nos défenses, et la bonne nouvelle est que de nombreux praticiens de la sécurité commencent déjà à s’adapter.

Des conversations de salle de conférence aux événements de l’industrie, «l’intelligence artificielle» est la phrase de buzz qui remodèle comment nous considérons collectivement l’avenir de la sécurité. Les perspectives sont pour le moins diverses. Certains insistent sur le fait que l’IA est une balle d’argent attendue depuis longtemps, tandis que d’autres pensent qu’elle détruira progressivement la société numérique telle que nous la connaissons.

En ce qui concerne les technologies émergentes, ces cycles de battage médiatique – et les affirmations audacieuses qui les accompagnent – ne s’alignent pas complètement avec la réalité. Alors que les acteurs de la menace utilisent absolument l’IA pour augmenter et rationaliser leurs efforts, les scénarios sensationnels dont nous entendons souvent sont encore largement théoriques.

Les défenseurs ont besoin d’une évaluation claire de la façon dont l’IA déplace aujourd’hui l’écosystème de la cybercriminalité, ainsi que des idées sur la façon dont il est positionné pour évoluer à l’avenir – pas plus de peur, d’incertitude et de doute. En séparant les faits de la fiction en ce qui concerne l’IA et la cybercriminalité, les équipes de sécurité partout seront mieux équipées pour ajuster leurs stratégies de défense, anticiper comment les attaquants peuvent utiliser l’IA à l’avenir et protéger efficacement les actifs critiques.

La démocratisation de l’IA offre de nouvelles capacités des attaquants

Comme pour toute nouvelle technologie, il est facile de supposer que les cybercriminels utilisent l’IA pour créer de nouveaux vecteurs d’attaque. Pourtant, au lieu d’utiliser une IA pour réinventer entièrement les menaces, les attaquants utilisent principalement cet outil pour tuer leurs opérations existantes. Les acteurs de la menace comptent sur l’IA pour stimuler l’efficacité, la précision et l’échelle des techniques, telles que l’ingénierie sociale et le déploiement de logiciels malveillants. Par exemple, les cybercriminels utilisent des outils générés par l’IA comme Fraudgpt et Elevenlabs pour élaborer des attaques de phishing et de vision qui imitent le ton et le style d’un dirigeant d’une entreprise, ce qui rend de plus en plus difficile pour un destinataire de reconnaître la menace potentielle.

Les adversaires utilisent également ces outils d’IA pour le support linguistique localisé, ce qui facilite le développement de communications à utiliser et à réutiliser pratiquement partout dans le monde.

La démocratisation de l’IA entraîne ces changements dans les capacités des attaquants, et même les acteurs de la menace novice peuvent désormais exécuter des attaques réussies (et lucratives). Une grande partie de ce qui est nécessaire, allant de l’expertise de codage substantielle à la planification logistique calculée, est désormais facilement atteinte par l’IA. Les acteurs de la menace s’appuient sur l’IA comme un «bouton facile», en utilisant la technologie pour automatiser les tâches à forte intensité de main-d’œuvre comme la mise à l’échelle de leurs efforts de reconnaissance, le développement de communications d’ingénierie sociale hautement personnalisées et contextuellement pertinentes et d’optimiser le code malveillant existant pour esquiver la détection.

L’IA a également un impact sur ce qui est disponible sur le Web Dark, avec des modèles AI-A-A-Service florissants dans le cavalier sous terre. Tout comme les modèles de ransomwares en tant que service qui sont devenus courants au cours de la dernière décennie, les adversaires peuvent acheter des services améliorés par l’IA qui offrent des outils de reconnaissance, la génération defake profonde, des kits d’ingénierie sociale ciblés pour des industries ou des langues spécifiques, et bien plus encore. Le résultat est que la cybercriminalité devient de plus en plus moins chère, plus rapide, plus ciblée et plus difficile à détecter.

L’évolution de l’IA: préparer les défenseurs pour les menaces de demain

Alors que les professionnels de la sécurité traquent leurs stratégies défensives, nous devons considérer comment l’IA remodelera la cybercriminalité dans les années à venir. Nous devons également anticiper les traitants fondamentaux des pivots, et ce que cette évolution signifie pour toute notre industrie. L’IA aura inévitablement un impact sur la découverte de vulnérabilité, permettra la création de nouveaux vecteurs d’attaque et entraînera l’utilisation d’essaims d’agent autonomes. Les progrès futurs de l’IA accéléreront également la découverte de vulnérabilités zéro-jours, ce qui pose une grave préoccupation pour les défenseurs.

Au-delà de l’utilisation de l’IA pour extraire des vulnérabilités fraîches, les cybercriminels utiliseront l’IA pour développer de nouveaux vecteurs d’attaque. Bien que cela ne se produise pas aujourd’hui, c’est un concept qui deviendra réalité à l’avenir. Par exemple, les attaquants pourraient exploiter les vulnérabilités dans les systèmes d’IA eux-mêmes ou effectuer des attaques d’intoxication des données sophistiquées ciblant les modèles d’apprentissage automatique que les organisations utilisent.

Enfin, alors qu’un groupe d’agents autonomes essaims en toute cyberattaques ne semble pas plausible aujourd’hui, il est crucial que la communauté de la cybersécurité surveille les façons dont les acteurs de la menace exploitent progressivement l’automatisation pour turbuler leurs attaques.

Construire un avenir cyber résilient

La lutte contre les menaces plus avancées axées sur l’IA nécessite que nous évoluions collectivement nos défenses, et la bonne nouvelle est que de nombreux praticiens de la sécurité commencent déjà à s’adapter. Les équipes utilisent des cadres comme Mitre Att & CK pour cartographier les chaînes d’attaque et déploient l’IA pour la modélisation prédictive et la détection d’anomalies. De plus, les défenseurs doivent se concentrer sur des activités telles que la chasse aux menaces alimentées par l’IA et les capacités de réponse aux incidents hyper-automatisées, et ils ont potentiellement besoin de repenser leurs architectures de sécurité.

N’oublions pas que l’IA donne aux cybercriminels un nouveau niveau d’agilité qui est difficile à égaler pour les praticiens de la sécurité. Pour réduire ce fossé, les chefs de sécurité doivent examiner comment la bureaucratie ou les responsabilités cloisonnées peuvent entraver leurs stratégies de défense et s’adapter en conséquence. Les acteurs malveillants utilisent déjà l’IA pour accélérer le cycle de vie de l’attaque, et nous devons être en mesure de nous défendre contre leurs efforts sans toujours avoir à évoluer la participation humaine.

Au-delà de la réalisation des ajustements stratégiques et tactiques de nos défenses, les partenariats public-privé sont également essentiels à notre succès collectif. Ces efforts doivent également éclairer les changements de politique, nécessitant le développement proactif de nouveaux cadres ainsi que des normes standardisées sur l’utilisation et l’utilisation abusive de l’IA qui sont acceptées et respectées dans le monde entier.

L’IA continuera d’avoir un impact sur tous les aspects de la cybersécurité. Aucune organisation, indépendamment des ressources ou de l’expertise, ne peut naviguer avec succès à ce changement seul. Le succès dépendra non seulement de la technologie, mais de la coopération, de la flexibilité et de notre capacité à s’adapter à une réalité changeante.

En savoir plus sur la façon dont l’IA transforme la cybercriminalité.