6 nouvelles façons d’utiliser l’IA en cybersécurité

Lucas Morel

L’IA change tout, y compris la cybersécurité. Voici six méthodes créatives d’IA que vous pouvez utiliser pour aider à protéger votre entreprise.

L’IA est déjà largement reconnue comme un puissant outil de protection de la cybersécurité. Les systèmes axés sur l’IA peuvent détecter les menaces en temps réel, permettant une réponse rapide et une atténuation. L’IA peut également s’adapter et évoluer, apprenant en permanence des nouvelles données, améliorant sa capacité à identifier et à traiter les menaces émergentes.

Votre équipe de cybersercurty a-t-elle envisagé d’utiliser l’IA pour garder une longueur d’avance sur des menaces de plus en plus sophistiquées? Si c’est le cas, voici six façons innovantes d’IA peuvent aider à protéger votre organisation.

1. Anticiper les attaques avant de se produire

L’IA prédictive donne aux défenseurs la capacité de prendre des décisions défensives avant un incident, même en automatisant les réponses, explique Andre Piazza, stratège de sécurité chez Predictive Technology Developer Bforeai. «Courir à des taux de précision élevée, cette technologie peut améliorer la productivité des équipes de sécurité contestées par le nombre d’alertes, les faux positifs contenus et le fardeau de tout traitement.»

L’IA prédictive repose sur l’ingestion de grandes quantités de données et de métadonnées sur Internet. Pour créer des prédictions, un ensemble de techniques d’apprentissage automatique dédiées à la fois à la notation et à la prédiction, connues sous le nom de forêt aléatoire, analyse les données. «Cet algorithme repose sur des bases de données de bonnes et de mauvaises infrastructures validées, connues sous le nom de Vérité Ground, qui fonctionne comme l’étalon-or pour faire des prédictions», explique Piazza. L’IA prédictive peut également utiliser une base de données d’ensembles connus de comportements qui composent une intention malveillante.

Un niveau élevé de précision est nécessaire pour que les prédictions fournissent de la valeur, dit la Piazza. Pour tenir compte de la dynamique de la surface d’attaque, telles que les changements dans les enregistrements IP ou DNS, ainsi que de nouvelles techniques d’attaque développées par des criminels, l’algorithme met en continu la vérité du terrain. « C’est ce qui rend les prédictions précises à long terme et, par conséquent, ont des actions automatisées, en supprimant l’homme dans la boucle si vous le souhaitez. »

2. Réseaux adversaires génératifs d’apprentissage automatique

Michel Sahyoun, architecte en chef des solutions de la société de technologies de cybersécurité Nopalcyber, recommande d’utiliser des réseaux adversaires génératifs (GAN) pour créer, ainsi que de protéger contre les cyberattaques très sophistiquées précédemment invisibles. «Cette technique permet aux systèmes de cybersécurité d’apprendre et de s’adapter en s’entraînant contre un très grand nombre de menaces simulées», dit-il.

Les Gans permettent aux systèmes d’apprendre des millions de nouveaux scénarios d’attaque et de développer des défenses efficaces, dit Sahyoun. «En simulant des attaques qui ne se sont pas encore produites, l’IA contradictoire aide à se préparer de manière proactive aux menaces émergentes, réduisant l’écart entre l’innovation offensive et la préparation défensive.»

Un GAn se compose de deux composants principaux: un générateur et un discriminateur. «Le générateur produit des scénarios de cyberattaque réalistes – tels que de nouvelles variantes de logiciels malveillants, des e-mails de phishing ou des modèles d’intrusion de réseau – en imitant les tactiques d’attaquant du monde réel», explique Sahyoun. Le discriminateur évalue ces scénarios, apprenant à distinguer l’activité malveillante du comportement légitime. Ensemble, ils forment une boucle de rétroaction dynamique. «Le générateur affine ses simulations d’attaque en fonction des évaluations du discriminateur, tandis que le discriminateur améliore continuellement sa capacité à détecter les menaces de plus en plus sophistiquées.»

3. Un assistant d’analyste de l’IA

En automatisant le processus de triage à forte intensité de main-d’œuvre, Hughes Network Systems tire parti de la génération AI pour élever le rôle de l’analyste d’entrée de gamme.

«Notre moteur d’IA surveille activement les alertes de sécurité, corrèle les données de plusieurs sources et génère des récits contextuels qui nécessiteraient autrement un effort manuel important», explique Ajith Edakandi, leader du produit de cybersécurité chez Hughes Enterprise. «Cette approche positionne l’IA non pas en remplacement des analystes humains, mais comme un assistant intelligent qui effectue une grande partie des bases d’investigation initiales.»

Edakandi dit que l’approche améliore considérablement l’efficacité des centres d’opérations de sécurité (SOC) en permettant aux analystes de traiter les alertes plus rapidement et avec une plus grande précision. «Une seule alerte déclenche souvent une cascade d’actions de suivi – vérifier les journaux, référencer les renseignements sur les menaces, évaluer l’impact commercial, etc.», déclare-t-il. «Notre IA rationalise ce (processus) en effectuant ces étapes en parallèle et à la vitesse de la machine, permettant finalement aux analystes humains de se concentrer sur la validation et la réponse aux menaces plutôt que de passer un temps précieux à collecter un contexte.»

Le moteur d’IA est formé sur des manuels et des runbooks d’analystes établis, apprenant les étapes typiques prises lors de divers types d’enquêtes, explique Edakandi. «Lorsqu’une alerte est reçue, l’IA initie ces mêmes actions d’investigation (en tant qu’êtres humains), tirant des données de sources de confiance, corrélant les résultats et synthétisant l’histoire de la menace.» La sortie finale est un résumé prêt pour les analystes, réduisant efficacement le temps d’enquête de près d’une heure à seulement minutes. «Il permet également aux analystes de gérer un volume plus élevé d’alertes», note-t-il.

4. Modèles d’IA qui détectent les micro-écarts

Les modèles d’IA peuvent être utilisés pour basculer le comportement du système, détectant les micro-écarts que les humains ou les systèmes traditionnels basés sur des règles ou des seuils manqueraient, explique Steve Tcherchian, PDG de la société de services de sécurité et de produits XYPRO Technology. «Au lieu de chasser les mauvais comportements connus, l’IA apprend en permanence à quoi ressemble le« bien »au niveau du système, de l’utilisateur, du réseau et des processus», explique-t-il. « Il signale alors tout ce qui s’éloigne de cette norme, même si cela n’a pas été vu auparavant. »

Fend des données en temps réel, des journaux de processus, des modèles d’authentification et des flux de réseau, les modèles d’IA sont formés en continu sur le comportement normal comme moyen de détecter l’activité anormale. « Lorsque quelque chose s’écarte – comme un utilisateur qui se connecte à une heure étrange à partir d’un nouvel emplacement – un signal de risque est déclenché », explique Tcherchian. « Au fil du temps, le modèle devient plus intelligent et de plus en plus précis car de plus en plus de ces signaux sont identifiés. »

5. Investigation et réponse automatisée du triage d’alerte

Une entreprise de 1 000 personnes peut facilement obtenir 200 alertes en une journée, observe Kumar Saurabh, PDG de la firme aérienne de détection et de réponse gérée. «Pour enquêter soigneusement sur une alerte, il faut un analyste humain au mieux 20 minutes», dit-il. Cela signifie que vous aurez besoin d’au moins neuf analystes pour étudier chaque alerte. «Par conséquent, la plupart des alertes sont ignorées ou non étudiées à fond.»

La technologie des analystes de l’IA examine chaque alerte, puis détermine les autres données dont il a besoin pour recueillir pour prendre une décision précise sur le fait que l’alerte est bénigne ou sérieuse. L’analyste de l’IA parle à d’autres outils au sein de la pile de sécurité de l’entreprise pour recueillir les données nécessaires pour prendre une décision sur le fait que l’alerte nécessite une action ou peut être rejetée en toute sécurité. «Si c’est malveillant, la technologie détermine quelles mesures doivent être prises pour remédier et / ou se remettre de la menace et informer immédiatement l’équipe de sécurité», explique Saurabh.

6. Deception générative proactive

Une approche vraiment nouvelle de l’IA dans la cybersécurité consiste à utiliser une tromperie générative proactive dans un paysage de menaces dynamiques, explique Gyan Chawdhary, PDG de la société de formation en cybersécurité Kontra.

«Au lieu de simplement détecter les menaces, nous pouvons former l’IA pour créer et déployer en permanence des segments de réseau, des données et des comportements de réseau très réalistes, mais faux», explique-t-il. «Considérez-le comme construire un funhouse numérique en constante évolution pour les attaquants.»

Chawdhary ajoute que l’approche va au-delà des points de miel traditionnels en rendant la tromperie beaucoup plus omniprésente, intelligente et adaptative, visant à épuiser et à confondre les attaquants avant de pouvoir atteindre des atouts légitimes.

Cette approche est incroyablement utile car elle déplace complètement la dynamique de puissance, dit Chawdhary. «Au lieu de réagir constamment à de nouvelles menaces, nous obligeons les attaquants à réagir à nos illusions générées par l’AI», dit-il. «Cela augmente considérablement le coût et le temps pour les attaquants, car ils gaspillent les ressources en explorant les systèmes de leurre, en exfiltrant de fausses données et en analysant le trafic réseau fabriqué.» La technique achète non seulement un temps précieux pour les défenseurs, mais fournit également une riche source d’intelligence de menace sur les tactiques, techniques et procédures des attaquants (TTP) lorsqu’ils interagissent avec l’environnement trompeur.

À la baisse, le développement d’un environnement de tromperie génératif proactif nécessite des ressources importantes couvrant plusieurs domaines. « Vous aurez besoin d’une infrastructure cloud robuste pour héberger les environnements de leurre dynamique, de puissantes ressources GPU pour la formation et la gestion des modèles d’IA génératifs et une équipe d’ingénieurs AI / ML hautement qualifiés, d’architectes de cybersécurité et de spécialistes du réseau », prévient Chawdhary. «De plus, l’accès à des ensembles de données divers et étendus du trafic réseau bénin et malveillant est crucial pour former l’IA à générer des tromperies vraiment convaincantes.»