Les responsables de la sécurité considèrent de plus en plus l’IA comme un moyen de dynamiser leurs opérations de sécurité, mais la précipitation pour intégrer l’IA dans les outils de sécurité peut créer une myriade d’embûches, préviennent les experts.
Les RSSI se tournent de plus en plus vers les technologies de sécurité basées sur l’IA pour renforcer la cyberdéfense de leur organisation et étendre les capacités de leurs équipes.
Selon la dernière étude sur les priorités de sécurité de Foundry, 73 % des décideurs en matière de sécurité sont désormais plus susceptibles d’envisager une solution de sécurité utilisant l’intelligence artificielle, contre 59 % l’année précédente.
Les RSSI prévoient d’exploiter l’IA dans une gamme de fonctions de sécurité, notamment la détection des logiciels malveillants, la détection des menaces, la détection des anomalies, la prévision des risques en temps réel, ainsi que l’audit et la conformité. Ils envisagent également l’IA pour automatiser les réponses de sécurité, effectuer l’authentification, garantir la prévention des pertes de données et améliorer la visibilité du système d’entreprise.

Les personnes interrogées ont cité les avantages de l’IA, tels qu’une détection plus rapide des menaces inconnues, des temps de réponse accélérés et l’automatisation des tâches de sécurité pour réduire la charge de travail des employés. Les résultats sont conformes à une étude d’octobre 2025 du cabinet de conseil en gestion PwC, qui a révélé que l’IA devançait la sécurité du cloud et la protection des données comme la principale priorité d’investissement en cybersécurité pour les entreprises au cours des 12 prochains mois.
Couper à travers le bruit
« Les équipes ont besoin de signaux plus clairs, d’avertissements plus précoces et de moyens plus rapides d’obtenir une certitude au milieu d’un incident en cours », explique Newbury. « L’IA, capable de filtrer de grands volumes d’activité, de mettre en évidence des modèles significatifs et de les présenter de manière à ce que les analystes puissent agir immédiatement, est là où les organisations voient de réels avantages. »
Newbury ajoute : « Ces capacités contribuent à réduire le temps d’enquête et à prendre des décisions plus rapides et plus sûres dans des situations de haute pression. »
Une approche humaine ne suffit plus pour faire face à la complexité et au volume croissant des menaces, affirment de nombreux experts en sécurité. L’utilisation stratégique de la technologie de l’IA a le potentiel de reconnaître les modèles d’attaque et d’offrir aux analystes la possibilité de se démarquer et de prendre de meilleures décisions, libérant ainsi du temps et des ressources pour gérer des travaux de sécurité à plus forte valeur ajoutée et aller au-delà de la lutte constante contre les incendies.
« La plupart des équipes de sécurité sont surchargées, non pas parce qu’elles manquent d’outils, mais parce qu’elles manquent de temps et de signaux clairs », explique Newbury. « L’IA gagne sa place dans les domaines où la vitesse et la reconnaissance des formes surpassent véritablement l’effort manuel : détection des anomalies comportementales, indicateurs de menace précoces et activité subtile liée à l’identité qui précède souvent un événement de ransomware. »
Vérifier la livraison
David Tyler, fondateur du cabinet de conseil technologique Outlier Technology, prévient que certains fournisseurs apposent l’étiquette « IA » sur les capacités existantes tout en ajoutant un prix plus élevé combiné à un développement de produits solide et à de réelles avancées des autres.
« Une grande partie de ce qui est vendu comme une IA révolutionnaire est en fait une technologie vieille de plusieurs décennies qui est enfin mise en œuvre correctement ; ce n’est pas nécessairement mauvais, car une bonne gestion de produit est tout aussi importante que de nouveaux algorithmes », explique Tyler. « Mais si la ‘solution de sécurité IA’ d’un fournisseur est apparue du jour au lendemain au cours des deux dernières années, vous envisagez probablement un changement de marque plutôt qu’un véritable renforcement des capacités. »

« Les entreprises qui construisent depuis une décennie une corrélation basée sur des graphiques, une référence adaptative et des analyses comportementales sont très différentes de celles qui viennent d’ajouter une fonction de chat IA à leur interface utilisateur et appellent cela innovation », explique Tyler.
Le Dr Andrew Bolster, directeur principal de la R&D chez Black Duck, fournisseur de sécurité des applications, met également en garde les RSSI contre les fournisseurs qui appliquent des réseaux neuronaux aux outils existants sans résoudre les problèmes sous-jacents de qualité des données.
« La qualité de votre système d’authentification basé sur l’IA dépend de l’hygiène de vos données d’identité », explique le Dr Bolster. « La qualité de votre détection des logiciels malveillants basée sur l’IA dépend de la qualité de votre échantillon et de la précision de l’étiquetage. »
Le Dr Bolster ajoute : « Avant de signer des contrats pour des plateformes de sécurité de l’IA, auditez votre maturité en matière de gouvernance des données. »
Bolster soutient également que les RSSI eux-mêmes devraient se concentrer davantage sur la manière de créer une plate-forme de données de sécurité prête pour l’IA plutôt que sur les outils de sécurité qu’ils doivent acheter.
« Les RSSI devraient investir dans des architectures de maillage de données qui traitent la télémétrie de sécurité comme un produit de données de premier ordre avec une propriété définie, des SLA (accords de niveau de service) de qualité et des schémas standardisés », déclare-t-il.
Construire une plateforme de sécurité IA
Merlin Gillespie, directeur des opérations chez Cybanetix, fournisseur de services de sécurité gérés, voit le marché de la sécurité de l’IA mûrir et s’éloigner des solutions ponctuelles offrant des dépenses opérationnelles réduites pour se tourner vers une approche plus intégrée. Gillespie prévient que ce changement crée de nouveaux défis pour les responsables de la sécurité.
« De nos jours, chaque outil de sécurité dispose d’une couche d’assistance IA, mais au lieu de simplifier les opérations, cela crée des outils qui se chevauchent, des rapports incohérents et une provenance peu claire des données », selon Gillespie. « L’apprentissage est que les outils labellisés IA sont utiles mais ne constituent pas une solution en eux-mêmes. »
L’exercice auquel la plupart des organisations sont confrontées consiste à classer les processus éligibles à l’automatisation et ceux qui sont améliorés par le déterminisme et le raisonnement de l’IA, conseille Gillespie.
« Les équipes de sécurité devraient appliquer la même analyse descendante que celle utilisée dans l’ensemble de leur entreprise pour soutenir l’efficacité des logiciels et du personnel, plutôt que d’être dirigées par les outils des fournisseurs, ce qui peut entraîner un cloisonnement supplémentaire », explique Gillespie.
Pièges potentiels
Newbury de Halcyon a averti que ces problèmes étaient loin d’être les seuls pièges potentiels liés au déploiement de systèmes d’IA. Par exemple, une dépendance excessive aux systèmes d’IA peut entraîner un risque plus élevé.
« L’IA ne devrait pas remplacer les fondamentaux tels que la gestion des actifs, les correctifs, la gouvernance des identités, une segmentation appropriée ou des plans de récupération testés », déclare Newbury. « Ces disciplines sont d’autant plus importantes que les attaquants adoptent rapidement l’IA. »
Les problèmes hérités d’une formation inadéquate des systèmes d’IA peuvent également créer des problèmes.
« Les systèmes d’IA peuvent facilement hériter d’angles morts s’ils sont formés sur des ensembles de données restreints ou irréalistes », explique-t-il. « Les RSSI doivent comprendre comment les modèles sont formés et où leurs hypothèses s’effondrent.
Les ransomwares restent le test le plus clair pour savoir si les investissements dans l’IA sont prioritaires aux bons endroits, affirme Newbury.
« La plupart des incidents (de ransomware) modernes sont en fait des attaques basées sur l’identité », explique Newbury. « Les attaquants se connectent plutôt que de « pirater », souvent armés d’identifiants récupérés à grande échelle par des voleurs d’informations. »
Newbury ajoute : « À mesure que les adversaires intègrent l’IA à leurs opérations, vous verrez de plus en plus de ces attaques atterrir plus rapidement et frapper plus fort. Cela rend la question de la résilience beaucoup plus urgente. »
Newbury conclut : « L’IA vaut l’investissement, mais seulement lorsqu’elle affine la prise de décision, réduit le bruit et donne aux équipes le temps et la clarté nécessaires pour agir avant qu’un problème ne se transforme en crise. »



