Les risques liés à la cybersécurité vont s’accélérer cette année, alimentés en partie par l’IA, selon le Forum économique mondial

Lucas Morel

Ses perspectives annuelles en matière de cybersécurité indiquent que la cyber-résilience est essentielle pour réduire ce risque, l’IA étant le moteur de changement le plus important, tant pour les attaquants que pour les défenseurs.

Les risques liés à la cybersécurité vont s’accélérer cette année, alimentés par les progrès de l’IA, l’aggravation de la fragmentation géopolitique et la complexité des chaînes d’approvisionnement, indique le Forum économique mondial (WEF) dans son rapport annuel Global Cybersecurity Outlook.

La manière de la combattre n’est cependant pas nouvelle, ajoute le rapport. « En fin de compte, le renforcement de la cyber-résilience collective est devenu un impératif à la fois économique et sociétal. La cybersécurité est une frontière où la collaboration reste non seulement possible, mais puissante – un rappel que, même dans un contexte de fragmentation, de tensions économiques et d’incertitude, l’action collective peut conduire au progrès pour tous. »

L’année à venir mettra à l’épreuve non seulement la préparation technologique mondiale, mais également la capacité à aligner les politiques, l’éthique et la collaboration pour défendre un monde de plus en plus numérique, indique le rapport.

Publié lundi, le rapport de 64 pages est basé en partie sur les réponses à 19 questions d’une enquête menée l’automne dernier auprès de 804 cadres supérieurs, universitaires, responsables de la société civile et du secteur public en matière de cybersécurité dans 92 pays. Cela comprenait 316 RSSI. Du matériel supplémentaire a été rassemblé lors d’ateliers, notamment une session avec 21 dirigeants de la communauté RSSI du Centre pour la cybersécurité du forum.

Il s’agit du cinquième rapport annuel sur la cybersécurité du WEF. L’édition de l’année dernière révélait qu’une série de facteurs aggravants – tensions géopolitiques, chaînes d’approvisionnement complexes, prolifération des réglementations et adoption rapide des technologies – créaient une ère de complexité et d’imprévisibilité croissantes, et celle de cette année poursuit le thème.

Parmi les principales conclusions du dernier rapport :

  • L’IA devrait être le moteur de changement le plus important en matière de cybersécurité en 2026, selon 94 % des personnes interrogées ;
  • 87 % des personnes interrogées ont déclaré que les vulnérabilités liées à l’IA avaient augmenté au cours de l’année écoulée. Les autres cyberrisques qui ont augmenté étaient (dans l’ordre) la fraude et le phishing cyber-activés, la perturbation de la chaîne d’approvisionnement et l’exploitation des vulnérabilités logicielles ;
  • La confiance dans la préparation nationale aux cyberattaques continue de s’éroder, avec 31 % des personnes interrogées faisant état d’une faible confiance dans la capacité de leur pays à répondre aux cyberincidents majeurs, contre 26 % l’année dernière. Les niveaux de confiance varient considérablement selon les régions, avec 84 % des personnes interrogées au Moyen-Orient et en Afrique du Nord ayant confiance dans la capacité de leur pays à protéger les infrastructures critiques, et seulement 38 % des personnes interrogées en Amérique du Nord sont convaincues que leur pays était préparé ;
  • Lorsqu’on leur a demandé d’évaluer la cyber-résilience de leur propre organisation, 23 % des représentants du secteur public et des organisations internationales ont estimé que leur préparation était insuffisante. En revanche, seulement 11 % des personnes interrogées dans le secteur privé ont une opinion négative de leur entreprise ;
  • 91 % des organisations de plus de 100 000 employés ont modifié leurs stratégies de cybersécurité en raison de la volatilité géopolitique.

Il est intéressant de noter que les PDG et les RSSI n’étaient pas toujours sur la même longueur d’onde lorsqu’il s’agissait d’évaluer les cyber-risques pour leur organisation. Dans l’enquête de 2025, la plupart des PDG ont déclaré que les ransomwares, la cyber-fraude et le phishing ainsi que la perturbation de la chaîne d’approvisionnement constituaient leurs plus grandes préoccupations en matière de cybersécurité. Cette année, la fraude et le phishing cybernétiques sont passés au premier rang, suivis par les vulnérabilités de l’IA et l’exploitation des vulnérabilités logicielles.

D’un autre côté, même si la plupart des RSSI ont également déclaré que les ransomwares étaient leur principale préoccupation dans l’enquête de 2025, ils ont annulé l’ordre du PDG de classer en deuxième position les perturbations de la chaîne d’approvisionnement, puis la fraude et le phishing cyber-activés. Et dans la dernière enquête, les ransomwares et les perturbations de la chaîne d’approvisionnement restent les deux principales préoccupations, mais la troisième préoccupation concerne désormais l’exploitation des vulnérabilités logicielles.

Cela suggère que les PDG ont tendance à être plus préoccupés par les impacts commerciaux plus larges des fraudes, indique le rapport, tandis que pour les RSSI, l’inquiétude concernant les ransomwares reflète la perturbation opérationnelle importante qu’une attaque de ransomware réussie peut infliger à la disponibilité des systèmes critiques de technologie de l’information (TI) et de technologie opérationnelle (OT).

Contenu connexe : 8 choses que les RSSI ne peuvent pas se permettre de se tromper en 2026

Le rapport du WEF se concentre sur l’IA car les dirigeants estiment qu’elle sera le moteur le plus important du changement en matière de cybersécurité cette année. L’intégration généralisée des systèmes d’IA ajoute une surface d’attaque élargie qui crée de nouvelles vulnérabilités que les contrôles de sécurité traditionnels n’ont pas été conçus pour résoudre, indique le rapport. En outre, les auteurs de menaces exploitent l’IA pour améliorer l’ampleur, la vitesse, la sophistication et la précision de leurs attaques.

Cependant, les défenseurs peuvent également utiliser l’IA pour renforcer leurs cybercapacités. Mais, souligne le rapport, « les avantages de l’IA dépendent d’une exécution disciplinée. Des solutions mal mises en œuvre peuvent introduire de nouveaux risques – mauvaise configuration, prise de décision biaisée, dépendance excessive à l’automatisation et susceptibilité à la manipulation adverse – à moins que les organisations n’intègrent des garde-fous robustes, des pratiques de sécurité dès la conception et une surveillance continue. »

« L’implication est claire », indique le rapport. « L’IA peut améliorer la cybersécurité, mais seulement lorsqu’elle est déployée dans des cadres de gouvernance solides qui placent le jugement humain au centre. Dans le même temps, trop de contrôles peuvent créer des frictions, il est donc essentiel de trouver un juste équilibre. »

Un signe que cela pourrait déjà être le cas : 64 % des personnes interrogées ont déclaré que leur organisation avait mis en place un processus pour évaluer la sécurité des outils d’IA avant de les déployer, contre 37 % lors de l’enquête précédente de l’automne 2024.

Les données de l’enquête montrent que 77 % des personnes interrogées ont déclaré que leur organisation avait adopté l’IA pour la cybersécurité, principalement pour améliorer la détection du phishing (52 %), la réponse aux intrusions et aux anomalies (46 %) et l’analyse du comportement des utilisateurs (40 %).

Mais lorsqu’on les interroge sur les défis pratiques liés à l’adoption de l’IA pour la cybersécurité, les personnes interrogées citent le manque de connaissances et/ou de compétences (54 %), la nécessité d’une surveillance humaine (41 %) et l’incertitude quant aux risques (39 %) comme principaux obstacles. Ces résultats indiquent que la confiance reste un obstacle à l’adoption généralisée de l’IA, conclut le rapport.

« À mesure que les organisations intègrent l’IA dans leurs opérations de sécurité, l’équilibre entre l’automatisation et le jugement humain devient de plus en plus critique », indique le rapport. « Bien que l’IA excelle dans l’automatisation de tâches répétitives et à volume élevé, ses limites actuelles en matière de jugement contextuel et de prise de décision stratégique restent claires. Une dépendance excessive à l’égard d’une automatisation non gouvernée risque de créer des angles morts que les adversaires pourraient exploiter. »

Contenu connexe : La cybercriminalité va au-delà des gains financiers

Alors que l’IA continue de dominer le paysage de la cybersécurité, plusieurs autres technologies et vecteurs de menace gagnent du terrain en arrière-plan et devraient affecter la cybersécurité d’ici 2030, indique le rapport.

Il s’agit notamment des systèmes autonomes et de la robotique, des technologies quantiques, des monnaies numériques, des technologies spatiales et des câbles sous-marins, ainsi que des catastrophes naturelles et du changement climatique. D’ici la fin de la décennie, les systèmes autonomes constitueront un facteur à court terme, depuis l’IA aidant à l’analyse jusqu’à la direction des actions physiques dans les usines, la logistique, les soins de santé et les espaces publics. Cette évolution pourrait créer un nouveau profil de risque cyber‑physique, dans lequel des décisions exécutées par des machines peuvent modifier la sécurité et la qualité du service en quelques secondes, réduisant ainsi les fenêtres de détection et de réponse.

D’ici 2030, la technologie quantique aura évolué d’un perturbateur théorique à une menace sélective mais matérielle pour la cryptographie, prédit le rapport. Les acteurs au niveau de l’État ou disposant de ressources suffisantes peuvent être capables de lancer des attaques à accélération quantique contre des cibles de grande valeur, même si le décryptage à grande échelle reste rare. Dans le même temps, les défenseurs exploiteront l’analyse et la détection quantiques pour la détection des anomalies, créant ainsi une course dynamique entre attaquants et défenseurs.

En fin de compte, conclut le rapport, la construction d’un avenir numérique sécurisé nécessite plus que des solutions techniques. « Cela appelle à un leadership décisif, à une responsabilité partagée et à un engagement à relever les bases collectives – en garantissant que la résilience soit accessible à tous, et pas seulement à ceux qui ont les plus de ressources. Alors que les frontières entre les mondes numérique et physique continuent de s’estomper, les organisations qui prospéreront seront celles qui reconnaissent la cyber-résilience comme une responsabilité stratégique partagée – une responsabilité qui sous-tend la confiance, permet l’innovation et protège les fondements interconnectés de la société mondiale.  »

SécuritéIntelligence artificielle