Risque interne à une époque de volatilité de la main-d’œuvre

Lucas Morel

La pression économique, le déplacement de l’IA et le désengagement organisationnel se conjuguent pour créer les conditions propices à des menaces internes accrues – avec des potentiels d’impact bien plus importants que jamais.

Les pressions économiques, les suppressions d’emplois dues à l’IA et le roulement organisationnel incessant portent le risque interne à son plus haut niveau depuis des années. L’instabilité de la main-d’œuvre érode la loyauté et exacerbe les griefs. Le déploiement accéléré de nouveaux outils puissants, tels que les agents IA, amplifie les menaces internes, tant humaines que machines.

En 2025, selon RationalFX et d’autres organismes de suivi de l’emploi, le secteur technologique mondial a vu environ 245 000 licenciements annoncés dans des centaines d’entreprises. Ces chiffres, bien que concentrés dans l’industrie technologique, reflètent des tendances plus larges observées dans d’autres secteurs, notamment l’industrie manufacturière, la vente au détail, la finance, l’énergie et le gouvernement, où les employeurs ont annoncé plus de 1,17 million de suppressions d’emplois jusqu’en novembre 2025 aux États-Unis, selon Challenger, Gray & Christmas.

Cette augmentation, en nette augmentation par rapport aux années précédentes, crée un terrain fertile pour le mécontentement : stress financier, ressentiment à l’égard de l’automatisation et comportement opportuniste, allant de la négligence et de la manipulation imprudente des données aux actions malveillantes délibérées comme l’exfiltration de données et la monétisation des informations d’identification.

Tout cela montre que nos initiés de confiance sont le principal vecteur d’incidents graves dans tous les secteurs et zones géographiques.

La menace émergente des machines : les agents IA comme vecteur volatile

À l’élément humain s’ajoute l’essor rapide des agents d’IA, que Palo Alto Networks a identifié comme l’un des risques internes les plus aigus et les plus évolutifs pour 2026.

Les agents autonomes bénéficiant d’un accès privilégié au système, d’une vitesse d’exécution surhumaine et d’une prise de décision à grande échelle ne sont plus de simples boosters de productivité. Ils deviennent des vecteurs exploitables pour une exfiltration silencieuse de données, des perturbations ou une catastrophe involontaire.

Cela est particulièrement préoccupant lorsque la volatilité réduit la surveillance humaine et précipite le déploiement sans contrôles proportionnés. Les prévisions de Palo Alto Networks en matière de cybersécurité pour 2026 soulignent que ces agents introduisent des vulnérabilités telles que le détournement d’objectifs, l’utilisation abusive d’outils, l’injection rapide et le déploiement fantôme, souvent amplifiés par le taux de désabonnement même qui conduit à leur adoption dans les organisations multinationales.

Les responsables de la sécurité en prennent note. Des enquêtes indiquent que 60 % des organisations expriment une grande inquiétude quant à l’utilisation abusive de l’IA qui permet ou amplifie les risques internes, selon la compilation de statistiques sur la cybersécurité du quatrième trimestre 2025 de Secureframe et les rapports associés. Dans le même temps, les modèles de travail hybrides et à distance constituent le principal risque émergent pour les risques internes au cours des trois à cinq prochaines années, cités par 75 % des personnes interrogées dans le rapport 2025 sur les risques internes de Cybersecurity Insiders. Ces environnements décentralisés brouillent encore davantage la visibilité et le contrôle, rendant plus difficile la détection de comportements anormaux de la part des humains ou des machines dans les opérations mondiales.

Alertes précoces : la machine comme risque/menace interne

Ces dynamiques n’apparaissent pas en vase clos. Ils représentent le point culminant d’avertissements qui se multiplient depuis des années.

Cette perspective a été renforcée en 2022 dans « La machine en tant que menace interne : Leçons de la suppression des données de sauvegarde de l’Université de Kyoto », qui analysait une défaillance d’automatisation réelle comme « un cas classique où les machines constituent une menace interne ». L’incident, au cours duquel une erreur de script non contrôlée a entraîné la suppression définitive de données de sauvegarde critiques, a démontré que le résultat, une perte catastrophique, était identique à ce qu’un interne malveillant pourrait obtenir.

L’effet cumulatif : le désabonnement humain rencontre la prolifération des machines

La convergence de ces facteurs – la volatilité humaine entraînée par les licenciements et les tensions économiques combinées à la multiplication incontrôlée des agents mécaniques – crée un effet cumulatif. Les organisations confrontées à des pressions sur les coûts donnent souvent la priorité à la rapidité d’adoption de l’IA plutôt qu’à la gouvernance, ce qui conduit à des déploiements d’IA fantôme et à une surveillance insuffisante. Dans le même temps, des employés déplacés ou mécontents peuvent monétiser l’accès, exfiltrer des données sensibles ou simplement négliger les contrôles lorsqu’ils se désengagent, comme nous l’avons vu lors de l’incident de KnownSec, où un interne a révélé que l’entreprise était un complément de l’infrastructure de cyberopérations offensives du gouvernement chinois. Si cette action a sans aucun doute été bien accueillie par de nombreux cyberdéfenseurs car elle donne un aperçu des capacités de la Chine, elle démontre également qu’aucune entité n’est à l’abri du facteur de volatilité.

Il ne fait aucun doute qu’une telle anxiété liée aux licenciements en cours et à l’incertitude des rôles peut conduire à des erreurs nerveuses, à une thésaurisation des privilèges ou à des solutions de contournement précipitées qui exposent les données sans intention de nuire. Pourtant, le mal est actualisé. Il en résulte un paysage de risques internes accru, amplifié lorsque l’interaction entre le désabonnement humain et la prolifération des machines est négligée.

Vers des stratégies cohérentes : atténuation holistique à une époque instable

C’est là que la cohérence de la stratégie de risque interne devient essentielle. Les approches holistiques doivent intégrer des analyses comportementales qui surveillent à la fois les modèles humains (par exemple, les changements de sentiment lors d’une restructuration ou la collecte de données en dehors des heures normales) et les comportements des machines (par exemple, les appels d’API anormaux ou les pics d’activité des agents).

Les programmes de requalification peuvent aider à retenir les talents et à réduire le ressentiment en positionnant les employés comme des partenaires dans des rôles renforcés par l’IA plutôt que comme des victimes du déplacement. Une gouvernance solide des identités des machines, exigeant une authentification, un accès avec le moindre privilège et une surveillance continue, étend les principes de confiance zéro au domaine non humain. Et surtout, les organisations doivent relier les fonctions RH et sécurité pour détecter les premiers indicateurs de volatilité avant qu’ils ne se manifestent comme des menaces.

Sans ces mesures proactives et intégrées, la cascade pourrait être importante. Un seul agent d’IA exploité pourrait exfiltrer des téraoctets de données à des vitesses qu’aucun humain ne pourrait égaler. Comme l’histoire l’a montré, un employé mécontent peut utiliser des informations d’identification persistantes pour installer des portes dérobées, voler ou vendre des informations, ou provoquer une destruction délibérée. Les enjeux ne se limitent plus à des incidents isolés. Ils couvrent désormais l’ensemble de l’écosystème, des chaînes d’approvisionnement aux infrastructures critiques.

La voie à suivre

À l’aube de 2026, le message est clair : le risque interne n’est plus avant tout un problème humain. Il s’agit d’un problème de volatilité, dans lequel les pressions économiques, le déplacement de l’IA et le désabonnement organisationnel s’intensifient à un rythme sans précédent. Pour y faire face, il faut faire preuve de la même rigueur que celle que nous appliquons aux menaces extérieures, mais appliquée à l’intérieur, avec prévoyance, cohérence et volonté d’évoluer.

Gestion des menaces et des vulnérabilitésGestion des risquesSécuritéGestion du personnel