La prochaine pandémie ne mettra pas seulement notre biologie à l’épreuve : elle testera si notre IA et notre cybersécurité peuvent survivre à la tempête.
Lorsque le monde a été confronté au COVID-19, j’ai vu quelque chose de remarquable se produire. Les systèmes d’intelligence artificielle (IA), que j’avais autrefois considérés comme des outils de recherche et d’efficacité, sont soudain devenus des instruments de survie. Ils ont modélisé les épidémies, prédit les poussées et accéléré la recherche sur les vaccins. Pourtant, en même temps, j’ai été témoin d’une autre bataille silencieuse, une bataille numérique. Les organismes de santé, les instituts de recherche et même les chaînes d’approvisionnement en vaccins sont devenus la cible de cyberattaques. Pour moi, il s’agit d’un tournant qui a renforcé une vérité simple : l’IA ne peut pas renforcer la santé publique sans la cybersécurité..
Au fil des années, travaillant à l’intersection des données, de l’IA et de la sécurité du cloud pour les organisations de soins de santé et des sciences de la vie, j’ai pu constater à quel point les systèmes intelligents peuvent être transformateurs. Mais j’ai également constaté à quel point ils sont fragiles lorsque la confiance, l’intégrité des données et la gouvernance ne sont pas intégrées dans leurs fondements. Aujourd’hui, alors que les pays se préparent à de futures pandémies, nous devons considérer la cybersécurité non pas comme une fonction de soutien mais comme un facteur essentiel de préparation. Le succès de la préparation à une future pandémie dépendra de la capacité de notre part à construire des systèmes d’IA fiables, sécurisés et éthiques.
La ligne de front numérique en pleine expansion
La préparation à une pandémie basée sur l’IA dépend de vastes écosystèmes de données, depuis les laboratoires de séquençage génomique et les réseaux hospitaliers jusqu’aux capteurs connectés qui surveillent les tendances en matière de santé de la population. Ces systèmes échangent des millions de points de données chaque heure, permettant des décisions plus rapides. Mais chaque appareil connecté, chaque pipeline de formation de modèles et chaque point d’intégration de données élargit la surface d’attaque.
Dans le cadre de l’un de mes engagements, des modèles de santé publique ont été formés à l’aide de données de patients anonymisées, de flux IoT et d’analyses basées sur le cloud. Le défi en matière de sécurité était immédiat : points d’entrée multiples, équipes réparties et normes de conformité différentes. Dans de tels écosystèmes, une petite mauvaise configuration, une API non sécurisée ou un micrologiciel obsolète pourrait exposer des ensembles de données entiers. Pendant la pandémie, ces vulnérabilités ont été exploitées à grande échelle. Les cybercriminels ont ciblé la recherche sur les vaccins, les plateformes de recherche des contacts et les tableaux de bord nationaux de santé. Il est devenu évident que la préparation à une pandémie comporte désormais une dimension numérique aussi cruciale que la préparation épidémiologique elle-même.
Les vulnérabilités uniques des systèmes d’IA
Les cadres de sécurité traditionnels ne suffisent pas pour l’IA. Les attaques contre les algorithmes prennent des formes plus subtiles. J’explique souvent à mes clients que lorsque l’on corrompt les données, on corrompt l’intelligence. L’empoisonnement des données se produit lorsque des données malveillantes sont insérées dans le processus de formation, apprenant à l’IA à prendre de mauvaises décisions plus tard. Imaginez un modèle de prévision d’épidémie alimenté par des données falsifiées qui sous-estime la transmission dans une région, cela pourrait retarder les interventions et coûter des vies.
Une autre menace subtile mais dangereuse est l’inversion de modèle, où les attaquants effectuent une rétro-ingénierie des résultats de l’IA pour déduire des informations privées sur les patients ou les participants à l’étude. Dans le domaine de la santé, ce n’est pas seulement une question technique, c’est une question éthique. Les gens sont convaincus que leurs données de santé ne les réidentifieront jamais.
Et puis il y a des attaques contradictoires, des manipulations soigneusement conçues qui amènent les modèles d’IA à mal classer ou à ignorer les modèles. Une petite perturbation dans les données des capteurs pourrait faire en sorte qu’un algorithme de détection d’épidémie manque les signaux d’alerte précoce. Il ne s’agit pas de risques théoriques, mais de réalités que les équipes de cybersécurité atténuent déjà quotidiennement.
Concevoir des écosystèmes d’IA fiables
Les systèmes que j’aide à concevoir aujourd’hui pour l’analyse pharmaceutique ou la modélisation de la santé publique suivent un principe directeur : la sécurité dès la conception, et non après coup. Cela commence par une architecture zéro confiance, qui suppose que chaque connexion, utilisateur ou système peut être compromis jusqu’à preuve du contraire. Les contrôles d’accès basés sur les rôles, la segmentation du réseau et la vérification de l’identité sont désormais des pratiques fondamentales.
J’insiste également sur la provenance des données, en maintenant une chaîne de traçabilité traçable pour chaque élément de données qui entre ou sort d’un pipeline. Cela nous permet de valider les sources, de détecter les falsifications et de maintenir la confiance dans les informations produites par l’IA. Le chiffrement (au repos et en transit) est standard, mais nous mettons également en œuvre une confidentialité différentielle et un chiffrement homomorphe lorsque nous traitons des données médicales ou génomiques hautement sensibles. Ces méthodes permettent une analyse sans exposer les détails personnels, un équilibre élégant entre innovation et éthique.
La gouvernance modèle est un autre pilier. Chaque modèle d’IA doit disposer d’un contrôle de version, de bacs à sable de validation et de capacités de restauration. Avant tout déploiement, nous simulons d’éventuelles attaques adverses et testons les procédures de récupération. J’ai appris que la cybersécurité dans l’IA ne concerne pas seulement la défense ; il s’agit de résilience, de capacité à détecter, isoler et récupérer sans perdre de fonctionnalité en cas de crise.
Éthique, gouvernance et éléments de confiance humaine
La technologie à elle seule ne peut pas protéger la santé publique. La confiance se construit par l’éthique et la transparence. Je rappelle souvent aux équipes data que derrière chaque ensemble de données se cache un patient, une famille ou une communauté. Dans les situations de pandémie, la confiance du public détermine si les gens se conforment à la recherche numérique des contacts, partagent des informations sur la santé ou suivent les conseils guidés par l’IA.
C’est pourquoi la gouvernance éthique doit aller de pair avec la cybersécurité. Les systèmes d’IA doivent être explicables, vérifiables et responsables. Les parties prenantes, des gouvernements aux citoyens, méritent de savoir comment les modèles prennent des décisions, comment les données sont protégées et qui y a accès. Les réglementations telles que HIPAA, GDPR et les nouveaux cadres de gouvernance de l’IA ne sont pas des obstacles ; ce sont des garde-fous qui préservent l’intégrité en temps de crise.
La coopération internationale joue également un rôle déterminant. La stratégie mondiale de l’OMS sur la santé numérique appelle à la solidarité numérique, tandis que le cadre de gestion des risques liés à l’IA du NIST propose une approche structurée pour évaluer et atténuer les risques liés à l’IA. L’alignement sur ces normes contribue à harmoniser les pratiques de cybersécurité au-delà des frontières, une nécessité puisque les pandémies et les cybermenaces n’en reconnaissent aucune.
Leçons de l’ère de la pandémie : la cybersécurité comme préparation
La COVID-19 a été un signal d’alarme à plus d’un titre. Parallèlement au virus biologique, nous avons été confrontés à une vague d’attaques de ransomwares, de phishing et de désinformation qui ont perturbé les hôpitaux et la logistique des vaccins. Je me souviens avoir consulté des rapports de sécurité dans lesquels les violations de données de santé ont augmenté de près de 50 % au cours des premiers mois de 2021. Ceux d’entre nous qui travaillent sur l’architecture cloud et les pipelines d’analyse ont soudainement dû penser au-delà des performances, nous avons dû penser à la résilience face aux attaques.
Cette expérience a remodelé mon approche de la santé numérique. Nous menons désormais des exercices conjoints entre équipes d’épidémiologie et ingénieurs en cybersécurité, simulant non seulement des scénarios d’épidémie mais également des cyberincidents. Cette collaboration multidisciplinaire garantit que les urgences biologiques et numériques sont traitées avec préparation et non avec panique.
Les experts du Forum économique mondial décrivent le risque croissant d’une « cyber-pandémie », où la contagion numérique se propage plus rapidement que n’importe quelle contagion biologique. Je partage cette préoccupation. Notre dépendance croissante à l’égard des systèmes basés sur l’IA signifie qu’une cyberattaque bien coordonnée pourrait paralyser les opérations d’intervention lors d’une véritable urgence sanitaire. Il ne suffit pas de développer des systèmes intelligents ; nous devons les rendre sûrs et adaptables.
Aller de l’avant : le chemin à parcourir – la sécurité par le renseignement
Pour l’avenir, je pense que la prochaine phase de préparation à une pandémie doit adopter une mentalité de sécurité par le renseignement dans laquelle l’IA se protège à l’aide de l’IA. L’apprentissage automatique peut détecter les anomalies, identifier les modèles d’accès suspects et prédire les vulnérabilités potentielles avant leur exploitation. Nous commençons à voir la cybersécurité évoluer d’une fonction réactive vers un bouclier intelligent et adaptatif pour les infrastructures de santé publique.
Pourtant, la technologie est aussi efficace que les personnes qui la soutiennent. Former les professionnels de santé à reconnaître les tentatives de phishing, sécuriser les terminaux et dispenser des formations en matière de cyberhygiène doit devenir aussi routinier que les exercices de contrôle des infections. Chaque clinicien, ingénieur de données et décideur politique a un rôle à jouer.
Mon conseil aux organisations qui se lancent dans la transformation numérique de la santé est simple : intègrez la cybersécurité dès le premier jour. Considérez votre pipeline de données comme un atout clinique, il mérite la même rigueur qu’un essai vaccinal ou un protocole de diagnostic. Les systèmes qui sauvent des vies doivent être résilients face à ceux qui voudraient les exploiter.
La résilience comme véritable mesure de la préparation
La préparation aux pandémies à l’ère de l’IA ne consiste plus à savoir qui développe l’algorithme le plus rapide mais qui construit l’écosystème le plus fiable. En tant qu’architecte des données et de la cybersécurité dans le secteur de la santé, j’ai pu constater que la véritable innovation réside dans les systèmes de résilience qui continuent de protéger et de fonctionner même lorsqu’ils sont menacés.
La prochaine urgence sanitaire mondiale mettra à l’épreuve non seulement nos défenses biologiques mais aussi nos fortifications numériques. Pour réussir, la cybersécurité doit évoluer du statut de simple case à cocher de conformité pour devenir le fondement moral et opérationnel de la santé numérique.
Lorsque la prochaine épidémie surviendra, et elle surviendra, notre réponse devra être double : immunité biologique et intégrité numérique. L’IA qui protège l’humanité ne doit jamais se retourner contre elle. C’est l’essence même de la préparation – et la promesse d’un avenir plus sûr, plus intelligent et plus sûr pour la santé mondiale.
Cet article est publié dans le cadre du Foundry Expert Contributor Network.
Voulez-vous nous rejoindre ?



