Alors que la course à investir dans les outils, les technologies et les capacités de l’IA se poursuit, il est essentiel que les chefs de file de la cybersécurité ne examinent pas seulement si le logiciel en AI est sécurisé, mais aussi pour examiner si les centres de données d’IA sont également sécurisés.
L’investissement dans le développement du centre de données de l’IA augmente de façon exponentielle: en juin 2025, Amazon a annoncé un investissement de 20 milliards de dollars dans les campus du centre de données de l’IA en Pennsylvanie, et en juillet 2025, Meta a annoncé que le premier centre de données multi-Gigawatt, Prometheus, sera en ligne en 2026. Encourage les piles de technologie AI et le développement des centres de données aux États-Unis et à l’étranger.
Un défi que presque toutes les parties prenantes ont identifiée est l’augmentation de la demande d’énergie – près de 612 térawattheures d’électricité au cours des cinq prochaines années – et l’exaspération associée du réchauffement climatique – 3-4% des émissions mondiales de carbone.
Le moindre défi annoncé, cependant, est les cyber-menaces élargies auxquelles les centres de données de l’IA sont confrontés qui créent des risques accrus de réputation, financier et réglementaire pour les opérateurs et les utilisateurs d’entreprise.
Comme les centres de données traditionnels, les centres de données d’IA contiennent du matériel, du réseau, du stockage, des données et des composants logiciels, ce qui en fait des cibles de cyberattaques courantes: déni de service distribué (DDOS), ransomware, chaîne d’approvisionnement et attaques d’ingénierie sociale. Les centres de données sont également connus pour être vulnérables aux attaques de canaux latéraux – une cyberattaque qui recueille des informations ou essaie d’influencer les processus et l’exécution d’un système – car le matériel du centre de données, des ventilateurs aux unités de traitement central (CPU), peut révéler des informations sensibles sur l’activité de niveau CPU, l’architecture et l’utilisation des données. Par exemple, en juillet 2025, AMD a trouvé quatre nouvelles vulnérabilités de processeur qui permettraient des attaques de canaux secondaires.
Les risques sont confrontés à des centres de données AI
Par rapport à ceux traditionnels, cependant, les centres de données d’IA sont confrontés à un ensemble élargi de menaces en raison des différences de matériel, de données et de but.
Alors que les grands centres de données utilisent des processeurs et des unités de traitement graphiques (GPU), les centres de données AI utilisent toujours des GPU car les charges de travail IA nécessitent une puissance plus de calcul et parce que les GPU permettent des opérations parallèles. Les circuits intégrés spécifiques à l’application (ASIC) et les tableaux de porte (FPGA) programmables sur le terrain sont également un matériel puissant qui peut être personnalisé pour calculer et traiter efficacement les charges de travail AI. Google a inventé un ASIC spécifique à l’IA et à l’apprentissage en profondeur appelé l’unité de traitement du tenseur (TPU). Ces ressources plus puissantes sont vulnérables aux attaques de canaux latéraux, tout comme les CPU: en janvier 2025, TPUXTRAMENT, une attaque de canal latéral spécifique au TPU qui exploite les fuites de données et permet aux acteurs de menace de déduire les paramètres d’un modèle d’IA, a été découvert.
En plus des cyberattaques courantes et des attaques de canaux latéraux, les GPU sont plus vulnérables aux attaques au niveau de la mémoire car les GPU n’ont pas toujours suffisamment d’isolement de mémoire. La mémoire peut être transportée à tort d’un processus à l’autre, donnant aux acteurs de la menace une chance d’accéder aux informations sur les poids des modèles d’IA et les données de formation. Il existe également des logiciels malveillants spécifiques au GPU qui peuvent exécuter du code malveillant sur la mémoire d’un GPU et contourner l’outillage de sécurité CPU traditionnel.
En termes de données, car les centres de données sur l’IA abritent des modèles d’IA, des poids et des données de formation, les centres de données d’IA sont confrontés à des risques d’exfiltration du modèle, de perte de données sensibles et de menaces au niveau du modèle. Les informations sur le modèle d’IA risquent les risques de l’intégrité et de la confidentialité du modèle. Les menaces au niveau du modèle comprennent les attaques d’empoisonnement des données et les attaques d’empoisonnement du modèle qui peuvent corrompre le modèle ainsi que les attaques d’inversion du modèle et le vol de modèle qui révèlent des informations sur le modèle et ses données d’entraînement. Les modèles corrompus peuvent conduire à des sorties biaisées et fausses qui ont un impact sur les opérations des clients.
Enfin, étant donné l’importance de l’IA pour la sécurité nationale et la compétitivité économique, la race mondiale à renforcer les capacités de l’IA et à sécuriser l’IA souverain – la capacité d’un pays à développer, à utiliser et à gouverner les modèles d’IA et à soutenir l’infrastructure – a commencé. Cette course fait des objectifs de centres de données sur l’IA pour les cyber-activités sophistiquées des adversaires étrangers.
Même avant que les centres de données de l’IA ne soient opérationnels, ils sont à risque d’attaques de la chaîne d’approvisionnement et de sabotage, car de nombreux composants sont exclusivement développés par des sociétés chinoises. Une fois opérationnels, les acteurs de la menace parrainés par l’État ont les capacités sophistiquées d’infiltrer les centres de données d’IA et de voler des modèles, d’autant plus que de nombreux opérateurs de centres de données commerciaux ne sont pas équipés pour se défendre contre de telles opérations. Enfin, bon nombre de ces centres de données d’IA sont en cours de construction dans le monde tels que les États-Unis et le partenariat conjoint des Émirats arabes unis pour construire le plus grand centre de données d’IA en dehors des États-Unis. La préoccupation est que le golfe Persique fait partie de Digital Silk Road 2.0 en Chine avec des programmes de technologie chinoise 5G et de surveillance à l’échelle de la ville qui pourraient donner au gouvernement chinois un accès aux centres de données d’IA construits dans la région.
Ce que les chefs de cybersécurité doivent considérer
Compte tenu de ces menaces élargies, les chefs de file de la cybersécurité et les décideurs doivent examiner de près si leurs opérateurs de centres de données d’IA mettent en œuvre des politiques d’entreprise qui nécessitent des mesures techniques pour sécuriser les centres de données d’IA sur toutes les couches de sécurité, y compris le matériel, les données et la géopolitique. Des exemples de telles politiques comprennent: l’inspection de matériel en cours de déploiement dans les centres de données d’IA pour réduire les risques de sécurité de la chaîne d’approvisionnement, déploiement infiltrant les centres de données d’IA.
De plus, avant le déploiement d’outils d’IA, les leaders de la cybersécurité doivent comprendre où se trouve le centre de données hébergé la charge de travail d’IA et cartographier la chaîne d’approvisionnement du centre de données d’IA. Ces informations doivent être utilisées pour évaluer si l’emplacement géographique et la chaîne d’approvisionnement crée des risques de sécurité accrus en raison d’une activité ou d’une surveillance parrainée par l’État potentielle.
Surtout lorsque la surveillance du gouvernement pour assurer des centres de données sur l’IA fait défaut avec la publication du nouveau plan d’action de l’IA du président Trump, la responsabilité des chefs de cybersécurité des entreprises pour examiner et évaluer les politiques d’entreprise et technique des centres de données de l’IA.



