L’IA crée de nouveaux risques de sécurité pour les réseaux OT, prévient la NSA

Lucas Morel

Bien que destinées aux administrateurs OT, les nouvelles directives multi-agences en matière d’IA soulèvent des problèmes qui s’appliquent également aux réseaux informatiques.

La sécurité des technologies opérationnelles (OT) dans les infrastructures critiques est un thème récurrent depuis des années, mais cette semaine, l’Agence américaine de sécurité nationale (NSA) et ses partenaires mondiaux ont ajouté une nouvelle préoccupation : comment l’utilisation croissante de l’IA dans les OT risque d’aggraver la situation.

La portée de ces préoccupations, ainsi que les conseils pour y répondre, sont décrites dans le document rédigé par la NSA en collaboration avec l’Australian Cyber ​​​​Security Centre (ASD’s ACSC) de l’Australian Signals Direction et une alliance mondiale d’agences de sécurité nationale.

Alors que l’utilisation de l’IA dans l’OT des infrastructures critiques n’en est qu’à ses débuts, les directives se lisent comme une tentative de la NSA et de ses partenaires d’anticiper le problème avant qu’une mauvaise utilisation ou une mauvaise application ne s’enracine. Bien que rédigées pour les administrateurs OT, les lignes directrices reflètent des préoccupations qui s’appliquent également à l’administration informatique.

Actuellement, l’IA est mise à profit dans les réseaux OT dans les secteurs de l’énergie, du traitement de l’eau, de la santé et de la fabrication pour la même raison qu’elle est utilisée ailleurs : pour optimiser et automatiser les processus, améliorant ainsi l’efficacité et la disponibilité.

L’inquiétude est que les organisations se lancent dans une technologie nouvelle et loin d’être aguerrie sans évaluer ses limites, faisant écho à ce qui se passe dans le domaine informatique. Mesurant le risque par rapport à la hiérarchie du modèle Purdue des systèmes de contrôle industriel (ICS), les lignes directrices énumèrent des problèmes tels que l’injection rapide contradictoire et l’empoisonnement des données, la collecte de données conduisant à une sécurité réduite et la « dérive de l’IA » dans laquelle les modèles deviennent moins précis à mesure que les nouvelles données s’écartent des données de formation.

Également mentionné : l’IA peut manquer de l’explicabilité nécessaire pour diagnostiquer les erreurs, il est difficile de répondre aux exigences de conformité à mesure que l’IA évolue rapidement, et il existe un effet de déqualification humaine causé par une dépendance excessive et rampante à l’égard de l’IA. De même, les alertes de l’IA peuvent entraîner une distraction et une surcharge cognitive chez les employés.

Enfin, la tendance à halluciner des technologies d’IA telles que les chatbots et les LLM soulève des doutes quant à la robustesse de la technologie pour être utilisée dans des environnements où la sécurité est une priorité. « L’IA n’est peut-être pas suffisamment fiable pour prendre des décisions critiques de manière indépendante dans les environnements industriels. En tant que telle, l’IA telle que les LLM ne devrait certainement pas être utilisée pour prendre des décisions de sécurité dans les environnements OT », ont déclaré les auteurs.

Cela souligne une différence importante entre l’utilisation de l’IA dans un environnement OT et dans un environnement informatique : les réseaux OT sont par nature critiques pour la sécurité. Même si bon nombre des problèmes sont les mêmes, la marge d’erreur est bien plus petite.

J’ai du mal à me détendre

« Ces orientations soulèvent les bonnes questions : quels risques introduisons-nous, quelle valeur l’IA apporte-t-elle réellement, qui est responsable de la surveillance et comment réagissons-nous lorsque la technologie se comporte mal ? » a commenté Sam Maesschalck, ingénieur OT chez Immersive Labs, plateforme de formation en cybersécurité. « Nous avons déjà vu ce qui se produit lorsque les exigences opérationnelles dépassent la conception sécurisée. La convergence IT/OT a apporté de l’efficacité, mais elle a également exposé les réseaux OT d’une manière que le secteur a encore du mal à maîtriser. »

Selon Maesschalck, greffer des systèmes d’IA sur une infrastructure OT échouerait si les problèmes préexistants ne sont pas résolus au préalable. Ceux-ci incluent l’incapacité de certains appareils OT à transmettre les volumes de données requis aux plates-formes d’IA, et le manque d’inventaires d’actifs qui rendent les interactions problématiques plus difficiles à prévoir.

Parmi les recommandations des lignes directrices, citons que les organisations adoptent les principes de conception sécurisée de CISA et évaluent si le développement d’un projet AI-OT en interne donnerait aux organisations plus de contrôle sur la conception et la mise en œuvre de l’IA à long terme.

« Ce type de directives est influent car les opérateurs recherchent de la clarté. Le fait de pouvoir se référer à des principes soutenus par le gouvernement donne aux propriétaires et aux ingénieurs quelque chose de concret sur lequel s’appuyer lorsqu’ils s’opposent à une adoption dangereuse ou précipitée. Cela renforce également à quel point l’éducation est essentielle », a déclaré Maesschalck.

Ces lignes directrices font suite au rapport de la NSA et de l’ACSC de l’année dernière répertoriant les mesures que les organisations devraient prendre pour sécuriser l’OT dans les infrastructures critiques. Mais aucun des deux documents ne répond aux préoccupations persistantes selon lesquelles la sécurité des OT ne bénéficie toujours pas du budget qu’elle mérite.

Intelligence artificielleInfrastructure critiqueStratégie informatiqueSécurité