De nombreux assureurs ont commencé à exempter les charges de travail d’IA de la cybersécurité et de la couverture contre les erreurs et omissions, affirmant que leurs résultats sont trop imprévisibles pour pouvoir rédiger des politiques.
Plusieurs grandes compagnies d’assurance ont commencé à renoncer à fournir de la cybersécurité et d’autres assurances aux entreprises utilisant l’IA pour gérer leurs processus internes, selon des initiés.
Bien qu’il n’existe pas de réponse standard à l’utilisation de l’IA par les clients sur le marché de l’assurance, de nombreux assureurs refusent désormais discrètement de souscrire des polices d’assurance pour les réclamations liées aux résultats générés par l’IA en matière de cybersécurité et de couverture des erreurs et omissions (E&O), disent ces observateurs. D’autres compagnies d’assurance augmentent leurs prix pour couvrir les réclamations liées à l’IA, disent-elles.
Des dizaines de compagnies d’assurance semblent repenser la couverture des erreurs liées à l’IA, déclare Connor Deeks, PDG de Codestrap, une société de développement et de conseil en IA qui travaille avec des compagnies d’assurance.
De nombreuses compagnies d’assurance ne sont pas à l’aise avec la couverture des résultats de l’IA, car elles ne peuvent pas suivre le cheminement de raisonnement suivi par l’IA pour arriver à un résultat, dit-il.
« Cela se joue en aval, les compagnies d’assurance établissant essentiellement une couverture, qu’il s’agisse de cybersécurité ou d’E&O », dit-il. « Toutes ces solutions codées par ambiance et ces systèmes d’IA que les gens ont construits comportent désormais des risques inhérents, et vous ne pouvez pas réellement voir l’intégralité du processus. »
Les préoccupations des compagnies d’assurance concernant les charges de travail de l’IA ont fait surface pour la première fois en novembre 2025, lorsque le Financial Times a rapporté que trois grands compagnies d’assurance, AIG, Great American et WR Berkley, avaient déposé des demandes auprès des régulateurs américains pour proposer des polices d’assurance excluant les responsabilités liées aux outils d’IA tels que les chatbots et les agents. À l’époque, ces demandes semblaient être des mesures préventives permettant d’exclure les erreurs d’IA dans le futur.
Mais maintenant, de nombreux opérateurs semblent aller de l’avant avec des plans visant à exclure les erreurs d’IA de leurs politiques, dit Deeks. Plusieurs opérateurs avec lesquels il a été en contact envisagent de limiter ou de mettre fin à la couverture des perturbations commerciales et des responsabilités liées à l’IA, ajoute-t-il. L’ironie est que de nombreuses compagnies d’assurance adoptent l’IA pour leurs propres besoins internes.
La société de Deeks a un intérêt direct dans la couverture d’assurance contre l’IA – Codestrap commercialise sa plate-forme de codage d’IA comme traçable et donc assurable – mais d’autres initiés du secteur ont également vu des décisions similaires de la part des transporteurs.
Les transporteurs trouvent des exclusions
On ne sait toujours pas combien d’assureurs refuseront d’assurer les charges de travail de l’IA, mais plusieurs opérateurs rédigent désormais des polices d’assurance qui exemptent de couverture le chaos commercial lié à l’IA, déclare Jason Bishara, responsable des pratiques financières chez l’opérateur mondial NSI Insurance Group.
« L’appétit pour le risque change parmi les transporteurs, et il est en constante évolution », dit-il. « En ce qui concerne l’IA, certains opérateurs la suppriment simplement de leur appétit pour le risque et refusent complètement de la coter. »
Alors que certains opérateurs ont refusé de couvrir les productions d’IA, d’autres prévoient des hausses de tarifs pour couvrir le risque accru, explique Bishara. Bien qu’il ne dispose pas de chiffres sur l’ampleur des hausses de taux, elles sont significatives, ajoute-t-il.
« Chaque entreprise dispose d’une assurance et chaque entreprise utilise désormais l’IA dans une certaine mesure », ajoute-t-il. » Constatez-vous ces responsabilités et exclusions dans ces polices et une aversion de la part des transporteurs ? La réponse est oui. «
Les opérateurs traitent également les fournisseurs d’IA différemment des utilisateurs d’IA, dit-il. Dans de nombreux cas, les opérateurs refusent de couvrir complètement les fournisseurs d’IA, tout en prévoyant des exceptions dans leurs politiques interdisant la couverture de l’IA dans les entreprises utilisant cette technologie.
« Si vous êtes une entreprise liée à l’IA ou spécifiquement une entreprise d’IA, il y a de fortes chances que vous obteniez une déclinaison à ce stade », ajoute-t-il.
Ces derniers mois, de nombreux assureurs ont posé des questions détaillées sur la manière dont les clients utilisent l’IA pour mieux comprendre le risque lié à l’assurance d’accidents potentiels, dit-il. En fin de compte, cette surveillance accrue rendra plus difficile pour les entreprises de souscrire une assurance pour les charges de travail d’IA.
« Pour tous ceux qui exploitent l’IA à l’heure actuelle, vous voyez des questions telles que : « Quelles sont vos politiques en matière d’IA ? Quelles sont vos procédures ? Comment exploitez-vous l’IA au sein de votre entreprise ? », ajoute Bishara. « Nous recevons de nombreuses questions de la part des souscripteurs : « Comment exploitez-vous l’IA au sein de votre entreprise ? » »
Couverture en évolution
Phil Karecki, CTO du secteur de l’assurance chez le fournisseur de services gérés Ensono, constate également que certains opérateurs renoncent à couvrir les produits de l’IA, bien qu’il ne soit pas sûr qu’il s’agisse d’une tendance majeure. Les compagnies d’assurance expérimentent continuellement la manière de fournir une couverture, note-t-il.
Les opérateurs ont tenté de séparer les déploiements d’IA étroitement réglementés des projets plus expérimentaux lorsqu’ils déterminent s’ils doivent ou non fournir une couverture, dit-il.
« Vous avez cette bifurcation entre l’IA, les éléments génératifs gouvernés et les éléments autonomes », dit-il. « Ce n’est plus : « Utilisez-vous l’IA ? » Il s’agit de demander : Utilisez-vous une IA gouvernée ? Comment le gouvernez-vous ? Comment le gardez-vous en sécurité ? »
Les opérateurs tentent de déterminer si la couverture des charges de travail de l’IA peut leur être rentable, ajoute Karecki. Les outils d’IA gouvernés fonctionnant dans le cadre d’un processus décisionnel limité seront plus assurables, tandis que les systèmes d’IA expérimentaux sans surveillance et sans retour en arrière facile seront difficiles à couvrir, note-t-il.
« Il y a un repositionnement plutôt qu’un retrait, et c’est très courant dans l’industrie, et ils ouvrent parfois une couverture juste pour voir si c’est ce type d’assurance qui se vendra », dit-il. « Ils évalueront les résultats et ce qui doit changer afin de pouvoir décider de réintégrer ce marché ou de l’abandonner complètement. »
Dans certains cas, la question de savoir si un système d’IA est assurable peut dépendre des circonstances chez les clients d’assurance individuels. Les transporteurs en général ne veulent pas se retirer du secteur de l’assurance, explique Karecki.
« Ce pour quoi ils travaillent actuellement, c’est : « Comment puis-je rendre cela rentable et ce secteur est-il assurable ? » », dit-il. « Ils prennent ces décisions pour chaque demande, mais désormais, en fonction de ce qu’on leur demande d’assurer, les questions suivront. « Pourquoi utilisez-vous l’IA ? Comment la gérez-vous ? Quels risques cela introduit-t-il ? »
Il est logique que certains opérateurs commencent à se demander s’ils doivent couvrir les résultats de l’IA, étant donné le niveau actuel de manque de fiabilité de la plupart des systèmes d’IA, déclare Dorian Smiley, CTO chez Codestrap.
« Les mathématiques disent que ces modèles devraient être déterministes, c’est-à-dire qu’avec la même entrée, vous devriez obtenir le même résultat », dit-il. « Mais vous pouvez obtenir des résultats très différents à partir d’une même entrée, et ils ne peuvent pas savoir si la réponse qu’ils vous donnent est réellement correcte. »
Dans la plupart des cas, les modèles d’IA manquent de raison inductive et ne peuvent pas évaluer leur propre travail, mais de nombreuses organisations envisagent de déployer des centaines d’agents autonomes et de les traiter comme des employés numériques, note-t-il.
« L’idée que ces agents vont devenir des employés, des personnes autonomes travaillant dans votre organisation, est insensée », dit-il. « Vous n’embaucheriez jamais une personne incapable d’apprendre de nouvelles informations, de récupérer des informations de manière fiable ou de vérifier son propre travail. »
Bishara du NSI donne des conseils aux responsables informatiques et aux dirigeants d’entreprise qui recherchent une couverture d’assurance pour leurs charges de travail d’IA : soyez honnête sur la façon dont ils utilisent l’IA. S’ils tentent de cacher les risques liés à l’IA, ils risquent de voir leurs demandes rejetées en cas de problème, dit-il.
« Si vous ne divulguez pas complètement ces éléments de manière appropriée dans la manière dont vous fonctionnez, cela pourrait être utilisé comme excuse pour refuser une réclamation à une date ultérieure », dit-il. « Vous ne voulez pas qu’un assureur revienne et dise : ‘Nous n’avons pas souscrit à ce risque. Nous avons posé ces questions et vous ne l’avez pas divulgué.' »



