Présentation de MAESTRO : un framework pour sécuriser l’IA générative et agentique

Lucas Morel

L’IA évolue trop vite pour les anciennes règles — MAESTRO offre aux banques un moyen plus intelligent et multicouche de sécuriser les systèmes d’IA générative et agentique de nouvelle génération.

L’intelligence artificielle (IA) progresse à un rythme qui dépasse les cadres de sécurité traditionnels. L’IA générative a déjà changé la façon dont les institutions financières analysent les données, créent des informations et interagissent avec les clients. La prochaine frontière, l’IA agentique, est encore plus transformatrice. Ces systèmes peuvent raisonner, planifier et agir de manière autonome, interagir avec les API, orchestrer les flux de travail et même collaborer avec d’autres agents sur les passerelles de paiement, les systèmes de crédit et les plateformes de détection de fraude.

Bien que des cadres tels que MITRE ATLAS/ATT&CK, l’OWASP LLM Top 10, le NIST AI Risk Management Framework et la norme ISO/IEC 23894 fournissent des conseils précieux, ils n’ont pas été conçus pour répondre aux risques systémiques et aux comportements émergents propres aux écosystèmes d’IA multi-agents dans des secteurs hautement réglementés comme le secteur bancaire.

Pour combler cette lacune, la Cloud Security Alliance (CSA) a introduit MAESTRO (Multi-Agent Environment, Security, Threat, Risk and Outcome) en 2025. Cet article présente en profondeur MAESTRO, ce que c’est, comment l’appliquer dans votre organisation et comment il renforce la résilience des services commerciaux à l’aide de scénarios du secteur bancaire. Dans les prochains articles, nous explorerons comment MAESTRO complète MITRE, OWASP, NIST et ISO pour un programme complet de gestion des risques en matière d’IA.

Portée, hypothèses et limites

Avant d’appliquer MAESTRO, il est essentiel de clarifier ce qu’il couvre et ce qu’il ne couvre pas.

  • Limite du système: Les critiques de MAESTRO se concentrent sur . L’hygiène informatique plus large (correctifs, gouvernance des identités, protection des points finaux) est supposée être gérée par les programmes existants.
  • Hypothèses: les organisations disposent des configurations de base de sécurité et de conformité, telles que la norme ISO 27XXX, en place. MAESTRO s’appuie sur ces lignes de base et met l’accent sur .
  • Acteurs menaçants: Le cadre considère . Chaque acteur peut cibler différentes couches de la pile d’IA dans un contexte organisationnel.

Cette portée garantit que MAESTRO est appliqué là où il a le plus d’impact : sécuriser les systèmes basés sur l’IA au cœur de la banque moderne.

Contrôles minimum viables

Les entreprises devraient se poser la question : MAESTRO peut être mis en œuvre progressivement, mais un ensemble de contrôles de base par couche offre une valeur immédiate.

Couche Contrôles spécifiques minimaux
Modèles de fondation Validation des entrées/sorties pour les chatbots, refus par défaut pour l’utilisation des outils API, rotation des clés API, vérification de la provenance du modèle pour éviter les LLM falsifiés
Opérations sur les données Lignage des données de transaction de bout en bout, ensembles de données signés pour les rapports réglementaires, validation du schéma lors de l’ingestion, détection d’anomalies sur le comportement des utilisateurs, paiements par carte, modifications des données dans les ensembles de données, etc.
Cadres d’agents RBAC par agent lié au type de transaction, jetons ciblés pour la détection des fraudes et les agents de crédit, liste autorisée des API bancaires (par exemple, SWIFT, ACH), sandboxing d’exécution pour les opérations à risque
Déploiement et infrastructure Analyse IaC pour différentes conformités, telles que PCI-DSS, la signature d’images de conteneur, les restrictions de sortie pour les agents accédant aux API et les rôles de service cloud les moins privilégiés
Évaluation et observabilité Suites de tests à injection rapide pour les chatbots bancaires, surveillance des dérives dans les modèles de notation de crédit, alertes d’anomalies de transaction et journalisation de l’explicabilité réglementaire
Sécurité et conformité Contrôles mappés à Bâle III, RGPD, PCI DSS, pistes d’audit immuables pour les régulateurs et politiques DLP appliquées à toutes les entrées/sorties du modèle
Écosystème d’agents Inventaire des dépendances des API tierces, limites de rayon de souffle pour les pannes multi-agents, disjoncteurs dans les flux de traitement des paiements et simulations multi-agents avant déploiement

Il est crucial de s’assurer qu’il existe un tableau RACI clair et défini et que chacun est informé et conscient de ses rôles et responsabilités.

Pour mieux comprendre, nous devons approfondir les 7 couches de MAESTRO en tirant parti des menaces et des cas d’utilisation dans le secteur bancaire :

Les 7 niveaux de MAESTRO en banque

MAESTRO organise le risque IA en sept niveaux interdépendants. Dans le secteur bancaire, chaque niveau présente des défis uniques et doit être abordé systématiquement.

1. Modèles de base/services de base

De grands modèles de langage alimentent les assistants virtuels, les modèles de détection de fraude et l’analyse des risques dans les banques. Toute manipulation à ce niveau peut miner la confiance dans l’ensemble du système.

  • But: Sécurisez les LLM et les API qui sous-tendent les services d’IA.
  • Exemple de menace: Les invites contradictoires modifient les résultats du modèle.
  • Cas d’utilisation: Un client trompe un assistant bancaire virtuel pour qu’il divulgue les critères d’approbation du prêt.
  • Contrôles: Désinfection des entrées/sorties, gestion du cycle de vie des API, filigranage des réponses du modèle.

2. Opérations sur les données

Les données de transaction, de paiement et de crédit sont au cœur de l’IA bancaire. Les pipelines de données compromis peuvent empoisonner la prise de décision et les rapports réglementaires.

  • But: Sauvegarder l’intégrité et la provenance des pipelines de données bancaires.
  • Exemple de menace: Les enregistrements de transactions empoisonnées biaisent les décisions de prêt.
  • Cas d’utilisation: Les attaquants injectent de faux historiques de paiement pour sécuriser des prêts non autorisés.
  • Contrôles Incluez le traçage des données, les ensembles de données signés et la détection des anomalies pour les flux de transactions inhabituels.

3. Frameworks d’agent/logique d’application

Les banques déploient des agents IA pour la surveillance des fraudes, l’approbation des paiements et le service client. Sans contrôles stricts, ces agents peuvent être mal utilisés ou privilégiés.

  • But: Orchestration sécurisée et logique métier dans les agents IA.
  • Exemple de menace: L’injection rapide désactive la surveillance de la fraude.
  • Cas d’utilisation: Un agent de détection de fraude est amené à ignorer les transactions suspectes lors de la résolution des litiges.
  • Contrôles: RBAC par agent, jetons étendus, utilisation des API sur liste autorisée et sandboxing.

4. Déploiement et infrastructure

L’IA pourrait être déployée dans des environnements cloud hybrides et conteneurisés, créant ainsi des opportunités d’attaques et de mauvaises configurations de la chaîne d’approvisionnement.

  • But: Environnements d’exécution sécurisés et pipelines CI/CD.
  • Exemple de menace: Images de conteneurs compromises dans les pipelines de déploiement.
  • Cas d’utilisation: Les images de détection de fraude par porte dérobée sont déployées via un pipeline non analysé.
  • Contrôles: analyse IaC pour la conformité PCI, signature d’images de conteneur et Kubernetes renforcé.

5. Évaluation et observabilité

L’IA bancaire doit rester précise, explicable et conforme. Une surveillance continue garantit que les modèles ne dérivent pas vers un comportement dangereux ou discriminatoire.

  • But: suivez la santé et le comportement du système d’IA au fil du temps.
  • Exemple de menace: Le modèle de notation de crédit dérive, approuvant les emprunteurs à risque.
  • Cas d’utilisation: Une dérive non surveillée entraîne des sanctions réglementaires pour les prêts biaisés.
  • Contrôles: Suivi des dérives, journalisation d’explicabilité, détection d’anomalies sur les décisions de crédit.

6. Sécurité et conformité

Le secteur bancaire est l’un des secteurs les plus réglementés. L’IA doit s’aligner sur les normes mondiales telles que Bâle III, PCI DSS, RGPD et l’EU AI Act.

  • But: Assurer l’alignement réglementaire et l’application des politiques de sécurité de l’entreprise.
  • Exemple de menace: Fuite de données non autorisée dans les réponses de l’IA.
  • Cas d’utilisation: Un chatbot bancaire révèle les données du compte client au mauvais utilisateur.
  • Contrôles: Journaux d’audit immuables, application du DLP, garde-fous de rédaction.

7. Écosystème d’agents

Les banques opèrent dans des écosystèmes complexes avec plusieurs agents d’IA se coordonnant entre les réseaux de paiement, les partenaires et les API fintech. Les risques à ce niveau sont systémiques.

  • But: Gérer les risques systémiques dans les interactions des agents.
  • Exemple de menace: Boucles de rétroaction entre les agents de paiement et les agents frauduleux.
  • Cas d’utilisation : Un agent frauduleux bloque par erreur toutes les transactions ACH, interrompant ainsi les opérations.
  • Contrôles: Limites de confiance, simulations multi-agents, disjoncteurs pour systèmes de paiement.

Cas d’utilisation en pratique (Banque)

1. Notation de crédit et approbations de prêt

Un modèle d’approbation de prêt est empoisonné par des historiques de transactions manipulés, ce qui entraîne des décisions de crédit biaisées ou inexactes.

  • Calques: Opérations de données, évaluation et observabilité, sécurité et conformité.
  • Atténuation: Ensembles de données signés, suivi des dérives et exigences réglementaires d’explicabilité.

2. Systèmes de détection de fraude

Les modèles de fraude sont manipulés par des données contradictoires, provoquant des alertes de fraude manquées ou des faux positifs.

  • Calques: Modèles de base, cadres d’agents, déploiement et infrastructure.
  • Atténuation: Validation des entrées, agent scoped RBAC et signature des conteneurs dans les pipelines.

3. Assistants bancaires conversationnels

Les assistants virtuels sont amenés à divulguer des informations de compte sensibles.

  • Calques: Modèles de base, sécurité et conformité.
  • Atténuation: Désinfection des entrées/sorties, politiques DLP, garde-fous de conformité.

4. Traitement des paiements et flux de transactions

Les agents IA gérant les transactions créent une boucle de rétroaction, gelant les paiements légitimes.

  • Calques: Écosystème d’agents, cadres d’agents, évaluation et observabilité.
  • Atténuation: Disjoncteurs, limites de confiance et simulation des interactions d’agents.

5. Rapports de conformité réglementaire

Les systèmes d’IA générant des rapports réglementaires dérivent au fil du temps, produisant des documents inexacts.

  • Calques: Évaluation & Observabilité, Sécurité & Conformité.
  • Atténuation: Surveillance continue, journaux d’audit immuables, détection d’anomalies.
Couche MAESTRO Exemple de menace Cas d’utilisation bancaire Contrôles clés
Modèles de base/services de base Les invites contradictoires modifient les résultats Un assistant virtuel trompé pour révéler les règles d’approbation des prêts Désinfection des entrées/sorties, gestion du cycle de vie des API, filigrane des modèles
Opérations sur les données Données de transaction empoisonnées Les faux historiques de paiement biaisent la notation de crédit Lignage des données, ensembles de données signés, détection d’anomalies, validation de schéma
Frameworks d’agents/logique d’application L’injection rapide désactive la surveillance de la fraude L’agent de détection de fraude ignore les transactions suspectes RBAC par agent, jetons étendus, API sur liste autorisée et sandboxing
Déploiement et infrastructure Images de conteneurs compromises Modèles de détection de fraude par porte dérobée déployés via CI/CD Analyse IaC (PCI), signature d’images, Kubernetes renforcé, restrictions de sortie
Évaluation et observabilité La dérive du modèle dégrade les performances Le modèle de notation de crédit commence à approuver les emprunteurs à risque Surveillance des dérives, alertes d’anomalies, journaux d’explicabilité, faisceaux de tests
Sécurité et conformité Fuite de données non autorisée Chatbot expose les informations du compte client Journaux d’audit immuables, application DLP, rédaction automatisée, garde-fous de conformité
Écosystème d’agents Les boucles de rétroaction perturbent les flux de travail Les agents de fraude et de paiement bloquent les transferts ACH légitimes Limites de confiance, cartographie des dépendances, disjoncteurs et simulations de pré-production

La modélisation des menaces d’infrastructure pour l’IA pourrait être hébergée dans un environnement sur site ou dans le cloud, ou un service SaaS devrait également être évalué séparément.

Une base pour la sécurité systémique de l’IA

L’IA dans les organisations n’est plus expérimentale. Avec l’IA agentique, les organisations sont confrontées à une autonomie, à une imprévisibilité et à des risques systémiques que les cadres traditionnels ne peuvent pas pleinement gérer.

MAESTRO fournit un cadre structuré, à plusieurs niveaux et axé sur les résultats, adapté à ces réalités. En l’appliquant aux données, aux modèles, aux infrastructures et aux écosystèmes, les organisations peuvent sécuriser et améliorer l’efficacité, les coûts, la sécurité et la résilience de leurs activités.

Alors que des cadres tels que MITRE, OWASP, NIST et ISO ajoutent des couches tactiques et de gouvernance, MAESTRO sert de base à la sécurité systémique de l’IA dans le secteur bancaire.

Cet article est publié dans le cadre du Foundry Expert Contributor Network.
Voulez-vous nous rejoindre ?