Les escrocs utilisent l’IA pour donner l’impression que les fausses œuvres d’art sont réelles

Lucas Morel

Les experts affirment qu’une fraude qui existe depuis longtemps est désormais devenue à la fois plus facile et plus rapide.

Les fraudeurs ont commencé à utiliser l’IA pour créer de faux documents affirmant que les œuvres d’art sont authentiques ou détenues légalement, rapporte le Financial Times. Selon les courtiers d’assurance d’œuvres d’art de Marsh, des chatbots et de grands modèles de langage sont utilisés pour falsifier des factures, des certificats d’évaluation et des certificats d’authenticité.

Dans d’autres cas, il ne s’agit pas d’une fraude délibérée, mais plutôt de fausses références hallucinantes à une œuvre d’art que le propriétaire a considérée comme vraie.

Les faux documents ne sont pas nouveaux dans le monde de l’art, mais l’IA les a rendus plus réalistes et plus difficiles à détecter.

« L’IA rend quelque chose qui se passe depuis longtemps un peu plus facile et un peu plus rapide. Vous n’avez plus besoin d’inventer un professeur expert – vous pouvez simplement laisser l’IA le faire pour vous », a déclaré Harry Smith de la société d’évaluation d’art Gurr Johns au Financial Times.

Pour contrer cette tendance, les assureurs et les évaluateurs tentent désormais d’utiliser eux-mêmes l’IA pour examiner les métadonnées et identifier les manipulations.

En savoir plus sur l’impact de l’IA sur la sécurité :

  • L’humain dans le circuit ne suffit pas : une nouvelle attaque transforme les protections de l’IA en exploits
  • Les startups d’IA divulguent des informations d’identification sensibles sur GitHub, exposant des modèles et des données de formation
  • Les hallucinations de l’IA mènent à une nouvelle cybermenace : le slopsquatting
Intelligence artificielle