La menace des deepfakes est devenue un peu plus personnelle

Lucas Morel

Des chercheurs de Google DeepMind et de l’Université de Stanford ont créé des répliques d’IA très efficaces de plus de 1 000 personnes sur la base de simples entretiens.

Selon des chercheurs de Google et de l’Université de Stanford, une conversation de deux heures avec un modèle d’IA suffit à créer une image assez précise de la personnalité d’une personne réelle.

Dans le cadre d’une étude récente, les chercheurs ont pu générer des « agents de simulation » – essentiellement des répliques d’IA – de 1 052 personnes sur la base d’entretiens de deux heures avec chaque participant. Ces entretiens, basés sur un protocole d’entretien développé par l’American Voices Project, qui explore une gamme de sujets d’intérêt pour les spécialistes des sciences sociales, notamment des histoires de vie et des points de vue sur les problèmes sociétaux actuels, ont été utilisés pour former un modèle d’IA génératif conçu pour imiter le comportement humain. .

Pour ensuite évaluer l’exactitude des répliques de l’IA, chaque participant a effectué deux séries de tests de personnalité, d’enquêtes sociales et de jeux de logique. Lorsque les répliques d’IA ont effectué les mêmes tests, leurs résultats correspondaient aux réponses de leurs homologues humains avec une précision de 85 %.

En répondant aux questionnaires de personnalité, les réponses des clones d’IA différaient peu de celles de leurs homologues humains. Ils ont particulièrement bien réussi à reproduire les réponses aux questionnaires de personnalité et à déterminer les attitudes sociales. Mais ils étaient moins précis lorsqu’il s’agissait de prédire le comportement dans les jeux interactifs impliquant des décisions économiques.

Une question de finalité

L’impulsion pour le développement des agents de simulation était la possibilité de les utiliser pour mener des études qui seraient coûteuses, peu pratiques ou contraires à l’éthique avec de vrais sujets humains, expliquent les scientifiques. Par exemple, les modèles d’IA pourraient aider à évaluer l’efficacité des mesures de santé publique ou à mieux comprendre les réactions aux lancements de produits. Même la modélisation des réactions à des événements sociaux importants serait concevable, selon les chercheurs.

« Une simulation à usage général des attitudes et des comportements humains, dans laquelle chaque personne simulée peut s’engager dans une gamme de contextes sociaux, politiques ou informationnels, pourrait permettre à un laboratoire de chercheurs de tester un large éventail d’interventions et de théories », écrivent les chercheurs.

Cependant, les scientifiques reconnaissent également que cette technologie pourrait être utilisée à mauvais escient. Par exemple, les agents de simulation pourraient être utilisés pour tromper d’autres personnes en ligne avec des attaques deepfake.

Les experts en sécurité constatent déjà que la technologie des deepfakes progresse rapidement et estiment que ce n’est qu’une question de temps avant que les cybercriminels trouvent un modèle commercial qu’ils pourront utiliser contre les entreprises.

De nombreux dirigeants ont déjà déclaré que leurs entreprises avaient récemment été la cible d’escroqueries deepfake, en particulier en ce qui concerne les données financières. La société de sécurité Exabeam a récemment évoqué un incident au cours duquel un deepfake a été utilisé dans le cadre d’un entretien d’embauche, en conjonction avec l’arnaque croissante des faux informaticiens nord-coréens.

Les chercheurs de Google et de Stanford proposent la création d’une « banque d’agents » regroupant plus de 1 000 agents de simulation qu’ils ont générés. La banque, hébergée à l’Université de Stanford, « fournirait un accès API contrôlé aux comportements des agents, réservé à la recherche », selon les chercheurs.

Bien que la recherche n’avance expressément aucune capacité de création de deepfakes, elle montre ce qui devient rapidement possible en termes de création de personnalités humaines simulées dans la recherche avancée d’aujourd’hui.