Comment les fesses profondes changent le visage de la cybercriminalité | Sombre

Lucas Morel

Tout a commencé assez simplement. Au début d’Internet, les escrocs ont compris que faire semblant d’être quelqu’un d’autre pourrait être un moyen rapide de gagner de l’argent. Vous vous souvenez de l’ancienne escroquerie par e-mail du «prince nigérian»? Un faux royal demandant de l’aide pour déplacer des millions de dollars en échange d’une réduction de la fortune? C’était risible avec le recul, mais à l’époque, cela fonctionnait – vraiment bien.

Avance rapide jusqu’à aujourd’hui, et le jeu a complètement changé. Grâce à l’IA et à la technologie Deepfake, faire semblant d’être quelqu’un d’autre est devenu troublant et incroyablement convaincant.

Nous avons toujours cru à l’idée que «voir c’est croire». C’est ce qui rend la vidéo et l’image Deepfakes si dangereuses. Ce ne sont pas seulement des photos éditées ou des échanges de visage idiots – ce sont des créations synthétiques à part entière qui peuvent faire en sorte que quelqu’un ait l’air et sonne comme s’ils font ou disent quelque chose qu’ils n’ont jamais fait.

Imaginez maintenant ceci: vous recevez un message vidéo du PDG de votre entreprise vous demandant d’envoyer un transfert de fil urgent. Tout vérifie – la voix, les manières, même l’arrière-plan semble légitime. Mais tout est faux.

Ou vous voyez une photo en ligne d’une personnalité publique dans une situation controversée. Il devient viral, provoque l’indignation et se révèle être complètement fabriqué.

Ce ne sont plus des scénarios «et si». Cela se produit maintenant. Et les outils pour créer ces contrefaçons? Ils s’améliorent, plus rapides et plus faciles à utiliser de jour en jour.

Voici où les choses deviennent vraiment préoccupantes: Deepfakes ne trompent pas seulement les gens – ils commencent aussi à tromper les machines.

De nombreuses plateformes de médias sociaux et des institutions financières comptent sur quelque chose appelé «détection de vivacité» pour s’assurer que la personne de l’autre côté de l’écran est réelle. Cela signifie généralement montrer votre visage sur une vidéo en direct, soumettre une pièce d’identité et permettre au système de vérifier votre emplacement.

Mais les acteurs de la menace trouvent des moyens de contourner cela. Sur les forums souterrains et dans les groupes de télégrammes, il existe des guides étape par étape sur la façon de simuler votre chemin à travers les contrôles d’identité. En utilisant des vidéos générées par AI, des outils de webcam virtuel, des images volées et même du code personnalisé, les escrocs peuvent inciter les systèmes à vérifier une personne complètement fausse.

Pourquoi? Pour ouvrir des comptes cryptographiques qui sont presque impossibles à retracer. Pour commettre une fraude. Ou simplement pour disparaître dans l’éther numérique.

Rendons cela personnel. Imaginez ceci: il est 3 heures du matin. Vous êtes à moitié endormi, mais vous ramassez. C’est ta fille – ou du moins, ça sons comme elle. Elle pleure, paniquée. Il y a eu une urgence. Elle a besoin d’argent. Maintenant.

Vous ne pensez même pas à deux fois. Vous l’envoyez.

Mais ce n’était pas elle.

C’est la partie effrayante. Avec seulement quelques secondes de la voix de quelqu’un – tirée d’une vidéo, d’une messagerie vocale ou d’un tiktok – AI peut le cloner si précisément qu’il est presque impossible de faire la différence. Ces escroqueries ciblent les familles, les grands-parents et même les entreprises. Et ils travaillent.

Ce n’est pas de la science-fiction – cela se produit partout dans le monde. Voici quelques vrais exemples:

  • Fraude de 25 millions de dollars à Arup (2024)
    Un appel vidéo DeepFake a incité un employé à câbler 25 millions de dollars après avoir usurpé l’identité des dirigeants de l’entreprise.
  • Faux PDG chez WPP (2024)
    Les escrocs ont utilisé un Deepfake de PDG Mark Read lors d’une fausse réunion des équipes de Microsoft pour inciter le personnel à abandonner des données sensibles.
  • Joe Biden Robocall (2024)
    Une voix clonée du président Biden a dit aux électeurs de ne pas voter dans la primaire du New Hampshire – une réelle tentative de suppression des électeurs.
  • Zelenskyy Deepfake (2022)
    Une vidéo du président de l’Ukraine appelant à la reddition pendant la guerre – parfaitement fausse, mais temporairement crédible.
  • Nick Cave Crypto Scam
    Un homme a perdu 130 000 $ après qu’une profondeur du musicien a approuvé une plate-forme d’investissement bidon.
  • Elon Musk & Martin Lewis Scams
    Des vidéos frauduleuses des deux célébrités ont été utilisées pour pousser de fausses offres de cryptographie en ligne.
  • Arnaque de la voix sur un grand-parent
    Un escroc a cloné la voix d’un petit-fils pour confier une grand-mère à envoyer des fonds de la caution.
  • Brad Pitt Romance Scam (2024)
    Une Française a été dupe de 1 million d’euros après être tombée amoureuse de la profondeur de l’acteur lors d’une «relation» en ligne.
  • Crypto kyc détente
    Deepfakes et des webcams virtuels ont été utilisés pour tromper les chèques d’identité des échanges de crypto et créer des comptes anonymes.

Deepfakes changent les règles. La frontière entre réel et faux n’a jamais été plus floue. Que vous soyez une entreprise, un parent ou simplement quelqu’un qui utilise Internet – être conscient de ces tactiques est la première étape pour rester en sécurité.

La technologie seule ne résoudra pas cela. Nous avons besoin de meilleurs outils, de politiques plus intelligentes et plus de scepticisme numérique. Si quelque chose se sent éloigné, ne vous précipitez pas, vérifiez d’abord. Dans un monde où même vos propres yeux et oreilles peuvent être dupés, un peu de doute pourrait aller très loin.


Suivez Darkowl sur LinkedIn pour en savoir plus.