Les vidéos Deepfake sont une menace pour le grand public
La question est de savoir combien de personnes ont réalisé qu’il s’agissait d’une arnaque trop tard, mais nous craignons que ce soit un nombre très élevé.
Les enregistrements deepfake existaient avant même l’avènement de l’intelligence artificielle sous la forme que nous lui connaissons aujourd’hui (ChatGPT, Bard, Bing, Midjourney…). Mais avec l’avènement des grands modèles linguistiques, ces enregistrements sont devenus terriblement réalistes. Ce n’était qu’une question de temps avant que des mécréants n’utilisent cette technologie avancée à des fins malveillantes.
Ils ont choisi la meilleure cible possible. MrBeast est connu pour ses vidéos YouTube extravagantes dans lesquelles il ravit ses fans et les passants avec des voitures coûteuses, des jets privés, des téléphones, des maisons et des cadeaux similaires. Un scénario dans lequel MrBeast offrirait des iPhone 15 presque gratuits n’est pas non plus trop inhabituel. Des personnes malveillantes ont également misé là-dessus. Le faux MrBeast a exhorté les téléspectateurs à cliquer sur un lien dans la vidéo, mais en coulisses se trouvait l'intention de voler des données.
Une vidéo deepfake de MrBeast a récemment fait surface sur TikTok, où elle a probablement causé d'énormes dégâts, non seulement aux utilisateurs, mais aussi à la plateforme, qui sera désormais aux prises avec des questions sur la manière d'éviter cela à l'avenir.
MrBeast n'est pas la seule victime des escroqueries liées à l'IA. L'image de Poutine a également été utilisée à mauvais escient dans le passé pour diffuser de fausses informations.
Même si les célébrités constituent des cibles plus attractives, les mortels ordinaires courent également des risques. Les journalistes de la BBC Matthew Amroliwala et Sally Bundock en ont également fait l’expérience directe. Leur image a été utilisée pour promouvoir une arnaque financière. Dans la vidéo, le journaliste est censé être hébergé par le Terrien le plus riche, Elon Musk, qui est censé l'interroger sur l'opportunité d'investissement actuellement supposée la plus rentable. Elon Musk a également été victime de vidéos deepfake dans le passé, dans lesquelles il aurait cédé sa fortune et donné des conseils sur les crypto-monnaies.
Jusqu'à présent, Meta (anciennement Facebook) joignait à ces vidéos des avertissements concernant d'éventuelles fausses informations, découvertes par l'organisation FullFact. Cette dernière s'est donné pour mission de vérifier toutes les éventuelles irrégularités qui apparaissent dans l'actualité et sur les réseaux sociaux. Un représentant de Meta a également pris la parole. « Nous n’autorisons pas ce type de contenu sur nos plateformes et nous l’avons immédiatement supprimé. Nous travaillons constamment à améliorer nos systèmes et encourageons toute personne voyant du contenu qui, selon elle, enfreint nos politiques, à le signaler à l'aide des outils intégrés à l'application. Nous pourrons alors l’étudier et agir. »
TikTok est également intervenu, supprimant la fausse vidéo de MrBeast quelques heures après sa publication et bannissant le compte qui violait ses conditions d'utilisation. TikTok présente ce type de séquences « synthétiques » comme contenu interdit dans sa politique.
Le vrai MrBeast, quant à lui, a fait appel à la plateforme X (anciennement Twitter) et à d’autres plateformes pour répondre à la question de savoir si elles étaient préparées à la montée de telles arnaques.
Comment identifier les enregistrements deepfakes ?
Bien que pour l’instant les attaques de phishing classiques et les attaques de ransomware restent les formes d’attaques les plus courantes et aussi les plus réussies, il y aura probablement une période où les deepfakes et les attaques d’intelligence artificielle deviendront plus courantes.
Récemment, même Tom Hanks a dû se défendre à cause de l'intelligence artificielle. Son image a été volée pour promouvoir un régime dentaire controversé.
Les systèmes d’IA ne feront que devenir plus avancés. Avec le développement, les préoccupations quant à la manière de reconnaître de telles escroqueries vont augmenter. La règle d'or est d'être méfiant si vous tombez sur une vidéo, une publication ou un message dans lequel quelqu'un vous propose quelque chose gratuitement, surtout s'il s'agit d'un produit ou d'un service qui nécessite généralement des sommes plus importantes.
L’image de MrBeast dévalorise quelque peu cette règle. C'est précisément à cause de ses vidéos, dans lesquelles les participants se disputent également des prix attractifs, que la vidéo deepfake mentionnée était difficile à reconnaître comme une arnaque.
Nous n’avons d’autre choix que de toujours être prudents et de vérifier chaque information au préalable. Les utilisateurs les plus attentifs remarqueront également d’autres signes suspects pouvant indiquer qu’il s’agit d’une arnaque.
Dans le clip de MrBeast (vous pouvez le regarder sur bit.ly/DeepfakeRN), les attaquants ont inclus le nom d'un célèbre YouTuber avec la coche bleue à laquelle nous sommes habitués dans les profils officiels. Si vous êtes un utilisateur fréquent de TikTok, vous savez que ce type de placement de nom n'est pas nécessaire car toutes les vidéos incluent déjà le nom du téléchargeur sous le logo TikTok.
Dans le cas des journalistes de la BBC, les motifs de suspicion étaient de nature plus grammaticale. Le présentateur prononce mal le chiffre 15 et prononce le mot « projet » avec une intonation inhabituelle. Il existe également quelques erreurs grammaticales mineures que vous pouvez facilement manquer (par exemple, l'utilisation incorrecte de « était, étaient »). À mesure que les enregistrements deviennent de plus en plus réalistes au fil du temps, ces types d’erreurs seront importants pour détecter la fraude. Dans le même clip, il est très difficile de voir qu'Elon Musk a un œil supplémentaire au-dessus de son œil gauche. Les yeux, les doigts et d’autres détails similaires sont souvent déformés dans les prises de vue IA, mais pour nous, cela représente une opportunité d’éviter un désastre.
Des experts juridiques qui ont des avis partagés sur l'interdiction de tels enregistrements se sont également prononcés. Si nous devions interdire la technologie deepfake, nous nuirions également au contenu authentique des films et des séries créés avec des effets spéciaux.
Image de couverture : Image de rawpixel.com sur Freepik