Business solutions
PC & Mobile technology
13.10.2023 10:00

Share with others:

Share

Deepfake videos are a threat to the general public

Artificial intelligence (AI) can help us, but it can also be a threat, as evidenced by the recent deepfake videos of a well-known YouTuber named MrBeast, who delighted unsuspecting users with the new iPhone 15 phones for only two dollars.
Deepfake videos are a threat to the general public

Vprašanje je, koliko ljudi je prepozno ugotovilo, da gre za prevaro, a bojimo se, da gre za zelo visoko številko.

Deepfake posnetki so obstajali že pred pojavom umetne inteligence v obliki, kot jo poznamo danes (ChatGPT, Bard, Bing, Midjourney …). A z adventom velikih jezikovnih modelov so ti posnetki postali strašljivo realistični. Le vprašanje časa je bilo, kdaj bodo nepridipravi izkoristili to napredno tehnologijo v zle namene.

Izbrali so najboljšo možno tarčo. MrBeast je poznan po svojih ekstravagantnih Youtube videih, v katerih svoje oboževalce in mimoidoče razveseljuje z dragimi avtomobili, zasebnimi letali, telefoni, hišami in podobnimi darili. Scenarij, kjer bi MrBeast delil skoraj brezplačne telefone iPhone 15, niti ni preveč nenavaden. Na to so stavili tudi zlonamerneži. Lažni MrBeast je gledalce nagovarjal, naj kliknejo na povezavo v posnetku, ki pa je v ozadju skrivala namero po kraji podatkov.

Deepfake posnetek MrBeasta se je pred kratkim pojavil na TikToku, kjer je po vsej verjetnosti naredil zajetno škodo, ne samo uporabnikom, ampak tudi platformi, ki se bo sedaj spopadala z vprašanji, kako v prihodnosti to preprečiti.

MrBeast ni edina žrtev prevar z umetno inteligenco. Tudi Putinova podoba je bila v preteklosti zlorabljena za širjenje lažnih informacij.

Čeprav so znane osebnosti bolj privlačne tarče, so ogroženi tudi navadni smrtniki. To sta na lastni koži izkusila tudi novinarja BBC-ja Matthew Amroliwala in Sally Bundock. Njuna podoba je bila uporabljena za promocijo finančne prevare. V videu naj bi novinarja gostila najbogatejšega Zemljana Elona Muska, ki naj bi ga zasliševala o trenutno domnevno najbolj dobičkonosni investicijski priložnosti. Tudi Elon Musk je bil v preteklosti že žrtev deepfake posnetkov, v katerih naj bi razdajal svoje bogastvo in svetoval o kriptovalutah.

Meta (prej Facebook) je doslej na tovrstne posnetke pripela opozorila o morebitnih napačnih informacijah, ki jih je odkrila organizacija FullFact. Slednja si je zadala misijo, da preveri vse morebitne nepravilnosti, ki se pojavljajo v novicah in na družbenih medijih. Oglasil se je tudi predstavnik podjetja Meta. »Ne dovolimo takšne vsebine na naših platformah in smo jo nemudoma odstranili. Nenehno si prizadevamo izboljšati naše sisteme in spodbujamo vse, ki vidijo vsebino, za katero menijo, da krši naša pravila, da jo prijavijo z orodji v aplikaciji. Nato jo lahko preučimo in ukrepamo.«

Javil se je tudi TikTok, ki je lažni posnetek MrBeasta odstranil nekaj ur po objavi in blokiral račun, ki je kršil njihove pogoje uporabe. TikTok ima v svojem pravilniku tovrstne »sintetične« posnetke izpostavljene kot prepovedano vsebino.

Pravi MrBeast pa je medtem platformo X (prej Twitter) in ostale platforme pozval k odgovoru na vprašanje, ali so pripravljeni na porast tovrstnih prevar.

How to identify deepfake recordings?

Čeprav za zdaj klasični phishing napadi in napadi z ransomware ostajajo najbolj pogoste oblike napadov in tudi najbolj uspešne, po vsej verjetnosti prihaja obdobje, ko bodo deepfake posnetki in napadi z umetno inteligenco vse pogostejši.

Nedavno se je moral zaradi umetne inteligence zagovarjati tudi Tom Hanks. Njegovo podobo so ukradli za promoviranje kontroverznega zobozdravstvenega načrta.

AI sistemi bodo postali le še naprednejši. Z razvojem se bodo povečevale skrbi, kako prepoznati tovrstne prevare. Zlato pravilo je, da bodite v dvomih, če naletite na posnetek, objavo ali sporočilo, v katerem vam nekdo ponuja nekaj brezplačnega, še posebej, če gre za izdelek ali storitev, ki običajno zahteva večje zneske.

Podoba MrBeasta nekoliko razvrednoti to pravilo. Ravno zaradi njegovih posnetkov, v katerih se tudi sicer udeleženci potegujejo za privlačne nagrade, je bilo omenjeni deepfake posnetek težko prepoznati kot prevaro.

We have no choice but to always be careful and check every piece of information beforehand. Those most observant users will also notice some other suspicious signs that may indicate that it is a scam.

V posnetku MrBeasta (ogledate si ga lahko na bit.ly/DeepfakeRN) so zlonamerneži vključili ime znanega Youtuberja z modro potrditveno oznako, ki smo je vajeni od uradnih profilov. Če ste pogosti uporabnik TikToka, veste, da tovrstna postavitev imena ni potrebna, saj vsi videi že vključujejo ime nalagalca pod logotipom TikToka.

V primeru novinarjev BBC-ja so bili razlogi za sumničavost bolj slovnične narave. Voditeljica napačno izgovori številko 15 in z nenavadno intonacijo izgovori besedo »project«. Prisotnih je še nekaj manjših slovničnih napak, ki pa jih lahko zelo hitro zgrešite (na primer napačna raba »was, were«). Ker bodo posnetki sčasoma postajali vse bolj realistični, bodo tovrstne napake pomembne za prepoznavo prevar. V istem posnetku se zelo težko opazi, da je Elon Musk dobil dodatno oko nad svojim levim očesom. Oči, prsti in podobne podrobnosti so pri posnetkih z umetno inteligenco pogosto iznakažene, za nas pa to predstavlja priložnost, da se izognemo katastrofi.

Oglasili so se tudi pravni strokovnjaki, ki so deljenega mnenja glede prepovedi tovrstnih posnetkov. V primeru, da bi prepovedali deepfake tehnologijo, bi oškodovali tudi pristno vsebino v filmih in serijah, ustvarjeno s posebnimi učinki.

Naslovna slika: Image by rawpixel.com on Freepik


Interested in more from this topic?
Elon Musk Facebook Mint Twitter artificial intelligence


What are others reading?