商业解决方案
计算、电话
13.10.2023 10:00

与他人分享:

分享

Deepfake 视频对公众构成威胁

Umetna inteligenca (AI) nam je lahko v pomoč, lahko pa predstavlja tudi grožnjo, kar dokazujejo nedavni deepfake posnetki znanega youtuberja z imenom MrBeast, ki je nič hudega sluteče uporabnike razveselil z novimi telefoni iPhone 15 za le dva dolarja.
Deepfake posnetki ogrožajo splošno javnost

Vprašanje je, koliko ljudi je prepozno ugotovilo, da gre za prevaro, a bojimo se, da gre za zelo visoko številko.

Deepfake posnetki so obstajali že pred pojavom umetne inteligence v obliki, kot jo poznamo danes (ChatGPT, Bard, Bing, Midjourney …). A z adventom velikih jezikovnih modelov so ti posnetki postali strašljivo realistični. Le vprašanje časa je bilo, kdaj bodo nepridipravi izkoristili to napredno tehnologijo v zle namene.

Izbrali so najboljšo možno tarčo. MrBeast je poznan po svojih ekstravagantnih Youtube videih, v katerih svoje oboževalce in mimoidoče razveseljuje z dragimi avtomobili, zasebnimi letali, telefoni, hišami in podobnimi darili. Scenarij, kjer bi MrBeast delil skoraj brezplačne telefone iPhone 15, niti ni preveč nenavaden. Na to so stavili tudi zlonamerneži. Lažni MrBeast je gledalce nagovarjal, naj kliknejo na povezavo v posnetku, ki pa je v ozadju skrivala namero po kraji podatkov.

Deepfake posnetek MrBeasta se je pred kratkim pojavil na TikToku, kjer je po vsej verjetnosti naredil zajetno škodo, ne samo uporabnikom, ampak tudi platformi, ki se bo sedaj spopadala z vprašanji, kako v prihodnosti to preprečiti.

MrBeast ni edina žrtev prevar z umetno inteligenco. Tudi Putinova podoba je bila v preteklosti zlorabljena za širjenje lažnih informacij.

Čeprav so znane osebnosti bolj privlačne tarče, so ogroženi tudi navadni smrtniki. To sta na lastni koži izkusila tudi novinarja BBC-ja Matthew Amroliwala in Sally Bundock. Njuna podoba je bila uporabljena za promocijo finančne prevare. V videu naj bi novinarja gostila najbogatejšega Zemljana Elona Muska, ki naj bi ga zasliševala o trenutno domnevno najbolj dobičkonosni investicijski priložnosti. Tudi Elon Musk je bil v preteklosti že žrtev deepfake posnetkov, v katerih naj bi razdajal svoje bogastvo in svetoval o kriptovalutah.

Meta (prej Facebook) je doslej na tovrstne posnetke pripela opozorila o morebitnih napačnih informacijah, ki jih je odkrila organizacija FullFact. Slednja si je zadala misijo, da preveri vse morebitne nepravilnosti, ki se pojavljajo v novicah in na družbenih medijih. Oglasil se je tudi predstavnik podjetja Meta. »Ne dovolimo takšne vsebine na naših platformah in smo jo nemudoma odstranili. Nenehno si prizadevamo izboljšati naše sisteme in spodbujamo vse, ki vidijo vsebino, za katero menijo, da krši naša pravila, da jo prijavijo z orodji v aplikaciji. Nato jo lahko preučimo in ukrepamo.«

Javil se je tudi TikTok, ki je lažni posnetek MrBeasta odstranil nekaj ur po objavi in blokiral račun, ki je kršil njihove pogoje uporabe. TikTok ima v svojem pravilniku tovrstne »sintetične« posnetke izpostavljene kot prepovedano vsebino.

Pravi MrBeast pa je medtem platformo X (prej Twitter) in ostale platforme pozval k odgovoru na vprašanje, ali so pripravljeni na porast tovrstnih prevar.

Kako prepoznati deepfake posnetke?

Čeprav za zdaj klasični phishing napadi in napadi z ransomware ostajajo najbolj pogoste oblike napadov in tudi najbolj uspešne, po vsej verjetnosti prihaja obdobje, ko bodo deepfake posnetki in napadi z umetno inteligenco vse pogostejši.

Nedavno se je moral zaradi umetne inteligence zagovarjati tudi Tom Hanks. Njegovo podobo so ukradli za promoviranje kontroverznega zobozdravstvenega načrta.

AI sistemi bodo postali le še naprednejši. Z razvojem se bodo povečevale skrbi, kako prepoznati tovrstne prevare. Zlato pravilo je, da bodite v dvomih, če naletite na posnetek, objavo ali sporočilo, v katerem vam nekdo ponuja nekaj brezplačnega, še posebej, če gre za izdelek ali storitev, ki običajno zahteva večje zneske.

Podoba MrBeasta nekoliko razvrednoti to pravilo. Ravno zaradi njegovih posnetkov, v katerih se tudi sicer udeleženci potegujejo za privlačne nagrade, je bilo omenjeni deepfake posnetek težko prepoznati kot prevaro.

Nimamo druge izbire, kot da smo vedno previdni in vsako informacijo predhodno preverimo. Tisti najbolj pozorni uporabniki bodo opazili tudi nekaj drugih sumljivih znakov, ki lahko nakazujejo, da gre za prevaro.

V posnetku MrBeasta (ogledate si ga lahko na bit.ly/DeepfakeRN) so zlonamerneži vključili ime znanega Youtuberja z modro potrditveno oznako, ki smo je vajeni od uradnih profilov. Če ste pogosti uporabnik TikToka, veste, da tovrstna postavitev imena ni potrebna, saj vsi videi že vključujejo ime nalagalca pod logotipom TikToka.

V primeru novinarjev BBC-ja so bili razlogi za sumničavost bolj slovnične narave. Voditeljica napačno izgovori številko 15 in z nenavadno intonacijo izgovori besedo »project«. Prisotnih je še nekaj manjših slovničnih napak, ki pa jih lahko zelo hitro zgrešite (na primer napačna raba »was, were«). Ker bodo posnetki sčasoma postajali vse bolj realistični, bodo tovrstne napake pomembne za prepoznavo prevar. V istem posnetku se zelo težko opazi, da je Elon Musk dobil dodatno oko nad svojim levim očesom. Oči, prsti in podobne podrobnosti so pri posnetkih z umetno inteligenco pogosto iznakažene, za nas pa to predstavlja priložnost, da se izognemo katastrofi.

Oglasili so se tudi pravni strokovnjaki, ki so deljenega mnenja glede prepovedi tovrstnih posnetkov. V primeru, da bi prepovedali deepfake tehnologijo, bi oškodovali tudi pristno vsebino v filmih in serijah, ustvarjeno s posebnimi učinki.

Naslovna slika: Image by rawpixel.com on Freepik


对这个主题的更多内容感兴趣吗?
埃隆·马斯克 Facebook 薄荷 叽叽喳喳 人工智能


其他人在读什么?