Deepfake videozapisi prijetnja su široj javnosti
Pitanje je koliko je ljudi prekasno shvatilo da je riječ o prijevari, ali bojimo se da je to vrlo velik broj.
Deepfake snimke postojale su i prije pojave umjetne inteligencije u obliku kakvom je danas poznajemo (ChatGPT, Bard, Bing, Midjourney...). No s pojavom velikih jezičnih modela te su snimke postale zastrašujuće realistične. Bilo je samo pitanje vremena kada će zlobnici upotrijebiti ovu naprednu tehnologiju u zle svrhe.
Izabrali su najbolju moguću metu. MrBeast je poznat po svojim ekstravagantnim YouTube videima u kojima obožavatelje i prolaznike oduševljava skupim automobilima, privatnim zrakoplovima, telefonima, kućama i sličnim poklonima. Scenarij u kojem bi MrBeast dijelio gotovo besplatne telefone iPhone 15 nije ni previše neobičan. Na to su se kladili i zlonamjerni ljudi. Lažni MrBeast pozivao je gledatelje da kliknu na poveznicu u videu, ali iza scene je bila namjera krađe podataka.
Deepfake video MrBeasta nedavno se pojavio na TikToku, gdje je vjerojatno prouzročio ogromnu štetu, ne samo korisnicima, već i platformi, koja će se sada uhvatiti u koštac s pitanjima o tome kako to spriječiti u budućnosti.
MrBeast nije jedina žrtva AI prijevara. Putinov imidž također je zlouporabljen u prošlosti za širenje lažnih informacija.
Iako su slavne osobe privlačnije mete, ugroženi su i obični smrtnici. BBC-jevi novinari Matthew Amroliwala i Sally Bundock također su to iskusili iz prve ruke. Njihova slika korištena je za promicanje financijske prijevare. U videu bi novinara trebao ugostiti najbogatiji Zemljanin Elon Musk koji bi ga trebao ispitivati o trenutno navodno najisplativijoj prilici za ulaganje. Elon Musk također je u prošlosti bio žrtva deepfake videa u kojima je navodno odavao svoje bogatstvo i davao savjete o kriptovalutama.
Do sada je Meta (bivši Facebook) takvim videima prilagala upozorenja o mogućim lažnim informacijama koje je otkrila organizacija FullFact. Potonji si je zadao misiju provjere svih mogućih nepravilnosti koje se pojavljuju u vijestima i na društvenim mrežama. Oglasio se i predstavnik Mete. “Ne dopuštamo takav sadržaj na našim platformama i odmah smo ga uklonili. Konstantno radimo na poboljšanju naših sustava i potičemo sve koji vide sadržaj za koji vjeruju da krši naša pravila da ga prijave pomoću alata u aplikaciji. Onda možemo to proučiti i poduzeti mjere."
TikTok se također oglasio, uklonivši MrBeastov lažni video nekoliko sati nakon što je objavljen i zabranio račun koji je prekršio njihove uvjete usluge. TikTok je ovu vrstu "sintetičkih" snimaka istaknuo kao zabranjeni sadržaj u svojim pravilima.
U međuvremenu je pravi MrBeast pozvao platformu X (bivši Twitter) i druge platforme da odgovore na pitanje jesu li spremni na porast ovakvih prijevara.
Kako prepoznati deepfake snimke?
Iako su za sada klasični phishing napadi i napadi ransomwareom i dalje najčešći oblici napada te ujedno i najuspješniji, vjerojatno će doći razdoblje kada će deepfake i napadi umjetnom inteligencijom postati sve češći.
Nedavno se čak i Tom Hanks morao braniti zbog umjetne inteligencije. Njegova je slika ukradena kako bi se promovirao kontroverzni stomatološki plan.
AI sustavi samo će postati napredniji. S razvojem će se povećavati zabrinutost oko toga kako prepoznati takve prijevare. Zlatno pravilo je da budete sumnjičavi ako naiđete na video, objavu ili poruku u kojoj vam netko nudi nešto besplatno, pogotovo ako se radi o proizvodu ili usluzi za koje su obično potrebni veći iznosi.
Slika MrBeasta donekle obezvrjeđuje ovo pravilo. Upravo zbog njegovih videa, u kojima se sudionici natječu i za primamljive nagrade, spomenuti deepfake video bilo je teško prepoznati kao prijevaru.
Ne preostaje nam ništa drugo nego uvijek biti oprezni i provjeriti svaki podatak unaprijed. Oni najpažljiviji korisnici primijetit će i neke druge sumnjive znakove koji mogu ukazivati da se radi o prijevari.
Na MrBeastovu snimku (možete je pogledati na bit.ly/DeepfakeRN) napadači su uz plavu kvačicu na koju smo navikli sa službenih profila ubacili ime poznatog YouTubera. Ako ste česti korisnik TikToka, znate da ova vrsta postavljanja imena nije potrebna jer svi videozapisi već uključuju ime uploadara ispod TikTok logotipa.
U slučaju novinara BBC-ja razlozi sumnje više su bili gramatičke prirode. Voditelj krivo izgovara broj 15 i neobičnom intonacijom izgovara riječ "projekt". Postoje i neke manje gramatičke pogreške, koje možete lako propustiti (na primjer, netočna upotreba "was, were"). Kako snimke s vremenom postaju sve realističnije, ove će vrste pogrešaka biti važne za otkrivanje prijevare. U istom isječku vrlo je teško vidjeti da je Elon Musk dobio dodatno oko iznad lijevog oka. Oči, prsti i slični detalji često su iskrivljeni na AI snimkama, ali za nas to predstavlja priliku da izbjegnemo katastrofu.
Oglasili su se i pravni stručnjaci koji imaju podijeljeno mišljenje o zabrani ovakvih snimanja. Ako bismo zabranili deepfake tehnologiju, također bismo naštetili originalnom sadržaju u filmovima i serijama stvorenim specijalnim efektima.
Naslovna slika: Slika rawpixel.com na Freepiku