Ako provodite vreme na internetu, verovatno već neko vreme znate za pojam deepfake (dipfejk). Ukoliko ne, ne sumnjamo da ste se sa ovom rečju dobro upoznali u proteklih par dana. Naime, sama televizija Pink odlučila je da nam, na njima svojstven način, uputi upozorenje o korišćenju ove tekovine veštačke inteligencije. Ovde naravno govorimo o dipfejk video snimcima koji su se pojavili na TV Pink. Sami subjekti pomenutih videa (iako oni to sami nisu znali) bili su predstavnici opozicije Dragan Đilas, Marinika Tepić i Vuk Jeremić.
Dakle, „dipfejk“ video u kome „dipfejk“ verzija Dragana Đilasa izgovara „fejk“ rečenice pojavio se ni manje ni više nego na nacionalnoj frekvenciji TV Pink. Iako smo već navikli da Pink prenosi lažne vesti, fabrikovan video može dovesti u veću opasnost od izgovorene reči. Sam video nije preterano dobrog kvaliteta, te nije teško primetiti da je snimak nije pravi. Takođe, treba primetiti da su fraze koje ovaj „fejk“ Đilas izgovara vidno fraze koje vole da upotrebljavaju njegovi politički protivnici. Nadimak „Ćuta pljoska“, za Aleksandra Jovanovića Ćutu nismo do sada čuli od strane opozicionih političara.
Naravno ovo je sve pod uslovom da ljudi kada gledaju televiziju zaista duboko razmišljaju o onome što vide, što nažalost nije uvek slučaj. Upravo to nas dovodi do opasnosti zloupotrebe veštačke inteligencije – ljudi ne obraćaju pažnju, te je lako zloupotrebiti nešto kao što je dipfejk.
Šta je dipfejk?
Aleksandar Đokić iz FakeNews Tragača u istraživanju „Deepfake porn – duboko učenje i strah od lekcija“ kaže da Mejson i Holt u svom radu o dipfejku definišu ovaj fenomen kao „proizvod aplikacija veštačke inteligencije (AI) koje spajaju, kombinuju, zamenjuju i preklapaju slike i video-snimke da bi se kreirali lažni video-snimci koji izgledaju autentično“. Veštačka inteligencija se, po mom razumevanju, prvo „nahrani“ informacijama o osobi koja će biti predmet dipfejka, nakon čega je moguće kreirati video kakav želimo.
Većini ljudi prva asocijacija na dipfejk možda je šaljivi video osobe koja se na TikTok-u predstavlja kao Tom Kruz. Većim upoznavanjem sa pojmom dipfejka saznajemo da je možda zapravo češće zloupotrebljen. Većina novinarskih članaka na ovu temu direktno se bavi načinima zloupotrebe ove tekovine veštačke inteligencije. Najčešće spomenuta zloupotreba nesumnjivo je upravo vezana za politiku kao što je i u našem slučaju reč.
Moj prvi susret sa dipfejkom nekog političara bio je predsednik Aleksandar Vučić koji repuje (nažalost nisam mogla da pronađem ovaj video). Možemo da kažemo da je u pitanju video šaljivog karaktera sa javnom ličnosti u glavnoj ulozi. Međutim, sledeći put kada sam videla dipfejk sa političarem nije bio jednako bezazlen. U pitanju je bio dipfejk predsednika Ukrajine Volodimira Zelenskog koji govori ukrajinskoj vojsci da se preda Rusiji. Mediji su pomno na vreme objavili da je reč o fabrikovanom snimku. Ipak, ovde je bilo reči o aktuelnoj temi, ratu u Ukrajini i vesti koja je važna za ceo svet, pa ne možemo očekivati da će se isto desiti u drugim sličnim slučajevima.
TV Pink i Đilas
Kako smo na početku naveli, simptomatično je to što se video ovog tipa pojavio na nacionalnoj frekvenciji. Iako ljudi sve ređe filtriraju podatke čak i sa interneta, poznato je da ljudi koji najviše koriste TV kao izvor informacija ne proveravaju istinitost viđenog. Takođe je ovde reč o TV Pink, mediju koji otvoreno podržava vlast, te u većoj meri satanizuje pripadnike opozicije. Osoba koja redovno gleda ovaj medij i veruje svemu viđenom, možda će bez razmišljanja poverovati u stvari koje lažni Dragan Đilas govori u ovom videu.
Ceo ovaj događaj i dalje je aktuelan, s obzirom na to da je Đilas odlučio da tuži TV Pink. Pozitivna stvar koja je proizašla jeste da da se REM konačno oglasio i naveo pravila prilikom prikazivanja ovakvih fabrikovanih videa. Kako prenosi N1, REM je naveo da pre i tokom čitavog trajanja fabrikovanog videa mora stajati oznaka koja obaveštava gledaoce da je u pitanju fabrikovan prikaz. Iako prilično korektan zahtev, pitanje je koliko će biti poštovan. Ukoliko u obzir uzmemo i istoriju rada REM-a upitno je i koliko će zapravo biti sankcionisani oni koji krše ovaj zahtev.
Kuda dalje?
Možda će ova konkretna situacija biti razrešena, međutim opasnost koju predstavlja dipfejk skoro sigurno će samo porasti. U videu na kome se nalazi lažni Dragan Đilas možda se lako može razaznati da je u pitanju dipfejk, ali ne verujem da će veštačka inteligencija nazadovati. Naprotiv, postaje sve bolja i sve je teže razaznati stvarnost od lažnog prikaza.
Takođe, zabrana REM-a neće uticati na informacije koje dobijamo putem interneta. Kako se sve veći broj ljudi, a pogotovo mladih u najvećoj meri upravo informiše na društvenim mrežama, lažne vesti će sigurno biti još češća pojava. Unapređivanje dipfejkova dovešće do još većeg broj lažnih vesti, ali i teže proverljivosti. Trenutno je važno da, koliko možemo, kritički sagledavamo sadržaj koji vidimo na internetu i proverimo sve što nam je servirano.
Za one koje dalje zanima tema zloupotrebe dipfejka preporučujem već pomenuto istraživanje FakeNews tragača „Deepfake porn – duboko učenje i strah od lekcija„. Iako se konkretno ne odnosi na sferu poltike, možemo da vidimo kakve su još posledice korišćenja veštačke inteligencije. Link do stranice na kojoj možete skinuti istraživanje ostavljam vam ispod.
Naslovna fotografija: cottonbro studio / Pexels