Guglova kompanija za istraživanje veštačke inteligencije „DeepMind“ lansirala je krajem prošlog meseca model „Nano Banana Pro“ (zvaničnog naziva Gemini 3.0 Pro Image) za generisanje realističnih AI slika i video snimaka.
Unapređena verzija neke AI aplikacije koja može vizualizovati šta god čoveku padne na pamet, nije nova stvar na internetu, ali jeste značajan korak u razvoju ove tehnologije, posle kojeg je granica između AI-a i realnosti dodatno zamućena.
Kako je „deepfake“ preuzeo društvene mreže
U poslednje vreme na društvenim mrežama sve se više pojavljuju video snimci i fotografije generisane uz pomoć različitih AI alata, a za koje je teško reći da li su stvarne ili ne.
Najčešće se radi o bezopasnim mimovima na Instagramu i TikToku, poput onih na kojima Mesi i Ronaldo rade na kasi u Mekdonaldsu i svađaju se oko toga ko je fudbalski „GOAT“ ili onih u kojima Donald Tramp u podkastu kod Džoa Rogana podstiče mlade da idu u kazino.
Međutim, u mnogim drugim slučajevima AI generisane slike i snimci mogu biti zloupotrebljeni za širenje lažnih vesti, fabrikovanje afera ili čak lažiranje sudskih dokaza.
Rat u Ukrajini, pokazao je koliko ozbiljan takozvani „deepfake“ može biti, kada su internetom još 2022. godine (a tada AI još uvek nije bio toliko razvijen) počeli da kruže snimci kako Volodimir Zelenski poziva svoje vojnike da polože oružje.
Od tada su AI alati postali neuporedivo napredniji, do te mere da je u 2025. godini lako prevariti i tehnološki najpismenije među nama.
Kako prepoznati AI
Vodeće tehnološke kompanije već idu ka tome da regulišu upotrebu AI sadržaja na svojim platformama, ali za sada se to samo svodi na dobru volju autora sadržaja. Problem sa ovim propisima je u tome što, ako neko već ima nameru da manipuliše uz pomoć AI generisanih slika, to sigurno neće eksplicitno otkriti.
Na mrežama postoji i mogućnost da se na nekoj objavi istakne upozorenje, poput onih koje koristi X kada detektuje nepotvrđenu informaciju na nekom tvitu, međutim, spornu objavu mogu videti milioni ljudi pre nego što se upozorenje pojavi.
Alati poput „Sora“ koju razvija OpenAI, ostavljaju natpis „Sora“ u uglu slike ili videa, kao i „nevidljive“ kodove preko kojih kompjuter može prepoznati lažni sadržaj. Međutim i takve naznake mnogima promaknu.
Paralelno sa AI alatima, razvijali su se i alati za detektovanje sadržaja napravljenog uz pomoć AI, poput „SynthID-a“. Međutim, kako programi za generisanje slika i snimaka sve brže napreduju, alati za prepoznavanje AI-a pokazuju se sve manje pouzdanim.
„Više nije dovoljno samo primetiti šest prstiju na ruci“
Profesor računarstva na Univerzitetu Kalifornija u Berkliju i stručnjak za video forenziku Hani Farid rekao je za BBC da se u početku AI mogao prepoznati na osnovu lošeg kvaliteta slike ili snimka, kao i po neprirodnim prizorima. Međutim, danas čak ni to nije dovoljno.
„Vodeći generatori poput ’Veo’ i ’Sore’ i dalje u svojim slikama ostavljaju manje greške. Ali to više nisu šest prstiju na ruci ili pomešana slova u tekstu. Sada su mnogo suptilnije“, kaže on.
Stručnjakinja za AI etiku Katarina Doria je, baš povodom lansiranja platforme „Nano Banana Pro“ čije se slike smatraju verovatno najrealnijima do sada, na svom Instagram profilu dala nekoliko saveta za prepoznavanje AI generisanog sadržaja.
Ona, između ostalog, navodi da više ne možemo verovati samo svojim očima i da se ne smemo oslanjati na platforme za detektovanje AI sadržaja.
„Pretražite, proverite kredibilne izvore i gledajte kontekst, nemojte zaključiti da je nešto stvarno samo zato što izgleda da je stvarno“, rekla je ona.