
Iz novog broja
Nikola Strašek se iščupao od heroina i sada piše o tome
„Nekoliko sam puta zamalo umro“, kaže za „Vreme“ Nikola Strašek. Sada je napisao autobiografski roman o paklu heroina
Snimak lidera Stranke slobode i pravde Dragana Đilasa kako prilikom navodnog gostovanja u emisiji “Utisak nedelje” ismejava kolege iz opozicije za sada je jedno od najvećih dostignuća veštačke inteligencije u Srbiji
U pitanju je klasičan deepfake – tehnika obrade video i audio sadržaja bazirana na tehnologiji “dubokog učenja” (podvrsta mašinskog učenja i veštačke inteligencije). Korišćenjem tehnika zasnovanih na veštačkim neuronskim mrežama, kreira se lažni ili manipulisani video i audio sadržaj koji može delovati prilično ubedljivo. Algoritamskom analizom i obradom podataka, te korišćenjem pomenutih neuronskih mreža, stvara se lažni sadržaj koji će biti uverljiv u onoj meri u kojoj je tvorac imao neophodne resurse i ekspertizu. Na primer, deepfake tehnologija može da zameni lice osobe u postojećem video-snimku sa licem druge osobe, čime se stvara utisak da ta osoba govori ili radi nešto što zapravo nije.
Tako je Đilasov lik preuzet sa nekog ranijeg snimka, dok mu je glas naknadno dodat, pa ispada da lider SSP-a sve vreme napada i vređa opozicione kolege, dok ga posmatra milionski auditorijum.
Mitrović tvrdi da je u pitanju samo “satirični” program. I zaista, deepfake sadržaji širom sveta često nastaju kao neka vrsta šale, zabave, ili za potrebe neke industrije, ali takođe konstantno u sebi nose opomenu da vrlo lako mogu biti zloupotrebljeni za obmanu i širenje dezinformacija. Uzevši u obzir dosadašnju istoriju Televizije Pink, u čijem se jutarnjem programu snimak i emitovao, privrženost iste vladajućem režimu, kao i spotove koje je Mitrovićeva produkcija do sada stvarala, teško je poverovati da se samo radi o Žeksovoj satiri. Za one koji i ne znaju za postojanje ovakve tehnologije (a takvih nije malo, s obzirom da digitalna pismenost nije na zavidnom nivou u Srbiji), video u kome Đilas govori lako može biti protumačen kao autentičan.
KAKO FUNKCIONIŠE DEEPFAKE?
Razvijanje deepfake tehnologije uzelo je maha u poslednjih desetak godina. Na početku je bilo vrlo lako razlikovati lažne fotografije od autentičnih, ali sa sve većim napredovanjem na polju veštačke inteligencije, lažni sadržaj postaje sve realističniji. Da ne bude zabune, deepfake i dalje nije dostigao taj nivo da se ne može pronaći razlika sa autentičnim snimkom. Kod fotografija je mnogo teže napraviti razliku nego kod video-snimka. Iz prostog razloga što je fotografija statična, a veštačkoj inteligenciji je mnogo kompleksnije da napravi realističan lik na snimku gde se lice pomera. Stoga, pojedine fotografije već sada zahtevaju solidnu analizu da bi se utvrdila autentičnost.
Kako izgleda proces stvaranje deepfakea? Prvi korak je prikupljanje što više informacija o meti, odnosno liku čije će se karakteristike koristiti. U ovom slučaju to je Dragan Đilas. Potom, algoritmi analiziraju prikupljene podatke i izvlače neke jedinstvene karakteristike, ekspresije ili pak grimase. Sledeći korak je modelovanje, koje se sastoji od dve neuronske mreže – jedna stvara novi sadržaj, a druga ocenjuje koliko podseća na originalni. Na taj način one upotpunjuju jedna drugu. Zatim se osobine izvučene u drugom koraku ubacuju u novi model koji se pravi, kako bi izgledao što realističnije. Kada je model istreniran, počinje generisanje deepfake sadržaja. Ako nakon okončanja procesa i dalje ne bude delovao realistično, postoje dodatne metode da se greške isprave.
Jedan od poznatijih primera stvaranja deepfakea za zabavu je aplikacija “Face swap”. Ranije je bila popularna na društvenim mrežama, a korisnicima je omogućavala da zamene dva lica, spoje ih u jedno, ili da vide kako bi izgledali u starosti. Pored ove, postoji još na desetine sličnih aplikacija koje koriste neku vrstu dubokog učenja. Sa druge strane, dostupan je i veb-sajt koji svaki put kada se otvori generiše po jednu deepfake fotografiju. Sledeće otvaranje stvara novu. Doduše, sve liče jedna na drugu, lica se obično nalaze na svetlim pozadinama i skoro svako od njih ima neke vidljive greške. U najmanju ruku deluje neprirodno.
LAŽNA VS AUTENTIČNA
Kao što je već rečeno, deepfake i dalje može biti mnogo bolje kamufliran na fotografiji nego na video-zapisu. Međutim, ako i običan posmatrač zna na šta treba da obrati pažnju, vrlo je verovatno da će moći da utvrdi koja je fotografija autentična. Prvo, lice osobe sa fotografije može mnogo toga da kaže. Izgled očiju, da li su zenice jednake ili je jedna potpuno umrljana; proporcionalnost nozdrva, usana ili ušiju, da li se nalaze u istoj ravni itd. Takođe, detalji na fotografiji koja je stvorena veštačkom inteligencijom obično nisu baš najbolje urađeni, odnosno deluju prilično čudno, ili zamućeno. Još jedan dobar način da se utvrdi da li je neku fotografiju stvorila veštačka inteligencija jeste posmatrajući osvetljenje. Kada se generiše fotografija dubokim učenjem, algoritmi pokušavaju da predvide kako će padati senka, tj. kako će fotografija biti osvetljena – vrlo često se upravo ovde dogodi propust.
Prethodno objašnjenje tehnike važi i za video-zapis, sem što kod njega postoje i druge, jednostavnije stvari na koje treba obratiti pažnju. Za početak, pomeranje očiju – kada osoba razgovara sa nekim, oči će pratiti razgovor, dok na deepfake snimku one mogu biti uvek u istom položaju. Dalje, jedan od najefektivnijih načina da se utvrdi da je snimak veštački generisan jeste treptanje. Ako osoba uopšte ne trepće, ili to radi jako retko, deepfake detektor bi odmah trebalo da se upali. Takođe, nepokretanje kostiju lica, izostanak facijalnih ekspresija, neprirodna krutost tela, čudni i neusaglašeni pokreti, sve su to trigeri koji mogu ukazivati da snimak nije autentičan. Kada je u pitanju sporni audio-zapis, kao što je slučaj sa Mitrovićevom “satiričnom” emisijom, najbolji pokazatelj je činjenica da ton prosto ne prati video-snimak. Prilično je očigledno da Đilas ne izgovara te reči, tajming se ne poklapa, a njegove facijalne ekspresije i pokreti tela nemaju nikakve dodirne tačke sa tonskim zapisom koji je ubačen.
U nastavku je prikazano nekoliko svetski poznatih deepfake fotografija i video-snimaka, za koje je utvrđeno da nisu autentični.
Vladimir Putin – Početkom ove godine pojavila se fotografija (gore) koja navodno prikazuje ruskog predsednika Putina kako kleči pred kineskim kolegom i ljubi mu ruku. Kada se fotografija zumira, jasno se vidi da je Putinovo uho potpuno zamućeno i nepravilnog oblika, jedna cipela džinovska u odnosu na drugu, a šake jednog od članova kineske delegacije u pozadini, spojene jedna sa drugom.
Tom Kruz – Pre dve godine pojavio se Tik Tok profil sa video-snimcima američkog glumca Toma Kruza. Na prvi pogled je sve delovalo koliko-toliko uverljivo, profil je u kratkom roku zapratilo nekoliko miliona ljudi koji su verovali da gledaju Kruzov svakodnevni život. Međutim, sam glumac je ubrzo demantovao bilo kakvu povezanost sa profilom. Ispostavilo se da je Tom Kruz nastao uz pomoć veštačke inteligencije.
Barak Obama – BazFid je 2018. godine objavio video-snimak bivšeg američkog predsednika Baraka Obame kako priča o stvarima kojima nije mesto u javnom obraćanju. Video deluje prilično realno, sem Obaminih očiju koje od starta deluju pomalo neprirodno. Tek na kraju snimka obelodanjuje se da je u pitanju deepfake, te se na taj način šalje poruka da više nego ikad treba dobro proveravati sadržaj sa interneta.


„Nekoliko sam puta zamalo umro“, kaže za „Vreme“ Nikola Strašek. Sada je napisao autobiografski roman o paklu heroina
Povodom godišnjice smrti Teofila Pančića objavljujemo njegov tekst iz 1999. godine iz rubrike Nuspojave

Ministar Nikola Selaković „bljuje otrov“ jer ide pred sud, predsednik Aleksandar Vučić ga vatreno brani. „Vreme“ u novom broju ispituje koji su dometi slučaja Generalštaba i obračuna sa Republičkim zavodom za zaštitu spomenika

Suđenje ministru kulture trebalo bi da započne 4. februra po optužbi za zloupotrebu službenog položaja u aferi Generalštab. “Najavom da će pomilovati optužene u ovom slučaju Vučić najavljuje ono što niko nikad nije uradio – sam će sebe osloboditi krivične odgovornosti”, smatra profesor Bojan Pajtić. “Sve to izgleda kao odbrana čoveka koji zna da je odgovoran za ono što mu se stavlja na teret, a što naravno treba dokazati tokom samog postupka”, ocenjuje Selakovićeve istupe advokat Jovan Rajić. “Postoje dokazi – a to se na kraju vidi i iz Vučićevih izjava – da je on ‘alfa i omega’ poslovnog poteza rušenja spomenika srpske kulture za račun podmićivanja američkog predsednika”, naglašava advokat Božo Prelević

“Ekspoze ministra Selakovića je nemušti pokušaj da skrene pažnju sa svoje krivične odgovornosti i zameni je nekom drugom aferom, naravno nepostojećom, kako smo već navikli od naših političara. Taj govor u Domu Narodne skupštine je zapravo bio generalna proba iznošenja odbrane pred tužilaštvom i diskreditacija stručnjaka Zavoda koji su, između ostalog, svedoci u slučaju “Generalštab”. Svaka izgovorena reč bilo je izvrtanje istine i spinovanje činjenica”
Čudo neviđeno u Srbiji – suđenje ministru
Koga plaši slučaj građanina Selakovića Pretplati seArhiva nedeljnika Vreme obuhvata sva naša digitalna izdanja, još od samog početka našeg rada. Svi brojevi se mogu preuzeti u PDF format, kupovinom digitalnog izdanja, ili možete pročitati sve dostupne tekstove iz odabranog izdanja.
Vidi sve