Globalni istraživački i analitički tim kompanije Kasperski otkrio je oglase na darknetu koji nude usluge kreiranja dipfejk sadržaja u realnom vremenu, i to za video i audio zapise. Cene počinju od 50 dolara za lažni video i 30 dolara za falsifikovane glasovne poruke.
Cene rastu u zavisnosti od složenosti i trajanja materijala, navela je kompanija Kasperski, dodavši da su ti podaci rezultat analize više platformi na ruskom i engleskom jeziku.
Navedeno je da je Kasperski ranije identifikovao usluge za izradu dipfejk materijala na darknetu čije su cene išle od 300 do 20.000 dolara po minutu, dok sadašnji oglasi omogućavaju zlonamernim akterima da generišu lažni audio i video sadržaj u realnom vremenu i to po znatno nižoj ceni.
Zamena lica
U oglasima se pominje nekoliko opcija, među kojima su zamena lica uživo tokom video poziva na platformama za video konferencije ili u čet aplikacijama, zamenu lica radi verifikacije i zamenu lica u video prenosima sa kamere na uređajima.
Autori oglasa tvrde da mogu da obezbede softver koji sinhronizuje izraze lica osobe u videu sa tekstom, čak i na stranim jezicima, kao i alate za kloniranje glasa i prilagođavanje tona i boje glasa kako bi se prenele određene emocije, navodi se u saopštenju.
Kasperski savetuje kompanijama da obezbede efikasne mere sajber bezbednosti, ne samo zaštitna rešenja, već i kvalifikovane IT stručnjake, da se uvere da zaposleni razumeju šta su dipfejk sadržaji i zašto predstavljaju ozbiljnu pretnju, i shodno tome obezbede redovnu obuku za njihovo prepoznavanje.
Potrebno je i naučiti osoblje da prepoznaje ključne znake dipfejk materijala – trzave pokrete, nedosledno osvetljenje između kadrova, neprirodne tonove kože, neuobičajeno ili izostalo treptanje, izobličenja slike, kao i video zapise koji su namerno snimljeni u niskom kvalitetu ili pri lošem osvetljenju.
Šta je dipfejk?
Dipfejk je računarski proces animacije kojim se stvara lažni video-snimak i audio zapisa koji izgleda veoma stvarno, zamenom lica snimljene osobe licem neke druge osobe, korišćenjem veštačke inteligencije.
Koristi se pri produkciji filmova, ali i za proizvodnju lažnih vesti, podmetanjem neke izjave licu koje je nije izgovorilo.
Jedan od poznatih primera dipfejk videa bila je izjava predsednika Ukrajine o prekidu rata s Rusijom. U martu 2022. godine, tokom vrhunca ruske invazije na Ukrajinu, šokantni video je počeo da kruži društvenim mrežama. Video prikazuje ukrajinskog predsednika Volodimira Zelenskog kako se obraća naciji i poručuje ukrajinskim vojnicima da polože oružje i predaju se ruskim snagama.
Ali postojao je jedan veliki problem: video je bio potpuno lažan.
U maju 2023. godine, panika je zahvatila društvene mreže kada se pojavila slika koja prikazuje eksploziju u blizini Pentagona. Slika je delovala autentično, a nekoliko verifikovanih Tviter naloga ju je podelilo. Prikazivala je stub crnog dima koji se diže iz vladine zgrade, što je sugerisalo mogući teroristički napad ili raketni napad.
Slika nije bila stvarna. Bio je to dipfejk generisan veštačkom inteligencijom.
Izvor: FoNet/Vreme