

Hronika
Direktor bolnice u Čačku podneo ostavku nakon smrti četvorogodišnje devojčice
Vršilac dužnosti direktora Opšte bolnice u Čačku podneo je ostavku nakon smrti četvorogodišnje devojčice, saopštilo je Ministarstvo zdravlja




AI sistemi koji „razumeju emocije“ zapravo manipulišu korisnikovim osećanjima. Ana Katarina de Alenkar objašnjava kako ovakvi alati redefinišu intimnost, privatnost i emocionalnu autonomiju, stvarajući digitalnu zavisnost i „ekonomiju usamljenosti“
U finalu ovogodišnje Nedelje Privatnosti, koju tradicionalno organizuju Partneri Srbija, učesnici su mogli da čuju razgovor sa Anom Katarinom de Alenkar pod nazivom „Veštačka inteligencija koja čita emocije – Šta to znači za zaštitu podataka, saglasnost i emocionalni uticaj“. Ana Katarina de Alenkar je međunarodna pravna savetnica specijalizovana za veštačku inteligenciju, zaštitu podataka i IT pravo, a njen istraživački fokus usmeren je na koncept „algoritamske intimnosti“, odnose koje formiramo sa emocionalno inteligentnim AI sistemima, i njihove posledice ne samo na individualnu privatnost, već i na same temelje demokratskog društva. Ovaj razgovor bio je prilika da se osvetli ona dimenzija AI tehnologije koja ubrzano postaje deo naše svakodnevice, a direktno je vezana za same osnove nas kao ljudskih bića: osećanja, kvalitet komunikacije i međuljudskih odnosa. Još važnije, bila je ovo prilika za razgovor i o novim oblicima odnosa između čoveka i „mašine“, odnosima koji redefinišu granice intimnosti, privatnosti i ljudske autonomije.
Kada govorimo o „emocionalnoj veštačkoj inteligenciji“, već u samoj upotrebi te konstrukcije leži fundamentalna zabluda. Veštačka inteligencija ne može da oseća, ona nema emocije. Ona procesira, obrađuje podatke. Kada nam bilo koji alat poput ChatGPT-ja, Gemini, Grok-a kaže „Razumem kako se osećaš“, to je samo automatski generisan odgovor, zasnovan na prepoznavanju šablona i veze pojedinačnih reči, koji ima za cilj da zvuči saosećajno. Ali, ta empatija je algoritamska simulacija, ne autentičan afektivni odgovor.
Sve ovo deluje logično, poznato, zdravorazumski, ali onog momenta kada svom odabranom „alatu“ kažete „hvala ti“ ili „zdravo“, napravili ste prvi korak u procesu antropomorfizacije mašine. Uvođenje konvencija ljubaznog ljudskog dijaloga pokazuje da, svesno ili nesvesno, brinemo o emocionalnoj dimenziji komunikacije sa AI. Različite studije pokazuju da ljudi, korisnici, osećaju neku vrstu stresa ili brige kada „povrede osećanja“ glasovnog asistenta, iako svesno znaju da je mašina.
Zato je važno da i terminologija bude usklađena sa realnošću naših odnosa sa tehnologijom, a konstrukcija -„emocionalna veštačka inteligencija“ – stvara iluziju recipročnosti. Terminološka konfuzija maskira asimetriju moći: mi osećamo stvarne emocije prema alatima zasnovanim na veštačkoj inteligenciji, dok AI samo simulira – ekstrahujući podatke iz naših onlajn aktivnosti, ali i osećanja, za profit. Dok mi stvaramo osećaj „on/a me razume“, algoritam samo optimizuje naše zadržavanje na određenoj platformi.


Savremeni sistemi zasnovani na veštačkoj inteligenciji prikupljaju tzv. multimodalne podatke – ton glasa, dinamiku govora, strukturu i sadržaj teksta, mimiku lica, tempo kucanja. Ovo nije više samo prepoznavanje onoga što radimo, već zaključivanje o tome kako se osećamo. I dok GDPR reguliše način na koji se prikupljaju i koriste naši lični podaci, one emocije koje sistem zaključuje iz našeg ponašanja, ostaju u svojevrsnoj „sivoj“ pravnoj zoni.
Ova nova dimenzija prikupljanja podataka zahteva novi pristup pitanju našeg pristanka na uslove korišćenja servisa. Tradicionalno, „nformisani pristanak“ znači da korisnik dobija informaciju o tome koji se podaci prikupljaju i kako će biti korišćeni, nakon čega donosi odluku da li mu to odgovara ili ne. Međutim, kada AI sistem kontinuirano prilagođava svoj odgovor našem raspoloženju ili osećanjima (onako kako ih alat registruje) u realnom vremenu, kada „uči“ naše emocionalne obrasce kroz dugotrajne interakcije, možemo li zaista govoriti o „informisanom pristanku“? A da su osećanja postala važan deo ne samo kvaliteta korisničkog iskustva sa AI, već i biznis modela kompanija koje stoje iza različitih servisa i alata, pokazuju i sve češće studije o stvaranju nekog oblika emocionalne zavisnosti u odnosima ljudi i tehnologije. Ana Catarina de Alencar ističe da ove sistemske psihološke veze nose posledice po mentalno zdravlje, privatnost korisnika i građansko angažovanje.
Iza vizuelno privlačnih interfejsa i prilagodljivih AI asistenata krije se ono što Alencar naziva „ekonomijom usamljenosti“ – biznis model koji ne samo da odgovara na potrebu korisnika za bliskom komunikacijom, već je aktivno proizvodi i produbljuje. Ova ekonomija je zasnovana na više različitih, povezanih mehanizama. Kompanije koje razvijaju tzv. AI „saputnike“ (Character AI, Replika…) svesno dizajniraju sisteme koji maksimizuju angažovanje korisnika. Svaki odgovor „mašine“ odmerava se i projektuje tako da što brže i intenzivnije stvori osećaj razumevanja. Odgovori su dovoljno personalizovani da stvaraju iluziju autentičnog odnosa, a dovoljno predvidljivi da nude osećaje sigurnosti i bezuslovnog prihvatanja koji često nedostaju u ljudskim odnosima. Rezultat je digitalni odnos bez rizika odbijanja, bez konflikta, ali i bez stvarne recipročnosti. Ono što je ranije pripadalo sferi privatnog – naša emocionalna stanja, intimne misli, nedoumice, trenuci ranjivosti – sada postaje sirovina za ekstrakciju podataka. Svaka poruka u kojoj podelimo svoju zebnju, nesigurnost, svako pitanje o smislu života ili prepričan konflikt sa posla, svaki izraz usamljenosti, sve su to podaci koji se mogu analizirati, kategorizovati i monetizovati. Na taj način, naša intimnost se transformiše u kapital. Kada algoritamski „saputnik“ postane primarni izvor emocionalne podrške, smanjuje se potreba za ulaganje u složene, nepredvidive i često komplikovane i zahtevne ljudske odnose. Zašto se suočavati sa nesigurnošću stvarnog prijateljstva i potencijalnim osporavanjem i odbijanjem, kada AI bot uvek odgovara, uvek je dostupan, nikada ne osuđuje? Ovaj proces ne zamenjuje samo individualne odnose. On transformiše našu sposobnost da formiramo zajednicu, da pregovaramo o razlikama, da sukobljavamo stavove i razmišljanja, da se preispitujemo i da razvijamo empatiju kroz izloženost perspektivama koje nisu naše. Tradicionalno, emocionalna podrška dolazila je iz mreže odnosa – prijatelja, porodice, zajednice, škole ili posla, ponekad stručnjaka iz oblasti mentalnog zdravlja. Svi ovi kanali zahtevaju različite oblike društvene organizacije i javne infrastrukture. Kada se emocionalna podrška privatizuje i individualizcije kroz sve dostupnije i privlačnije AI servise, ona postaje roba. Dostupna u najkvalitentijem obliku onima koji mogu da plate pretplatu, oblikovana interesima korporacija, a ne potrebama zajednice.
Centralno pitanje u odnosima ljudi i „emocionalne AI“ nije da li AI zaista oseća, već šta naš um projektuje na te sisteme. Kada neko kaže „moj AI asistent me razume bolje od bilo koga“, ta izjava možda govori manje o sposobnostima alata, a više o dubini naše potrebe da nas neko (nešto?) razume, prihvati, podrži i ohrabri. Veštačka inteligencija, međutim, ne postaje inteligentnija, već mi postajemo prijemčiviji za validaciju, čak i kada dolazi iz sistema koji ne može zaista da razume šta zaista podržava. Ovako jednostrani odnos baziran je na kontinuiranoj ekstrakciji afektivnih podataka korisnika, bez ikakve stvarne emotivne recipročnosti. Mi delimo, predajemo naša osećanja i ranjivost, sistem vraća optimizovane odgovore dizajnirane da produže i pojačaju naše angažovanje. Mi tražimo vezu, a dobijamo statistički najprihvatljiviji sledeći element u komunikacionoj sekvenci.


Prisustvujemo transformaciji i evoluciji od „privatnosti podataka“ ka „kognitivnoj privatnosti“, a to zahteva nov pravni i etički okvir. Nije dovoljno samo regulisati ko ima pristup našim emocionalnim podacima. Potrebno je zaštititi samu našu sposobnost da formiramo autonomne, informisane procese vezane za emocionalne podatke koje delimo. Pitanja koja su pred nekim budućim regulatorima i zakonodavcima su kompleksna. Šta znači za demokratsko društvo kada pojedinci formiraju snažne emocionalne veze sa sistemima koje kontrolišu korporacije? Kako „algoritamska intimnost“ utiče na našu sposobnost i spremnost za kolektivno delovanje, za političko angažovanje, za negovanje solidarnosti bez koje nema ni društvene odgovornosti?
„Kognitivna etika“, kako to Alencar definiše, bavi se ne samo zaštitom privatnosti u tradicionalnom smislu, već zaštitom same sposobnosti pojedinca za autonomno mišljenje, osećanje i delovanje. To obuhvata i pitanja o tome kako dizajnirati sisteme koji neće eksploatisati ljudsku potrebu za vezom i bliskom komunikacijom, kako regulisati upotrebu emocionalnih podataka, kako osigurati da tehnološki razvoj ne erodira osnovne kapacitete korisnika (građana!) potrebne za funkcionisanje demokratskog društva.
Alternativa „ekonomiji usamljenosti“ nije odbacivanje tehnologije, već njena reorganizacija oko principa zaštite ljudskog dostojanstva, a ne maksimizacije profita. To znači transparentnost o ograničenjima AI sistema, dizajn koji podstiče, a ne zamenjuje ljudske veze, regulatorne okvire koji tretiraju emocije kao posebno osetljivu kategoriju podataka koja zahteva najstrožu zaštitu. Znači i kolektivnu svest o tome da kada razgovaramo sa AI, mi nismo u dijalogu. Mi smo u procesu ekstrakcije podataka koji je dizajniran tako da izgleda kao dijalog. Ta svesnost ne mora da uništi korisnost i dobrobit tehnologije, ali može da spreči da ona oslabi našu sposobnost da stvorimo autentične ljudske veze i konstruktivnu i vitalnu političku i društvenu zajednicu.
Autorka je redovna profesorka na FDU


Vršilac dužnosti direktora Opšte bolnice u Čačku podneo je ostavku nakon smrti četvorogodišnje devojčice, saopštilo je Ministarstvo zdravlja


Tokom sinoćnje akcije UKP-a i Višeg javnog tužilaštva u Beogradu zaplenjeno je osam kilograma kokaina, dva kilograma eksploziva i veća količina oružja


Drugi dan zaredom su se građani, porodica i prijatelji četvorogodišnje devojčice, koja je preminula nakon operacije krajnika, okupili ispred Opšte bolnice u Čačku zahtevajući odgovore na njenu smrt


Prema podacima Republičkog seizmološkog zavoda, zemljotres magnitude 4,3 po Rihteru zabeležen je u utorak uveče u okolini Prizrena. Potres se osetio u više delova Kosova i Metohije, Severne Makedonije i centralne Srbije.


Aleksandar Ivanović, direktor Gradskog zavoda za zaštitu spomenika kulture i jedan od okrivljenih u slučaju Generalštab, dozvolio je rušenje kuće na Vračaru u Mome Kapora 2 iako na sajtu ove institucije piše da je to „nepokretnost u postupku utvrđivanja za kulturno dobro“
Arhiva nedeljnika Vreme obuhvata sva naša digitalna izdanja, još od samog početka našeg rada. Svi brojevi se mogu preuzeti u PDF format, kupovinom digitalnog izdanja, ili možete pročitati sve dostupne tekstove iz odabranog izdanja.
Vidi sve