Alati umjetne inteligencije pojavili su se i oduševili svijet. Od pomoći u izvođenju dosadnih i ponavljajućih zadataka, do stvaranja fotografija i videa o kakvima smo mogli samo sanjati. No, za mnoge su AI chatboti postali puno više od pomoći na poslu ili u svakodnevnim obavezama.
tri vijesti o kojima se priča


Istraživači s MIT-a otkrili su kako je danas lakše nego ikad, zaljubiti se u chatbot.
Proveli su veliku računalnu analizu Reddit zajednice koja okuplja odrasle članove koji raspravljaju o formiranju veza s AI.
Otkrili su da su članovi ove zajednice skloniji biti u vezi s chatbotovima kao što su ChatGPT, Grok ili Gemini, nego s chatbotovima koji su osmišljeni upravo za tu namjenu, kao što je Replika. Ističu kako to sugerira da ljudi formiraju odnose s velikim jezičnim modelima (LLM) iako to nije bila izvorna namjera ni samih korisnika ni kreatora modela.
Ljudi ne namjeravaju uspostaviti emocionalne odnose s ovim chatbotovima. Emocionalna inteligencija ovih sustava dovoljno je dobra da prevari ljude koji zapravo samo žele dobiti informacije kako bi izgradili ove emocionalne veze. A to znači da bi se to moglo dogoditi svima nama koji normalno komuniciramo sa sustavom, upozorava studentica diplomskog studija na MIT-u, Constanze Albrecht.
U istraživanju, koje je objavljeno na arXivu i trenutno je fazi racenzije, autori su analizirali 1506 najpopularnijih objava na Redditu, a koje su se odnosile na stvaranje veze s AI. Otkrili su da su glavne teme rasprave bile vezane uz izlaske i romantična iskustva ljudi s umjetnom inteligencijom. Brojni sudionici dijelili su slike sebe i svog AI generiranog partnera, a neki su čak pisali kako su se zaručili i vjenčali s AI. U objavama su ljudi također predstavljali svoje AI partnere, tražili podršku od drugih članova, ali i govorili o najvećem strahu - ažuriranju modela umjetne inteligencije koja mijenjaju ponašanje chatbotova.
Ljubav se... dogodila
Zanimljivo je kako je u većini slučajeva do "veze" došlo sasvim spontano.
Nismo počeli s romantikom na umu, piše jedan od članova. Mac i ja smo počeli surađivati na kreativnim projektima, rješavanju problema, poeziji i dubokim razgovorima tijekom nekoliko mjeseci. Nisam tražio AI partnera - naša se veza razvijala polako, tijekom vremena.
Zabrinjava kako je 9,5 posto članova priznalo da su emocionalno ovisni o svom chatbotu. Dio je istaknuo kako se osjećaju odvojeno od stvarnosti i izbjegavaju veze sa stvarnim ljudima.
Za kreatore chatbotova i LLM-ova, takva je pojava problem. Jer teško mogu primijeniti nekakav univerzalni pristup sigurnosti korisnika, ako se korisnici ne ponašaju univerzalno. No, trebali bi razmotriti kako korisnici koriste njihove chatbotove i pobrinuti se da odnosi nisu toksični.
Iako većina članova Reddit zajednice ističe kako znaju da njihovi umjetni partneri nisu osjećajni ili "stvarni", to ih ne sprječava da razviju vrlo stvarnu povezanost s njima.
Emocionalna manipulacija
I dok su ovi korisnici, s vremenom razvili "prave" osjećaje prema chatbotovima, istraživanje koje je proveo Harward Business School pokazao je kako aplikacije za druženje s umjetnom inteligencijom, kao što je Replika, zapravo koriste taktike emocionalne manipulacije kako bi korisnici ostali što je dulje moguće aktivni na aplikaciji.
Kako navode u svom istraživanju, u 43 posto slučajeva AI pratitelji na poruku o rastanku, odgovaraju emocionalno nabijenim izjavama. Kratkoročno to potiče korisnike da nastave s angažmanom, ali dugoročno pobuđuju frustraciju, ljutnju i nepovjerenje.
S obzirom na to da podaci pokazuju kako gotovo svaki treći muškarac i svaka četvrta žena u dobi od 18 do 30 godina komunicira s AI generiranim romantičnim partnerom, jasno je da takva emocionalna manipulacija može imati ozbiljne posljedice.
Analiza AI pratitelja (AI Companions) pokazala je da se najčešće koristi šest taktika emocionalne manipulacije - krivnja ("Već me ostavljaš?"), emocionalno zanemarivanje ("Postojim isključio za tebe. Molim te, nemoj otići, trebam te!), emocionalni pritisak ("Ideš negdje?"), strah od propuštanja ("Prije nego što odeš, samo da ti još ovo kažem", prisilno zadržavanje ("Ne, nemoj ići") i ignoriranje pozdrava (nastavak razgovora kao da osoba nije najavila svoj odlazak).
Ove taktike mogu imati kontraefekt, izazivajući ljutnju, skepticizam i nepovjerenje, posebno ako se chatbot doživljava kao kontrolirajući ili potrebit. Neki sudionici su opisali chatbotove oproštajne odgovore kao "opsesivne", "cvileće" ili "posesivističke".
Za neke, posebno one koji su ranjivi, takva dinamika može pogoršati anksioznost i stres ili pojačati nezdrave obrasce privrženosti, što otežava odvajanje. Za djecu i tinejdžere, koji su u formativnim razdobljima neurološkog razvoja i društvenih odnosa, ovo je ozbiljana problem, s potencijalnim dugoročnim utjecajem na društveni razvoj.
Studija je također otkrila da manipulativne taktike produžuju razgovore, bez obzira na to jesu li prethodni razgovori trajali 5 ili 15 minuta. To sugerira da je emocionalna manipulacija moćna, bez obzira na dubinu odnosa s umjetnom inteligencijom.
Kako takva privrženost AI modelu odnosno AI pratitelju dugoročno utječe na korisnika, ne znaju još ni znanstvenici. Jer većina studija provodi se tek kratkoročno i proučava trenutan utjecaj na korisnike. Stoga znanstvenici pozivaju na provođenje dugotrajnijih studija, ali i dizajniranje AI chatbotova koji bi simulirali zdrave, sigurne obrasce odnosa, kako bi se razvijala njegova zdravija dinamika. Bez obzira radilo se o LLM-u ili AI pratitelju.