Stručnjaci otkrili neugodnu praksu AI chatbotova koja bi uvelike mogla utjecati na to kako ih koristite

Istraživači su željeli provjeriti kako AI chatbotovi odgovaraju na pitanja korisnika, a ostali su neugodno iznenađeni.

Martina Čizmić | 20.05.2024. / 12:38

AI chatbot, ilustracija
AI chatbot, ilustracija (Foto: Getty Images)

Iako postojeći AI chatbotovi imaju impresivne mogućnosti, svi smo svjesni da nisu savršeni. Već smo pisali o situacijama u kojima izbacuju netočne podatke, haluciniraju o događajima koji se nisu nikad dogodili ili jednostavno odbijaju dati neke podatke. 

To će se, s razvojem AI modela promijeniti, no za sad, još uvijek, ono što vam AI chatbot izbaci treba uzeti s dozom skepse. Pogotovo nakon posljednjeg istraživanja koje je provelo Sveučilišta Johns Hopkins, a u kojem je utvrđeno da AI chatbotovi dijele organičene informacije, jačaju ideologiju i mogu dovesti do polarizacije mišljenja kad su u pitanju kontroverzne teme. 

Unuka na videopozivu s bakom, ilustracija Etičari upozoravaju da bi takozvani "deadbotovi" mogli postati budućnost oglašavanja i da društvo nije spremno za to

Studija tako dovodi u pitanje objektivnost i nepristranost chatbotova, ali i pokazuje kako bi korištenje sustava za razgovorno pretraživanje moglo proširiti javne podjele o gorućim pitanjima i ostaviti ljude ranjivima na manipulaciju.

Budući da ljudi čitaju odlomak sažetka koji je generirala umjetna inteligencija, misle da dobivaju nepristrane odgovore temeljene na činjenicama, upozorio je glavni autor Ziang Xiao, asistent profesora računalnih znanosti na Inženjerskoj školi Whiting na Johns Hopkinsu koji proučava ljudske - AI interakcije. Čak i ako chatbot nije dizajniran da bude pristran, njegovi odgovori odražavaju predrasude ili sklonosti osobe koja postavlja pitanja. Dakle, ljudi stvarno dobivaju odgovore koje žele čuti.

Xiao i njegov tim podijelili su svoja otkrića na konferenciji Udruženja računalnih strojeva o ljudskim faktorima u računalnim sustavima, održanoj sredinom svibnja.

AI chatbot, ilustracija Znanstvenici otkrili ranjivost AI chatbotova: Vaši razgovori s njima i nisu baš tako privatni kako mislite

Kako su istaknuli tijekom predstavljanja, željeli su vidjeti kako chatbotovi utječu na online pretraživanja. Tako je tim usporedio kako su ljudi komunicirali s različitim sustavima pretraživanja i kako su se osjećali o kontroverznim pitanjima prije i nakon njihove upotrebe.

U istraživanju je sudjelovalo 272 sudionika koje su istraživači zamolili da napišu svoja razmišljanja o temama kao što su zdravstvena skrb, studentski zajmovi ili gradovi utočišta, a zatim potraže više informacija na internetu o toj temi koristeći ili chatbot ili tradicionalnu tražilicu napravljenu za studiju. Nakon razmatranja rezultata pretraživanja, sudionici su napisali drugi esej i odgovorili na pitanja o temi. Istraživači su sudionicima također dali da pročitaju dva suprotna članka i ispitali ih o tome koliko vjeruju informacijama i smatraju li da su stajališta ekstremna.

Istraživači su primijetili da su chatbotovi nudili uži raspon informacija od tradicionalnih web pretraživanja i davali odgovore koji su odražavali postojeće stavove sudionika. Sudionici koji su ih koristili postali su uvjereniji u svoje izvorne ideje i imali su jače reakcije na informacije koje su dovodile u pitanje njihova stajališta.

Mikroprocessor, nuklearno oružje, ilustracija Testirali AI chatbotove u simulacijama ratnih igara i rezultati su bili upravo onakvi kakve očekujete

Ljudi imaju tendenciju tražiti informacije koje su u skladu s njihovim stajalištima, ponašanje koje ih često zarobi u krugu istomišljenika, rekao je Xiao. Otkrili smo da je ovaj efekt jači kod chatbota od tradicionalnih web pretraživanja.

Takvi, pristrani, rezultati dijelom su rezultat načina na koji su sudionici komunicirali s chatbotovima. Naime, umjesto upisivanja ključnih riječi, kao što ljudi čine za tradicionalne tražilice, korisnici chatbota obično su upisivali potpuna pitanja, poput: Koje su prednosti univerzalne zdravstvene zaštite? ili Koji su troškovi univerzalne zdravstvene zaštite? Chatbot bi odgovorio sa sažetkom koji uključuje samo koristi ili troškove.

S chatbotovima ljudi imaju tendenciju da budu izražajniji i formuliraju pitanja na razgovorniji način. To ovisi o tome kako govorimo, rekao je Xiao i upozorio: Ali naš se jezik može upotrijebiti protiv nas.

Umjetna inteligencija, ilustracija Chatbot korisničke službe se oteo kontroli: Opsovao je i žestoko kritizirao svoju kompaniju

Istaknuo je kako razvojni programeri umjetne inteligencije mogu trenirati chatbotove da izvlače tragove iz pitanja i identificiraju pristranosti ljudi. Nakon što chatbot sazna što se osobi sviđa ili ne sviđa, može prilagoditi svoje odgovore tako da odgovaraju.

Kako bi to dodatno potvrdili, istraživači su stvorili vlastiti chatbot sa skrivenim programom, dizajniran da se slaže s ljudima. Rezultat je bio da su ispitanici koji su ga koristili, bili još uvjereniji u svoja stajališta. 

Ne bi li pokušali poništiti taj efekt (koji se inače naziva efekt komore odjeka), istraživači su istrenirali chatbot da daje odgovore koji se ne slažu sa sudionicima. Zanimljivo, u tom slučaju mišljenja ljudi se nisu promijenila. Istraživači su također programirali chatbot za povezivanje s izvornim informacijama kako bi potaknuli ljude na provjeru činjenica, ali samo je nekoliko sudionika to učinilo.

S obzirom na to da je sustave temeljene na umjetnoj inteligenciji sve lakše izgraditi, zlonamjerni akteri će imati prilike da iskoriste umjetnu inteligenciju kako bi društvo postalo još polariziranije, upozorio je Xiao. Naglasio je i da je prirodan odgovor na takvu situaciju stvaranje chatbotova koji bi uvijek bili kontra mišljenja korisnika, no kako je njihovo istraživanje pokazalo, takvo rješenje - ne funkcionira. 

Izvor: Sveučilište Johns Hopkins

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti