Znanstvenici pronašli način kako detektirati "halucinacije" umjetne inteligencije

Istraživači s Oxforda rekli su da je njihovo istraživanje pronašlo način da se utvrdi kada je AI siguran u odgovor, a kada ga izmišlja.

Hina | 20.06.2024. / 11:39 komentari
AI chatbot, ilustracija
AI chatbot, ilustracija (Foto: Getty Images)

Istraživači su pronašli novu metodu koja se može koristiti da se detektiraju i spriječe "halucinacije" umjetne inteligencije, što je kolokvijalni naziv za netočne odgovore koje daje AI.

tri vijesti o kojima se priča Širenje stanica raka Radi se na novim lijekovima Otkriveno tajno oružje raka: Evo što tumorima daje energiju za širenje u tijelu Pametni telefon, ilustracija Mali, ali značajna promjena Stavljate telefon na stol s ekranom prema gore? Evo zašto biste trebali promijeniti tu naviku Nezadovoljstvo, ilustracija I Hrvati su počeli primati obavijesti Šok za korisnike Fejsa i Instagrama: Evo što ih čeka ako ne počnu plaćati pretplatu i ne žele dati podatke Meti

Nova studija tima sa Sveučilišta u Oxfordu razvila je statistički model koji može identificirati kada će pitanje postavljeno velikom jezičnom modelu (large language models, LLM) koji se koristi za pokretanje AI chatbota vjerojatno dati netočan odgovor.

Njihovo istraživanje objavljeno je u časopisu Nature.

"Halucinacije" umjetne inteligencije su identificirane kao ključni problem budući da napredna priroda tehnologije i njezine mogućnosti konverzacije znače da je sposobna dati netočne informacije kao činjenice kada odgovara na pitanje.

Umjetna inteligencija Zašto umjetna inteligencija "halucinira" podatke i može li se taj problem nekako riješiti?

U vrijeme kada se sve više učenika okreće alatima umjetne inteligencije kada im treba pomoć u istraživanju ili u dovršavanju zadataka, mnogi stručnjaci pozivaju na akciju kako bi se spriječile "halucinacije" AI-a, posebno kada se radi o upitima vezanih uz medicinska ili pravna pitanja.

Istraživači s Oxforda rekli su da je njihovo istraživanje pronašlo način da se utvrdi kada je AI siguran u odgovor, a kada ga izmišlja.

Autor studije dr. Sebastian Farquhar rekao je: LLM-i su vrlo sposobni reći istu stvar na mnogo različitih načina, što može otežati razlučivanje kada su sigurni u odgovor, a kada doslovno samo nešto 'haluciniraju'. S prijašnjim pristupima nije bilo moguće uočiti razliku kada model ne zna što reći i kada ne zna kako to reći. Ali naša nova metoda to nadilazi.

No dr. Farquhar je rekao da treba još raditi na ispravljanju grešaka koje AI modeli mogu napraviti.

 

Vezane vijesti