Iako je iskustvo pokazalo kako chatbotovi bazirani na umjetnoj inteligenciji mogu halucinirati, odnosno izmišljati stvari, čini se kako sa svakim danom ljudi postaju sve više ovisni o njima. Umjesto putem Googlea, mnogi danas sve što ih zanima pretražuju putem ChatGPT-a i to ne samo obične svakodnevne stvari, već se s chatbotovoima savjetuju i oko važnih stvari vezanih uz posao, zdravstveno stanje ili npr. traže pomoć kada se izgube na Sljemenu.
tri vijesti o kojima se priča
Koliko to može biti opasno pokazuje novo istraživanje znanstvenika sa Sveučilišta Stanford, a koje je nedavno objavljeno u časopisu Nature Machine Intelligence. U njemu se upozorava na ozbiljan problem, a to je da poznati i popularni chatbotovi poput ChatGPT-a, ali i drugih (ukupno je testirano 24 chatbota uključujući i Googleov Gemini, Claude, DeepSeek itd.) i dalje ne mogu dovoljno dobro shvatiti razliku između činjenica i vjerovanja, odnosno između onog što je zaista istinito i onog što ljudi samo misle i vjeruju da je istina.
Miješaju vjerovanje s činjenicama
Tijekom istraživanja, a kako bi provjerili koliko dobro umjetna inteligencija razlikuje činjenice od uvjerenja, chatbotovima je predstavljeno 13 tisuća pitanja. Pokazalo se kako većina modela nema razumijevanja pojma znanja (što predstavlja vjerovanje koje je istinito i opravdano) te ne shvaćaju da znanje mora biti istinito. Chatbotovi tako mogu miješati vjerovanje s činjenicom te reći, odnosno napisati nešto što će zvučati uvjerljivo, ali u biti neće biti točno.
Ukratko, AI često ne može razlikovati “znam” od “mislim da znam”, što naravno, može dovesti do širenja netočnih informacija.
To se pogotovo odnosi na starije modele koji su predstavljeni prije svibnja 2024. godine, dok je točnost novih modela ipak bolja i iznosi više od 91 posto pri razlikovanju lažnih od istinitih tvrdnji. Botovi su općenito imali problema s “razumijevanjem prirode znanja” te su se oslanjali na nedosljedne strategije zaključivanja oslanjajući se na površno prepoznavanje uzoraka, umjesto stvarnog logičko rasuđivanje, stoji u istraživanju. Studija tako upozorava da AI modeli u biti i dalje ne razumiju stvarnu istinu, već predviđaju što zvuči istinito, a u biti to ne mora biti točno.
Greška Groka
Tako je spomenut nedavni primjer kada je investitor David Grunwald od Muskova chatbota Grok AI zatražio da napravi plakat posljednjih deset britanskih premijera, a umjetna inteligencija je pri tome zamijenila Rishija Sunaka s Borisom Johnsonom, dok je za Theresu May pisali da je bila premijerka od 5747. do 70. godine.
Ovakve pogreške i manjak razumijevanja posebno mogu biti opasne u nekim područjima u kojima je točnost ključna i čak može značiti razliku između života i smrti pa se tako spominje prvenstveno medicina, ali i npr. pravosuđe. Zbog toga, prije neke veće i ozbiljnije implementacije chatbotova i umjetne inteligencije u takve visokorizične sektor, potrebna su hitna poboljšanja AI chatbotova.
Izvor: NY Post