Velika promjena iz OpenAI-ja: Ovaj odgovor ChatGPT 5 umjetniku postao viralan

ChatGPT-5 uvodi iskrenost priznavanjem vlastitog neznanja umjesto izmišljanja odgovora, smanjujući halucinacije, jačajući povjerenje korisnika i približavajući umjetnu inteligenciju ljudskijem ponašanju.

Branimir Vorša | 23.08.2025. / 08:25 komentari
ChatGPT
ChatGPT (Foto: Afp)

Umjetna inteligencija se bori s vjerodostojnošću od svojeg masovnog uvođenja u našu svakodnevicu. Kada veliki jezični modeli odgovaraju, često govore s potpunim uvjerenjem—bilo da je odgovor točan ili potpuno izmišljen. Ta sklonost, poznata kao halucinacija, izazvala je negodovanje među korisnicima i neugodne trenutke čak i za razvojne timove tvrtki tijekom javnih demonstracija.

ChatGPT-5 napravio ključan zaokret

Pozornost je nedavno privukla viralna objava na platformi X digitalnog kratora Kola Tregaskesa koja je istaknula nov odgovor iz OpenAI-jevog ChatGPT-5: Ne znam – i ne mogu pouzdano saznati, prenosi portal The Verge. Taj trenutak bio je značajan jer su raniji modeli gotovo nikada nisu priznavali neznanje, već su umjesto toga izmišljali izvore, statistike ili citate.
 

tri vijesti o kojima se priča Xiaomi YU7 Na struju Potražnja za ovim automobilima je nevjerojatna, a uskoro napokon stižu i u Europu Inbox, ilustracija Već vrebaju Više od 2 milijarde korisnika Gmaila na udaru hakera, evo što trebate učiniti odmah Mladić tipka na mobitel, ilustracija Od rujna Zbogom WhatsAppu i Telegramu: Svi ruski mobiteli i tableti morat će imati instaliranu ovu aplikaciju

transparentnosti umjesto prema fabrikaciji. Kada je chatbot odbio odgovoriti, potvrdio je ideju da izbjegavanje neistina kao odgovora, može izgraditi jače povjerenje s korisnicima.

Zašto nastaju halucinacije?

Tehnički gledano, veliki jezični modeli ne dohvaćaju činjenice iz baze podataka. Umjesto toga predviđaju sljedeću najvjerojatniju riječ na temelju obrazaca u podacima za treniranje. Kada se postavi pitanje o složenim ili opskurnim temama, sustav ne pretražuje poput tražilice, već pokušava pogoditi ispravan slijed. Taj proces često stvara izmišljene detalje, upravo one halucinacije koje su cijelo vrijeme pod povećalom.

Upozorenja o nepouzdanosti konstantno prate chatbotove, ali korisnici ih često zanemaruju. Ako AI jasno kaže da ne može dati odgovor, izjave koje ipak pruži mogu izgledati pouzdanije. Ipak, neki mogu doživjeti odgovor "Ne znam" kao slabost, a ne zaštitu vjerodostojnosti.

Ironično, ta zadrška čini ChatGPT-5 ljudskijim. Umjetna opća inteligencija (AGI), kako je OpenAI definira, mora odražavati ne samo znanje nego i nesigurnost. Ponekad je najinteligentniji čin priznati granice onoga što znaš.

Komentirajte clanke na portalima Nove TV i osvojite vrijedne nagrade

Vezane vijesti