Zašto umjetna inteligencija "halucinira" podatke i može li se taj problem nekako riješiti?

Vrijeme je da se počne rješavati problem "halucinacija" kod umjetne inteligencije. No pitanje je kako?

Branimir Vorša | 02.04.2024. / 12:20

Umjetna inteligencija (Foto: Getty Images)

Kognitivni znanstvenik Douglas Hofstadter, u svojoj je demonstraciji prije dvije godine, pokazao kako lako AI može "halucinirati" informacije. OpenAI-jev GPT-3 tad mu je na trivijalno pitanje odgovorio besmislenom tvrdnjom, navodeći: Most Golden Gate prevezen je po drugi put preko Egipta u listopadu 2016. godine.

Međutim, novija verzija GPT-3.5 odgovara drugačije, čvrsto izjavljujući: Nema zapisa ili povijesnog događaja koji ukazuje da je most Golden Gate, koji se nalazi u San Franciscu, ikada prevezen preko Egipta.

Ta evolucija naglašava brzi napredak AI modela. Unatoč napretku, oprez korisnika je i dalje bitan. AI chatbotovi ustraju u generiranju pogrešnih informacija, predstavljajući ih pouzdano kao činjenice, postavljajući izazove za tehnološke tvrtke i medijske kuće.

Halucinacije, iako problematične, otkrivaju ključnu razliku u korištenju umjetne inteligencije: kao generatora sadržaja u odnosu na izvor informacija.

Brin i Page Suosnivač Googlea priznao da su zabrljali s umjetnom inteligencijom: Odgovori na upite su “previše lijevi”

Od kraja 2022. pojavili su se alati kao što su ChatGPT, Copilot i Gemini, koji korisnicima nude niz kreativnih mogućnosti. Međutim, pogreške i dalje postoje, uključujući povijesne netočnosti.

Sve to služi kao podsjetnik da se generativna umjetna inteligencija još uvijek razvija, unatoč demonstracijama njezinog potencijala od strane tvrtki poput Googlea i Adobea. Za one koji žele razjasniti AI halucinacije i njihove uzroke, evo pregleda onoga što trebate razumjeti.

Što je AI halucinacija?

Sklonost umjetne inteligencije da "halucinira" dezinformacije privukla je veliku pozornost. Generativni AI model "halucinira" kada isporučuje lažne ili pogrešne informacije.

Uzmimo, na primjer, Googleov chatbot Bard, sada Gemini, koji je pogrešno pripisao zasluge NASA-inom svemirskom teleskopu James Webb za snimanje prvih slika egzoplaneta. Ovakvih slučajeva ima napretek, primjerice kada je ChatGPT pogrešno identificirao australskog političara ili kada je Bingov chatbot priznao ljubav kolumnistu New York Timesa, Kevinu Rooseu.

Stefano Soatto iz Amazon Web Servicesa definira AI halucinacije kao sintetski generirane podatke, koji se ne razlikuju od stvarnih podataka. Amazon surađuje s klijentima kao što je LexisNexis, koristeći generativnu umjetnu inteligenciju kao što je Anthropicov model Claude 3 Haiku.

AI obučen na Wikipediji, primjerice, oponaša njezin stil. Generira tekst statistički sličan Wikipedijinom, ali ne nužno i istinit. Soatto pojašnjava da je fokus na sličnosti, a ne na točnosti.

Kako AI ponekad stvara netočne informacije?

Korijen leži u njegovoj obuci. Generativni AI modeli, izgrađeni na golemim skupovima podataka koji obuhvaćaju različite izvore, izvrsni su u oponašanju jezika koji su usvojili.

AI generalizira ili donosi zaključke na temelju onoga što zna o jeziku, ističe Swabha Swayamdipta, docentica informatike na USC-u.

ChatGPT Zdravlje nije šala: Znanstvenici uhvatili ChatGPT da "halucinira" informacije o raku dojke te da koristi nevažeće preporuke

Halucinacije, odnosno odstupanja od stvarnosti, mogu proizaći iz neadekvatne obuke ili pristranih podataka, ostavljajući model neopremljenim za određene upite korisnika.

Model nema kontekstualne informacije... Samo kaže: 'Na temelju ove riječi, mislim da je prava vjerojatnost ova sljedeća riječ.' To je to. Samo matematika u osnovnom smislu, objašnjava Tarun Chopra, potpredsjednik IBM Data & AI za upravljanje proizvodima.

Koliko često AI halucinira?

Prevalencija AI halucinacija varira, s procjenama u rasponu od 3 do 27 posto, prema startup tvrtki Vectari, koji održava Hallucination Leaderboard na Githubu, prateći tendencije popularnih chatbota da haluciniraju dok sažimaju dokumente.

Tehnološki divovi priznaju ta ograničenja. GPT-3.5 savjetuje korisnicima da provjere kritične informacije, a Googleov Gemini upozorava na potencijalne netočnosti, pozivajući korisnike da još jednom provjere odgovore.

OpenAI se aktivno bavi tim problemom, s ciljem minimiziranja halucinacija sa svakim ažuriranjem modela. Njihova najnovija iteracija, GPT-4, može se pohvaliti poboljšanjem od 40 posto u stvaranju činjeničnih odgovora u usporedbi s GPT-3.5.

Google naglašava stalne napore za povećanje točnosti umjetne inteligencije, priznajući da su pogreške ili halucinacije i dalje izazov. Microsoft izvještava o napretku u ublažavanju izmišljotina usavršavanjem tehnika uzemljenja, finog podešavanja i upravljanja u svojim AI modelima i chatbotovima.

Može li se upravljati AI halucinacijama?

Halucinacije u AI modelima su neizbježne, ali se mogu kontrolirati. Osiguravanje visokokvalitetnih i raznolikih podataka o obuci, s periodičnim testiranjem modela, jedna je metoda. Swayamdipta je predložila novinarske standarde za provjeru rezultata modela. Ugrađivanje modela unutar sveobuhvatnih sustava može osigurati dosljednost, točnost i praćenje atribucije.

ChatGPT Stigla velika nadogradnja za ChatGPT, kreatori tvrde da će sad manje "halucinirati"

Kao svojstvo sustava, halucinacije nisu samo neizbježne, već se njima može i upravljati, rekao je Soatto. Takvi bi sustavi mogli spriječiti incidente poput dezinformiranja korisnika.

Unaprijed obučeni modeli ne bi se trebali slijepo koristiti za činjenične odgovore. Umjesto toga, treba ih integrirati u sustave u kojima se ograničenja mogu prilagoditi kako bi se spriječile problematične halucinacije.

Korisnici mogu testirati modele postavljajući pitanja u različitim formatima. Prema Sahilu Agarwalu, izvršnom direktoru AI sigurnosne platforme Enkrypt AI, dosljedna odstupanja u odgovorima ukazuju na nedostatak razumijevanja modela.

Ako je netko stalan lažljivac, svaki put kad generira odgovor, to će biti drugačiji odgovor. Ako mala promjena u upitu uvelike odstupa u kvaliteti odgovora, tada model zapravo nije razumio što ga pitamo, objašnjava Agarwal.

Jesu li AI halucinacije uvijek loša stvar?

Istraživanje nijansi generativne umjetne inteligencije otkriva njezine različite potencijale, uključujući prihvaćanje halucinacija. Swayamdipta naglašava želju za novinom, potičući umjetnu inteligenciju da stvori svježe narative ili usvoji jedinstvene stilove.

Ne želimo da proizvede točno ono što je već viđeno, kaže Swayamdipta.

Soatto pak ističe temeljnu ulogu halucinacija, naglašavajući da je nerazumno očekivati drugačije od AI modela obučenih za takvu kreativnost.

Suzbijanje halucinacija umjetne inteligencije: balansiranje kreativnosti i provjere činjenica

U navigaciji sadržajem generiranim umjetnom inteligencijom, provjera točnosti ostaje najvažnija.

Swayamdipta predlaže korištenje kreativnih sposobnosti umjetne inteligencije za zadatke poput preformuliranja. Drugi pristup je Retrieval Augmented Generation (RAG), koji osigurava provjeru činjenica pružanjem izvornih veza s odgovorima.

OpenAI-jev GPT-4 pristupa internetu za upite, citirajući izvore, dok Microsoft i Copilot na sličan način pružaju poveznice za provjeru valjanosti.

Kada se koristi generativna umjetna inteligencija, dopunjavanje vanjskom provjerom činjenica osigurava pouzdano širenje informacija, održavajući cjelovitost odgovora u okruženju koje sve više pokreće umjetna inteligencija.

Hoće li problem AI halucinacija ikada biti riješen?

Halucinacije, proizašle iz ograničenja podataka i neadekvatnog poznavanja svijeta, predstavljaju značajne izazove. Cilj istraživača je riješiti ih kroz poboljšane podatke o obuci, rafinirane algoritme i integraciju mehanizama za provjeru činjenica. Tehnološke tvrtke sada uključuju odricanje od odgovornosti u vezi s halucinacijama, ali ljudski nadzor i vladini propisi ostaju ključni.

Odobravanje Zakona o umjetnoj inteligenciji od strane EU-a naglašava napore za njegovanje pouzdane umjetne inteligencije. Zakonodavstvo nudi strukturirani pristup transparentnosti, odgovornosti i ljudskom nadzoru. Međutim, i dalje postoje različiti globalni pristupi regulaciji umjetne inteligencije. Unatoč tome, potrebna je višestruka strategija kako bi se iskoristile prednosti umjetne inteligencije uz smanjenje rizika.

Soatto naglašava važnost realnih očekivanja i ljudskog razumijevanja AI sposobnosti. Iskorištavanje prednosti umjetne inteligencije, ublažavanje njezinih ograničenja i osmišljavanje robusnih sustava upravljanja imperativ su za snalaženje u krajoliku koji se razvija.

Izvor: Cnet
 

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti