Razmišlja li umjetna inteligencija poput čovjeka? Zanimljivo istraživanje otkriva odgovor na to pitanje

Manje se radi o tome što je u podacima, a više o tome kako se podaci koriste, istaknula je autorica studije.

Martina Čizmić | 02.04.2025. / 09:47

Umjetna inteligencija (Foto: Getty Images)

 Koliko se umjetna inteligencija zapravo razlikuje od ljudi? Pokušate li razgovarati s nekim od popularnih AI alata, može vam se učiniti da je AI napravila veliki pomak i da je zapravo sličnija ljudima nego što bismo to mogli misiti. Pogotovo kad vam počne odgovarati na način koji zvuči prilično ljudski.

No, istraživanje koje je objavljeno u časopisu Transactions on Machine Learning Research, proučavalo je koliko dobro veliki jezični modeli (LLM) kao što je ChatGPT, Copilot ili Gemini, mogu parirati ljudima u rješavanju neki jednostavnih zadataka.

Pred ljude i AI postavili su jednak izazov - trebalo je dovršiti niz identificiranjem znamenke koja nedostaje. Ljudima takav zadatak nije predstavljao nikakav problem, no umjetna inteligencija je zapela.

ChatGPT Znanstvenici upozoravaju na negativne posljedice pretjeranog korištenja ChatGPT-a

Testirajući probleme analogije temeljene na pričama, studija je otkrila da su modeli AI bili osjetljivi na efekte redoslijeda odgovora. U prijevodu, modelima umjetne inteligencije nedostaje ona ključna komponenta učenja, kad učenik promatra uzorak koji nije bio prisutan tijekom učenja i daje odgovor na temelju zaključivanja i predviđanja.

Koautorica studije, asistentica profesora neurosimboličke umjetne inteligencije na Sveučilištu u Amsterdamu, Martha Lewis, istaknula je primjer u kojem umjetna inteligencija ne može izvoditi analogno zaključivanje tako dobro kao ljudi u problemima s nizovima slova.

Analogije niza slova imaju oblik 'ako abcd ide u abce, na što ide ijkl?' Većina ljudi će odgovoriti 'ijkm', a i umjetna inteligencija ima tendenciju dati takav odgovor, rekla je Lewis za Live Science. Problem je 'ako abbcd ide u abcd, na što ide ijkkl? Ljudi će težiti odgovoriti 'ijkl' – obrazac je uklanjanje ponovljenog elementa. Ali GPT-4 ima tendenciju krivo shvatiti probleme poput ovih.

U prijevodu, LLM-ovi su dobri prepoznavanju i povezivanju obrazaca, ali ne i u generaliziranju iz tih obrazaca.

Lažne vijesti, ilustracija Norvežanin u šoku nakon razgovora s AI: ChatGPT tvrdi da je ubio svoju djecu i završio u zatvoru

Lewis naglašava kako se većina aplikacija koje koriste umjetnu inteligenciju oslanja, u određenoj mjeri, na volumen (što je više podataka o obuci dostupno, to se više uzoraka identificira). No, slaganje uzoraka i apstrakcija nisu isto.

Manje se radi o tome što je u podacima, a više o tome kako se podaci koriste, dodala je.

Upozorava da je, s obzirom na to kako se umjetna inteligencija sve češće koristi u različite svrhe, potrebno pažljivo procijeniti svaki sustav umjetne inteligencije, ne samo vezano uz točnost odgovora koje daje, već i vezano uz njegove kognitivne sposobnosti. 

Izvor: Live Science

 

Vezane vijesti

Još vijesti