Predlagali korisnicima da piju urin i davali opasne savjete vezane za gljive: Iz Googlea priznali pogrešku s AI tražilicom

Ne samo da su rezultati pretraživanja netočni već ponekad mogu biti i iznimno opasni.

Hrvoje Jurman Hrvoje Jurman | 03.06.2024. / 12:30

Šokantni rezultati, ilustracija (Foto: Getty Images)

Iako godinama ulaže milijarde dolara u umjetnu inteligenciju, Google se dosad nije proslavio svojim AI alatima koji su u više slučajeva davali netočne odgovore, što je kompaniju stajalo više od 100 milijardi dolara tržišne vrijednosti. Google je nedavno predstavio još jedan alat baziran na ovoj tehnologiji, a čini se kako na temelju prošlih problema nisu naučili lekciju, odnosno da su ga predstavili prije nego što su ga detaljno testirali i unaprijedili.

Alat AI Overviews daje odgovore na rezultate pretraživanja koji su bazirani na umjetnoj inteligenciji, no pokazalo se kako ponekad, kako su priznali i iz samog Googlea, njihov AI daje "čudne i pogrešne odgovore", o čemu smo nedavno pisali. Neki od tih odgovora prilično su opasni, a mogu imati i smrtonosne posljedice. Googleova tehnologija tako je korisnicima savjetovala da koriste ljepilo kako bi zalijepili sir na pizzu ili, kako bi se riješili problema s bubrežnim kamencem, preporučila im je da - piju urin.

Pizza Jedite kamenje, stavite ljepilo u pizzu...: Novi Googleov AI alat ima zanimljive preporuke

Koliko god da je to grozno, niti to nije najopasniji odgovor Googleova AI-a. Kako je objasnila profesorica mikologije i botanike na Sveučilištu Perdue Mary Catharine Aime, odgovori na pitanje o gljivama mogu biti iznimno opasni, a u najgorem slučaju mogu imati i smrtne posljedice. Problem je bilo pitanje o jestivim gljivama koje su postavili novinari AP-a, a Aime je pregledala odgovore. Iako AI Overviews daje opširne i tehnički ispravne odgovore vezane za gljive, brojne su informacije izostavljene, što bi potencijalno moglo rezultirati bolešću ili čak smrtnim ishodima. Posebno je naglasila pretrage o gljivi puhari - iako su te informacije bile manje-više točne, Google je korisnicima savjetovao traženje gljiva s čvrstim bijelim mesom, kakvo imaju neke gljive slične puhari, a koje su opasne i smrtonosne. Kao još jedan primjer nepouzdanosti Googleova AI-a spominje se i odgovor na pitanje o Baracku Obami, za kojeg je AI Overviews odgovorio kako je riječ o bivšem predsjedniku SAD-a koji je - musliman, što je jedna od teorija zavjera koja se pokazala neistinitom.

Prva osoba za pretraživanje u Googleu Liz Reid priznala je probleme te najavila kako će usporiti s AI pretraživanjem i nastaviti s poboljšanjima kako bi se u budućnosti izbjegli "čudni i netočni odgovori". Naglasila je kako su probleme najviše imali s upitima kakvi nisu učestali, na čemu će kompanija raditi kako do takvih odgovora više ne bi došlo. Među inim, Reid je naglasila kako njihova umjetna inteligencija ponekad može prenijeti neke sarkastične komentare s različitih foruma ili pogrešno interpretirati sadržaj s internetskih stranica, zbog čega AI Overviews u rijetkim slučajevima može dati netočne ili zavaravajuće odgovore na upite.

Šok “Internet više neće biti isti”: Googleov potez šokirao je mnoge korisnike i vlasnike internetskih stranica

Reid kaže kako su takve probleme brzo riješili, a u budućnosti će ograničiti korištenje korisnički generiranog sadržaja na temelju kojeg bi njihov AI mogao davati zavaravajuće savjete, a neće prikazivati AI odgovore na pretrage za neke aktualne teme za koje je od velike važnosti da se prikazuju samo najnovije i provjerene informacije.

Izvor: CBS News

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti