Google je nedavno predstavio svoju eksperimentalnu značajku AI pretraživanja nazvanu "AI Pregledi" (AI Overviews) na Chromeu, Firefoxu i web pregledniku aplikacije Google, dosegnuvši stotine milijuna korisnika. Taj alat koristi generativni AI, sličan ChatGPT-u, za sažimanje rezultata pretraživanja. Na primjer, pitanje kako banane održati svježima donosi savjet o njihovom skladištenju na hladnom i tamnom mjestu, dalje od jabuka.
Apsurdne preporuke
Međutim, odgovori umjetne inteligencije ponekad mogu biti opasno netočni. Google radi na ispravljanju tih pogrešaka, ali to je postao izazov za njihov odjel odnosa s javnošću i težak zadatak neprestanog rješavanja tih problema. AI Pregledi ispravno identificiraju Whack-A-Mole kao klasičnu arkadnu računalnu igru izumljenu u Japanu 1975. godine, ali također lažno tvrde da su astronauti susreli mačke na Mjesecu, igrali se s njima i brinuli se za njih i apsurdno preporučuje konzumiranje kamenja radi unosa minerala i vitamina ili korištenje ljepila u umaku za pizzu.
U kojem grmu leži problem?
Ključni problem leži u nesposobnosti generativne umjetne inteligencije da razlikuje istinu od popularnosti, smatra Toby Walsh profesor umjetne inteligencije sa Sveučilišta Novog Južnog Walesa u Sydneyju (UNSW Sydney). Ne razumije činjenice, ali oponaša ono što najčešće nalazi na webu. Na primjer, satirični članak iz časopisa The Onion o jedenju kamenja utjecao je na lažnu preporuku AI-ja, primjećuje Walsh. Štoviše, tim AI alatima nedostaju ljudske vrijednosti i mogu nenamjerno odražavati pristranosti i teorije zavjere prisutne na internetu. Unatoč tehnikama kao što je "pojačanje učenja iz ljudske povratne informacije" (RLHF) za ublažavanje takvih problema, AI još uvijek ponekad odražava najgore aspekte interneta, ističe australski stručnjak.
Nema više opreza?
Budućnost pretraživanja na webu, ako njome dominiraju takvi AI alati, čini se neizvjesnom. Google pokušava držati korak s OpenAI-jem i Microsoftom, agresivno gurajući AI tehnologiju u fokus. Financijski motivi pokreću ovu utrku, napominje Walsh, što dovodi do manje opreza pri uvođenju ovih alata.
Godine 2023. glavni izvršni direktor Googlea Sundar Pichai govorio je o oprezu u Googleu po tom pitanju. Bili smo oprezni. Postoje područja u kojima smo odlučili ne biti prvi koji će izbaciti proizvod. Postavili smo dobre strukture oko odgovorne umjetne inteligencije. VIdjet ćete da nećemo žuriti, poručio je Pinchai tada. Ipak, trenutne Googleove radnje sugeriraju odmak od tog opreznog pristupa.
Posljedice agresivne AI strategije
Takva strategija riskira nagrizanje povjerenja javnosti u Google kao pouzdan izvor informacija. Osim toga, ako korisnici prestanu klikati poveznice i oslanjaju se isključivo na sažetke koje je generirala umjetna inteligencija, Googleov model prihoda mogao bi biti ugrožen, smatra Walsh. Širi društveni utjecaj također je zabrinjavajući, budući da bi neistine koje generira umjetna inteligencija mogle dodatno potkopati ionako krhki koncept istine.
Gledajući unaprijed, postoji bojazan da će kvaliteta web sadržaja opadati kako se materijal generiran umjetnom inteligencijom bude množio. Taj scenarij predstavlja rizik da modeli umjetne inteligencije pojačaju postojeće pristranosti i pogreške obučavanjem na rezultatima svojih prethodnika, upozorava australski stručnjak. Takvo samoreferentno učenje, dodaje Walsh, štetno je i potencijalno ponižavajuće.
Navedena zabrinutost dio je šireg konteksta golemih ulaganja u umjetnu inteligenciju, koja dnevno prelaze 400 milijuna dolara. Svjetske vlade počinju prepoznavati potrebu za regulacijom kako bi se osigurala odgovorna uporaba umjetne inteligencije, slično kao što se reguliraju farmaceutska i automobilska industrija kako bi se spriječila šteta.
Izvor: The Conversation