Korisnici ismijavaju Google: Evo što se dogodi kada se AI trenira u woke duhu

Iz Googlea su priznali kako su promašili poantu te će napraviti potrebne promjene.

Hrvoje Jurman
Hrvoje Jurman | 22.02.2024. / 16:05 komentari
Gemini (Foto: Google)

Općenito se smatra kako je umjetna inteligencija dobra koliko su i podaci na kojima se trenira. A Google je, kako su mnogi komentirali na društvenim mrežama, svoj AI alat Gemini trenirao u - Woke duhu. Ovaj izraz koristi se kako bi se opisala politička korektnost i socijalna pravednost, osjetljivost na nejednakost i slično, a često se povezuje s ljevičarskom agendom.

tri vijesti o kojima se priča Kineski ekranoplan Tehnologija Hladnog rata FOTO U javnosti se pojavile prve fotografije kineskog "Čudovišta iz Bohajskog mora" Haker, ilustracija I pretvorili u kriptovalute Jedna od najvećih digitalnih pljački u povijesti: U manje od tri sata, hakeri ukrali oko 140 milijuna dolara iz banaka Rijetki fenomen Astronautkinja na Međunarodnoj svemirskoj postaji uhvatila "crvenog duha"

  Gemini Google najavio velike promjene za svoj AI chatbot: Barda zamjenjuje Gemini

Kako izgleda kada se pretjeruje s takvom političkom korektnošću i inkluzivnosti možemo vidjeti na primjerima koji ovih dana kruže društvenim mrežama, a nastali su korištenjem Googleova alata Gemini.

Korisnicima koji su od Geminija zatražili da im generira slike papa, usprkos činjenici da su svi dosadašnji vjerski vođe bili muškarci i bijelci, prikazale su se slike žena i osoba tamne boje kože. Slično je i s Vikinzima. Za Gemini, ratnici sa sjevera nisu bili samo bijelci, već je umjetna inteligencija generirala i slike azijata i osoba tamne boje kože odjevene kao Vikinzi, a jedan od njih čak ima i perjanicu u duginim bojama. Na mreži se mogu pronaći brojni takvi i slični primjeri koji pokazuju Googleov oprez prilikom treniranja umjetne inteligencije te su tijekom treniranja naglasak stavili na jednakost spolova i rasa.

Podsjetimo, prije desetak godina Google je unutar svoje aplikacije fotografija dvije osobe tamne boje kože označio kao “gorile”, što je tada bio veliki skandal, a na udaru kritika našao se i OpenAI. Naime, njihov AI alat za generiranje slika Dall-E na upit o izvršnim direktorima najčešće je prikazivao fotografije bijelih muškaraca. No pokušaji da AI alati ravnopravno pokriju etničke skupine i spolove u ovom se slučaju pokazao debaklom jer su prikazano povijesno netočne fotografije.

Nakon što su se fotografije napravljene Geminijem raširile po društvenim mrežama raširile internetom, reagirali su i iz Googlea. Jack Krawczyk, stariji direktor Gemini Experiencesa, komentirao je kako Gemini općenito generira različite ljude, što je općenito dobro jer se njihov alat koristi diljem svijeta, no u ovom slučaju priznao je kako su “promašili ponatu”. Također, dodao je da su odmah krenuli s ispravkama u svom alatu, kako se slične pogreške ne bi događale u budućnosti. Dok to ne naprave, iz Googlea su objavili kako će privremeno pauzirati generiranje fotografija putem Geminija.

  Uhođenje Imat će pristup fotografijama, videozapisima, povijesti surfanja: Googleov AI mogao bi znati baš sve o korisnicima

Dok mnogi na Twitteru kritiziraju i ismijavaju Google (jedna od takvih ironičnih kritika kaže da je jako teško nagovoriti Google da prizna kako bijelci postoje), Krawczyk kaže kako s Geminijem rade na procesu usklađivanja i ponavljanju povratnih informacija. Hvala vam i samo tako nastavite, poručio je Googleov stručnjak

Izvor: BBC.
 

Vezane vijesti