Koristite li alate poput ChatGPT-a ili Geminija u svakodnevnom životu? A pričate li s njima?

tri vijesti o kojima se priča Netflix, ilustracija We're goin' up, up, up… Jeste li ga pogledali? Ovo je najgledaniji film na Netflixu svih vremena Pandemija, ilustracija Mogu li te promjene nestati? Otkrili neočekivanu posljedicu pandemije: Čak i kod ljudi koji nikada nisu bili zaraženi Pretila žena sjedi pored vage, ilustracija Bitna je ravnoteža Otkriven novi igrač u gubitku tjelesne težine, no koliko nosi prednosti, toliko je i opasan

Otkako je OpenAI predstavio svoju posljednji inačicu popularnog chatbota pogonjenog umjetnom inteligencijom, ChatGPT, koja ima mogućnost verbalnih upita i odgovora, pojavila se zabrinutost da bi to, nekima, moglo zamijeniti ljudsku interakciju.

Sad su i iz OpenAI-ja priznali kako bi se ljudi mogli početi previše oslanjati na ChatGPT za druženje, a to bi potencijalno moglo dovesti do ovisnosti.

Kako je navedeno u izvješću OpenAI-ja o sigurnosnoj procjeni samog alata, navedeno je da ChatGPT-ov napredni glasovni način rada zvuči veoma realistično. Uz to što reagira u stvarnom vremenu, proizvodi zvukove koje i ljudi proizvode tijekom razgovora, a ujedno se i prilagođava emocionalnom stanju sugovornika odnosno korisnika.

Virtualni političar, ilustracija Ovaj kandidat za gradonačelnika ne jede, ne spava, ali zato donosi odluke u manje od sekunde

U OpenAI-u su zabrinuti da bi se scenarij, kakav smo imali prilike vidjeti u filmu "Ona" iz 2013., u kojem se korisnik zaljubljuje u digitalnu asistenticu pogonjenu umjetnom inteligencijom, sad mogao preslikati i na stvarnost. Naime, navode, primijetili su kako korisnici razgovaraju s ChatGPT-om na način koji izražava "zajedničke veze ".

Korisnici bi mogli uspostaviti društvene odnose s umjetnom inteligencijom, smanjujući njihovu potrebu za ljudskom interakcijom. To bi potencijalno koristilo usamljenim pojedincima, ali bi moglo imati negativan utjecaj na zdrave odnose, ističe se u izvješću.

Zabrinutost izaziva i mogućnost da korisnici počnu više vjerovati alatu, jer zvuči uvjerljivo kad izbacuje informacije. Što, s obzirom na to da umjetna inteligencija nije savršena i često zna izbaciti krive podatke kao odgovor na upit, nije smjer kojim bi trebali ići.

U izvješću se navodi i velik rizik koji okružuje sam razvoj umjetne inteligencije - od tehnoloških tvrtki koje, u želji da što prije predstave svoje novitete, pretjeruju s opisima njihovih mogućnosti, a da pri tome ne razmišljaju o svim mogućim načinima na koje je te mogućnosti moguće upotrijebiti.

Sam Altman OpenAI radi na puno naprednijem modelu umjetne inteligencije: "Želimo da naši modeli vide i razumiju svijet više kao mi"

Dodaju i kako više nije rijetkost da ljudi chatbotove pogonjene umjetnom inteligencijom doživljavaju kao stvarne osobe i stvaraju svojevrsne romantične veze s njima.

To pak utječe na normalne društvene interakcije s drugim ljudima. A to je još jedan razlog za zabrinutost u OpenAI. Iako navode kako su predani "sigurnoj izgradnji umjetne inteligencije" te planiraju "nastaviti proučavati potencijal emocionalnog oslanjanja korisnika na njihove alate", očito je da ni oni nisu u potpunosti razmislili o tome kako će njihova nova, naprednija, inačica chatbota utjecati na ljude i oni na nju.