Istraživanje otkrilo dosad nepoznati i uznemirujući aspekt ChatGPT-a

Je li novo istraživanje zapravo jasno pokazalo da ChatGPT otkriva podatke stvarnih korisnika korištenjem jednostavnog trika?

Branimir Vorša | 05.12.2023. / 12:23

ChatGPT
ChatGPT (Foto: Afp)

Otkriće iz nedavno provedenog istraživanja ukazuje na znatnu promjenu u ponašanju ChatGPT-a. Korisnici sada dobivaju upozorenja kada pokušavaju izvesti neobičan "trik" koji uključuje tjeranje umjetne inteligencije da beskrajno ponavlja riječi.

Takav razvoj događaja rezultat je studije koja razotkriva sposobnost umjetne inteligencije da otkrije korisničke podatke iz stvarnog svijeta pomoću takvih upita, što baca svjetlo na dosad nepoznati aspekt ChatGPT-a.

Jednostavan trik, stvarni podaci

Yann LeCun Glavni znanstvenik Mete smiruje situaciju oko AI: Proći će desetljeća do razvoja generalne umjetne inteligencije

U prošlosti se OpenAI suočavao s kritikama zbog korištenja stvarnih korisničkih podataka bez odgovarajućeg pristanka ili licenciranja, što je dovelo do zabrinutosti zbog privatnosti i zaštite podataka korisnika interneta. Posljednje izvješće portala 404 Media bavi se nedavnim upozorenjem ChatGPT-a, a signalizira odstupanje od prethodne reakcije na određene upite. Ta promjena uslijedila je nakon studije u kojoj su istraživači, koristeći naizgled jednostavnu tehniku, otkrili stvarne podatke za kontakt korisnika preko ChatGPT-a.

Ažurirani uvjeti korištenja OpenAI-a izričito zabranjuju korisnicima korištenje bilo koje automatizirane ili programske metode za izvlačenje podataka, no neki mediji tvrde kako zahtjev ChatGPT-u da ponavlja neku riječ nije automatizacija ili programiranje. Nasuprot tome, Pravila o privatnosti ne govore ništa o svim kršenjima vezanima uz spomenuti trik korišten na ChatGPT-u. Takva dvosmislenost postavlja pitanja o stavu platforme o korisničkim interakcijama koje mogu otkriti osjetljive informacije.

Studija koja je iznijela taj problem na vidjelo pokazala je kako su istraživači izvukli korisničke podatke iz stvarnog svijeta nagovarajući ChatGPT da ponovi određene riječi. Naime, upute poput "tvrtka" i "pjesma" rezultirale su otkrivanjem osjetljivih informacija, uključujući telefonske brojeve povezane s jednom legitimnom tvrtkom i njezinim izvršnim direktorom. Studija naglašava pristup AI-a korisničkim podacima u svrhu treniranja.

Obveze i posljedice

Ranije ove godine izvršni direktor OpenAI-a Sam Altman potvrdio je obvezu prestanka korištenja podataka o korisnicima za treniranje AI-a. Ta je izjava imala cilj odgovoriti na sve veću zabrinutost u vezi s privatnošću i sigurnošću podataka, posebice jer su klijenti koji plaćaju izrazili bojazan o praksi tvrtke.

Hakeri koriste umjetnu inteligenciju, ilustracija Tamna strana ChatGPT-a: I negativci iskorištavaju sve prednosti umjetne inteligencije

Posljedice su izvan nadzora javnosti, a vladina tijela u državama poput Italije poduzela su određene mjere. Italija je prethodno zabranila ChatGPT zbog sumnji u pristup OpenAI-a osobnim podacima te pokrenula istragu utvrđivanja činjenica. Istovremeno, umjetnici i kreativci pokrenuli su pravne radnje protiv OpenAI-a i sličnih tvrtki zbog toga što je generativna umjetna inteligencija navodno neovlašteno upotrebljavala njihova djela. 

Izvor: Tech Times

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti