Tvrtka OpenAI bila je prilično otvorena, kad je u pitanju algoritam, strojno učenje i gomile podataka koje su koristili za razvoj popularnog velikog jezičnog modela ChatGPT-a. No, otkako je ChatGPT pušten u javnost, OpenAI sve podatke koje korisnici upisuju, pohranjuje u svoje baze za "daljnju obuku umjetne inteligencije". To je u nekim slučajevima izazvalo negodovanje zaštitnika privatnosti, koji su upozorili da ljudi u sustav ubacuju podatke koji ne samo da su povjerljivi već predstavljaju i industrijske tajne.
Iako se zbog toga OpenAI našao na udaru kritika, iz tvrtke su samo podsjetili kako u uvjetima korištenja ChatGPT-a jasno stoji da će svi podaci biti pohranjeni i korišteni dalje.
No, čini se kako su odlučili promijeniti stvari. U razgovoru za CNBC, šef OpenAI-a, Sam Altman, najavio je kako njegova tvrtka više neće koristiti podatke korisnika koji plaćaju za pristup ChatGPT-u (odnosno pristupaju kroz API), za daljnji trening tog sustava.
Klijenti jasno žele da ne treniramo na njihovim podacima, pa smo promijenili naše planove: nećemo to više raditi, rekao je Altman
Tvrtka je svoje uvjete korištenja potiho promijenila 1. ožujka, no pomnijim čitanjem otkriva se kako se ta promjena ne odnosi na korisnike koji koriste popularni chatbot ChatGPT.
Iako je odluka OpenAI-a prokomentirana kao korak u pravom smjeru, u smislu zaštite privatnosti korisnika koji plaćaju za pristup, s druge strane ostavlja korisnike koji koriste besplatni chatbot ChatGPT potpuno nezaštićenima.
Kako su upravo korisnici koji upisuju upite u chatbot izvrstan izvor različitih podataka, teško je za vjerovati da će OpenAI prestati koristiti njihove podatke. Stoga je na korisnicima da budu oprezni kad unose podatke odnosno postavljaju pitanja, ali i da vode računa o tome koliko je ono što im ChatGPT odgovori zaista točno.
Barem za sad.
Izvor: CNBC