Zanimljiv interni dopis iz Microsofta otkriva da je zaposlenicima tog tehnološkog diva dozvoljeno koristiti chatbot ChatGPT tvrtke OpenAI na radnom mjestu, no uz jedno važno upozorenje.
Molimo vas da ne šaljete osjetljive podatke OpenAI-ju, jer bi ih mogli koristiti za obuku budućih modela, napisao je viši Microsoftov inženjer u internoj objavi, koju je na uvid dobio Business Insider.
Upit je došao početkom siječnja od Microsoftovog zaposlenika, koji je pitao je na internom forumu je li ChatGPT ili bilo koja druga ponuda proizvođača chatbota OpenAI dopuštena za korištenje na radnom mjestu.
Microsoft svjestan problema
S obzirom na to da je ChatGPT postao svojevrstan globalnih hit, neke tehnološke tvrtke upozorile su zaposlenike na preslobodnu interakciju s tom tehnologijom.
Ipak, u spomenutom slučaju riječ je i pomalo o apsurdu, jer je Microsoft glavni izvor investicija i partner OpenAI-ja. Microsoft je najavio proteklog tjedna najavio i novu rundu financiranja za taj startup. Softverski div također planira ugraditi OpenAI-jevu tehnologiju u neke od svojih drugih proizvoda, poput tražilice Bing i Office aplikacija, izvijestili su ranije američki mediji.
Vincent Conitzer, profesor informatike i direktor laboratorija za umjetnu inteligenciju na Sveučilištu Carnegie Mellon, smatra da se Microsoft i OpenAI mogli potencijalno naći i u sukobu interesa te smatra da je uvijek je dobro biti svjestan takvih poticaja.
Razlozi zabrinutosti
Zabrinutost u Microsoftu oko korištenja ChatGPT-ja na radnom mjestu proizlazi iz toga da zaposlenici mogu nenamjerno podijeliti povjerljive korporativne informacije, poput internog softverskog koda, s tim chatbotom kako bi zatražili savjete o unaprijeđenju svojeg rada. ChatGPT, zauzvrat, može obraditi podatke kako bi se osposobio i potencijalno podijelio verzije povjerljivih informacija koje je primio u budućim razmjenama s drugim korisnicima izvan Microsofta.
Ljudi potpisuju NDA ugovore i posljedično imaju poticaje da budu oprezni u načinu na koji dijele informacije. Ali veliki jezični modeli kao što je ChatGPT nemaju sposobnost razmišljanja o takvim problemima, barem prema zadanim postavkama, naglašava Conitzer.
Bez komentara
Iz Microsofta zasad nisu komentirali slučaj, a iz OpenAI-ja samo ukazuju na ChatGPT-ovu stranicu s često postavljanim pitanjima za sva pitanja u vezi s podacima i politikom privatnosti.
Dok su zaposlenici na "iglama" zbog zaštite povjerljivih podataka, nije jasno što točno Microsoft ili OpenAI rade kako bi riješili problem za koji su zapravo sami krivi.
Svi ćemo mi zajedno morati shvatiti što možemo očekivati od svih u ovakvim situacijama. Je li odgovornost na zaposlenicima da ne dijele osjetljive informacije ili je odgovornost na OpenAI-u da pažljivo koristi informacije ili neka kombinacija? Kao jedan od najuglednijih lidera u tehnološkoj industriji, Microsoft će vjerojatno imati značajan utjecaj na taj razgovor, smatra Conitzer.
Ne postoji temeljito brisanje osobnih podataka
OpenAI-jevi uvjeti pružanja usluge daju tvrtki dozvolu za korištenje svih ulaza i izlaza koje generiraju korisnici i ChatGPT. Također kaže da uklanja sve osobne podatke iz podataka koje koristi.
Međutim, gotovo je nemoguće da OpenAI "temeljito" identificira i ukloni osobne podatke iz tih podataka, s obzirom na brzi rast ChatGPT-a. Korporativno intelektualno vlasništvo vjerojatno nije ni dio onoga što je definirano pod osobnim podacima, napominju stručnjaci.
OpenAI je daleko od transparentnog u pogledu načina na koji koriste podatke, ali ako se presaviju u podatke za obuku, očekivao bih da će se korporacije zapitati: Nakon nekoliko mjeseci raširene upotrebe ChatGPT-a, hoće li tim putem biti moguće izvući privatne korporativne informacije?, kaže Emily Bender, profesorica računalne lingvistike na Sveučilištu Washington.
Izvor: Business Insider