Zaposlenici poznate tvrtke željeli testirati ChatGPT pa s umjetnom inteligencijom podijelili strogo čuvane tajne

Iako je OpenAI jasno dao upozorenje da se "razgovori" između korisnika i ChatGPT-a mogu koristiti za poboljšanje sustava, netko to nije shvatio ozbiljno.

Martina Čizmić | 07.04.2023. / 08:40

Umjetna inteligencija, ilustracija (Foto: Getty Images)

ChatGPT u svega nekoliko tjedana, svojim je mogućnostima osvojio svijet. No, stručnjaci za sigurnost upozoravaju kako bi tvrtke trebale biti izuzetno oprezne kad dopuštaju svojim zaposlenicima korištenje te umjetne inteligencije.

Zašto? Pa možda najbolji primjer dolazi iz tehnološkog diva Samsunga koji je svojim inženjerima dopustio korištenje ChatGPT-a tijekom obavljanja određenih zadataka i rješavanja problema u odjelu za razvoj poluvodiča. I dok su zaposlenici s veseljem prihvatili ideju da umjetna inteligencija rješava probleme umjesto njih, napravili su i veliku pogrešku.

Marin Soljačić Svjetski stručnjak o razvoju umjetne inteligencije: Otkrio što ga posebno zabrinjava - "Nije dovoljno lagano isključiti i da dođe do negativnih posljedica"

Naime, zaposlenici su (tvrde) greškom unijeli strogo povjerljive podatke u ChatGPT i time zapravo prekršili odredbe o tajnosti. Kako javlja korejski Economist, zaposlenici su navodno u alat unijeli izvorni kod za novi program i bilješke s internih sastanaka koji se odnose na njihov hardver. Da bi stvar bila još gora, takav sigurnosni incident ponovio se čak tri puta u samo mjesec dana.

Problem nije samo u tome što su ti podaci izašli iz tvrtke, već što su ubačeni u alat koji sve unešene podatke koristi za učenje umjetne inteligencije. U prijevodu - sve tajne koje su Samsungovi inženjeri ubacili u ChatGPT sad su u rukama vlasnika tog alata, tvrtke OpenAI.

Iako je OpenAI jasno dao upozorenje da se "razgovori" između korisnika i ChatGPT-a mogu koristiti za poboljšanje sustava, očito je da u Samsungu imaju problem.

Korištenje umjetne inteligencije, ilustracija Skrivena opasnosti ChatGPT-a o kojoj rijetki razmišljaju, a može imati ozbiljne i dalekosežne posljedice

Stoga Samsungov odjel za poluvodiče navodno radi na vlastitoj umjetnoj inteligenciji koja bi se interno koristila, kako se ovakvi sigurnosni propusti više ne bi događali. Osim toga, dobili su upozorenje da, ako se ovakav incident ponovi, može doći do zabrane korištenja ChatGPT-a.

Neke tvrtke već su uvele takve zabrane i filtere koje onemogućavaju zaposlenicima da ubace povjerljive informacije u ChatGPT. No, čini se kako će svi morati biti oprezniji oko toga što i s kim dijele.

Izvor: The Economist

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti