ChatGPT u svega nekoliko tjedana, svojim je mogućnostima osvojio svijet. No, stručnjaci za sigurnost upozoravaju kako bi tvrtke trebale biti izuzetno oprezne kad dopuštaju svojim zaposlenicima korištenje te umjetne inteligencije.
Zašto? Pa možda najbolji primjer dolazi iz tehnološkog diva Samsunga koji je svojim inženjerima dopustio korištenje ChatGPT-a tijekom obavljanja određenih zadataka i rješavanja problema u odjelu za razvoj poluvodiča. I dok su zaposlenici s veseljem prihvatili ideju da umjetna inteligencija rješava probleme umjesto njih, napravili su i veliku pogrešku.
Naime, zaposlenici su (tvrde) greškom unijeli strogo povjerljive podatke u ChatGPT i time zapravo prekršili odredbe o tajnosti. Kako javlja korejski Economist, zaposlenici su navodno u alat unijeli izvorni kod za novi program i bilješke s internih sastanaka koji se odnose na njihov hardver. Da bi stvar bila još gora, takav sigurnosni incident ponovio se čak tri puta u samo mjesec dana.
Problem nije samo u tome što su ti podaci izašli iz tvrtke, već što su ubačeni u alat koji sve unešene podatke koristi za učenje umjetne inteligencije. U prijevodu - sve tajne koje su Samsungovi inženjeri ubacili u ChatGPT sad su u rukama vlasnika tog alata, tvrtke OpenAI.
Iako je OpenAI jasno dao upozorenje da se "razgovori" između korisnika i ChatGPT-a mogu koristiti za poboljšanje sustava, očito je da u Samsungu imaju problem.
Stoga Samsungov odjel za poluvodiče navodno radi na vlastitoj umjetnoj inteligenciji koja bi se interno koristila, kako se ovakvi sigurnosni propusti više ne bi događali. Osim toga, dobili su upozorenje da, ako se ovakav incident ponovi, može doći do zabrane korištenja ChatGPT-a.
Neke tvrtke već su uvele takve zabrane i filtere koje onemogućavaju zaposlenicima da ubace povjerljive informacije u ChatGPT. No, čini se kako će svi morati biti oprezniji oko toga što i s kim dijele.
Izvor: The Economist