ChatGPT, iako je ozbiljan alat koji može uvelike pripomoći u obavljanju određenih poslova, za velik je broj ljudi jednostavno nova i zanimljiva igračka. Da, radi se o relativno novoj tehnologiji koja je napokon postala dostupna velikom broju ljudi, ali sve više stručnjaka upozorava i na njegovu tamnu stranu.
DARKReading osvrnuo se upravo na tu "tamnu" stranu umjetne inteligencije, preciznije ChatGPT-a, o kojoj obični ljudi ne razmišljaju, a koja sve više zabrinjava stručnjake.
Naime, prošlog je tjedna u javnost dospjela informacija kako je zbog greške ChatGPT korisnicima prikazivao naslove prepiski drugih korisnika. U prijevodu, potpuno nepoznati ljudi mogli su čitati tuđe "razgovore" s umjetnom inteligencijom. Iz ChatGPT-a istaknuli su kako su problem riješili, no on je samo ukazao na cijeli niz problema o kojima se dosad nije razmišljalo - od ugrožavanja privatnosti korisnika do pitanja privatnosti podataka.
Jer brojni su korisnici, oduševljeni ChatGPT-ovim sposobnostima, zaboravili i zanemarili sve sigurnosne aspekte i dobre prakse u korištenju takvih javnih servisa. Tako su, ne bi li se zabavili, ChatGPT-u otkrili velik broj informacija o sebi, tvrtki u kojoj rade, ali i povjerljive informacije koje bi se mogle tretirati kao poslovna tajna.
Tvrtka za kibernetičku sigurnost Cyberhaven otkrila je i blokirala zahtjeve za ubacivanje podataka u ChatGPT kod svojih klijenata. Među podacima koje su korisnici željeli podijeliti su povjerljive poslovne informacije, podaci o klijentima, ali i izvorni kod softvera.
Kako su naveli, u jednom slučaju izvršni direktor tvrtke kopirao je tvrtkinu strategiju u ChatGPT i od umjetne inteligencije zatražio stvaranje prezentacije u PowerPointu. U drugom slučaju liječnik je kopirao medicinske i osobne podatke pacijenta ne bi li mu umjetna inteligencija sastavila pismo za osiguravajuću kuću pacijenta.
S obzirom na to da ChatGPT stalno uči, sve te informacije pohranjuje u svoje baze podataka. Što se s njima događa dalje, nitko zapravo ne zna.
Nije poznato kakvu zaštitu ChatGPT i drugi takvi sustavi koriste te što bi se dogodilo kad bi neki haker upao u bazu podataka i objavio ih. Neke su tvrtke već poduzele određene mjere i blokirale pristup takvim sustavima za svoje zaposlenike. No postavlja se pitanje - ako konkurenti koriste te napredne alate, stavljaju li blokadom pristupa tvrtku u nepovoljan položaj?
U OpenAI-u, kreatoru ChatGPT-a, svjesni su potencijalnih problema i rizika te kažu da rade na tome da sustav bude što sigurniji.
Već su ugradili određena ograničenja u sustav kad su u pitanju osobne informacije i osjetljivi podaci. Tako ako netko upita ChatGPT o osobnim informacijama ili osjetljivim korporativnim podacima, dobit će povratnu informaciju da ChatGPT nema pristup takvim informacijama.
To je prvi korak. Dodatno bi trebalo educirati ljude, pogotovo one koji imaju pristup povjerljivim informacijama, o tome što smiju, a što ne smiju napraviti i zašto. Tu su, naravno, i tehničke mogućnosti filtracije, koje bi omogućile blokiranje učitavanja takvih informacija ili upita na servise kao što je ChatGPT.
Na kraju, ako isprobavate ChatGPT, budite oprezni kakve informacije dijelite s njim, da vam se takvo "igranje" s umjetnom inteligencijom ne bi nekad u budućnosti obilo o glavu.