I Europol upozorava na opasnosti koje prijete zbog umjetne inteligencije: Ova tri područja treba posebno držati na oku

Budući da se mogućnosti LLM-a kao što je ChatGPT aktivno poboljšavaju, sve je izglednici scenarij da će kriminalci iskoristiti sve prednosti ove vrste AI sustava.

Martina Čizmić | 27.03.2023. / 12:38

Kibernetička sigurnost, ilustracija (Foto: Getty Images)

Čini se kako je umjetna intelignecija zahvaljujući tvrtki Open AI i njihovom ChatGPT-u, odjednom postala dostupna svima. I dok neki testiraju ChatGPT i njegovo znanje, drugi su ga već počeli iskorištavati za prijevare. 

Da bi umjetna inteligencija, odnosno dostupni chatbotovi, mogli biti ozbiljan problem upozorio je i Europol, koji je u sklopu svog Laboratorija za inovacije organizirao niz radionica na kojima se istraživalo kako kriminalci mogu zloupotrijebiti velike jezične modele (LLM-ove) kao što je ChatGPT, kao i kako to može pomoći istražiteljima u svom svakodnevnom radu.

Sam Altman Prvi čovjek OpenAI-a priznao da i on strahuje u kom smjeru će se kretati razvoj umjetne inteligencije

Rezultat je prvo izvješće Tech Watch Flash s naslovom "ChatGPT - utjecaj velikih jezičnih modela na provedbu zakona", koji na jednom mjestu daje pregled potencijalne zlouporabe ChatGPT-a i nudi pogled na ono što bi moglo tek uslijediti.

Kako ističu iz Europola, cilj je ovog izvješća podići svijest o potencijalnoj zlouporabi LLM-ova, otvoriti dijalog s tvrtkama za umjetnu inteligenciju (AI) kako bi im se pomoglo u izgradnji boljih zaštitnih mjera te promicati razvoj sigurnih i pouzdanih sustava AI-a.

Naime, trenutačni javno dostupni model na kojem se temelji ChatGPT može obraditi i generirati tekst nalik ljudskom kao odgovor na upite korisnika. Točnije, model može odgovarati na pitanja o različitim temama, prevoditi tekst, sudjelovati u razgovoru ('chat'), generirati novi sadržaj i proizvesti funkcionalni kod.

Ured Kada je umjetna inteligencija zaprijetila ljudima, oni su postali - kreativniji

Stručnjake iz Europola posebno zabrinjavaju tri područja - prijevara i društveni inženjering, dezinformacija i kibernetički kriminal. 

U izvješću su istaknuli kako sposobnost ChatGPT-a za izradu vrlo realističnog teksta, čini ga korisnim alatom za phishing. Može ga se koristiti za oponašanje stila govora određenih pojedinaca ili grupa, a to se može zlouporabiti u velikim razmjerima kako bi se potencijalne žrtve dovele u zabludu da povjere svoje povjerenje u ruke kriminalnih aktera. Također, ChatGPT se ističe u brzom stvaranju teksta koji zvuči autentično. To čini model idealnim za propagandne i dezinformacijske svrhe, budući da korisnicima omogućuje generiranje i širenje poruka koje odražavaju specifičan narativ uz relativno malo truda. Uz sve to, ChatGPT je sposoban proizvesti kod u nizu različitih programskih jezika. Za potencijalnog kriminalca s malo tehničkog znanja ovo je neprocjenjiv izvor za proizvodnju zlonamjernog koda.

ChatGPT, ilustracija Privukli ih obećanjem o pristupu ChatGPT-u pa im oteli račune na Facebooku i ukrali novac

Kako tehnologija napreduje, a novi modeli postaju dostupni, postat će sve važnije za policije da ostanu na čelu ovih razvoja kako bi predvidjeli i spriječili zlouporabu, upozoravaju iz Europola.

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti