I Europol upozorava na opasnosti koje prijete zbog umjetne inteligencije: Ova tri područja treba posebno držati na oku

Budući da se mogućnosti LLM-a kao što je ChatGPT aktivno poboljšavaju, sve je izglednici scenarij da će kriminalci iskoristiti sve prednosti ove vrste AI sustava.

Martina Čizmić | 27.03.2023. / 12:38 komentari
Slika nije dostupna (Foto: Zimo)

Čini se kako je umjetna intelignecija zahvaljujući tvrtki Open AI i njihovom ChatGPT-u, odjednom postala dostupna svima. I dok neki testiraju ChatGPT i njegovo znanje, drugi su ga već počeli iskorištavati za prijevare. 

tri vijesti o kojima se priča Vrijeme na Zemlji, ilustracija zemlja je poludjela Znanstvenici upozoravaju: Dolazi dan kakav čovječanstvo još nije doživjelo Protuzračni sustav Raven 70 posto učinkovitosti VIDEO Pogledajte protuzračni sustav koji su Britanci u 3 mjeseca sklepali za Ukrajinu i koji skida ruske dronove kao muhe s neba Kineski hipersonični projektili "Kill web" Amerikanci paničare jer Kina ima sustav za ciljanje zbog kojeg američke snage nisu sigurne ni na "sigurnoj" udaljenosti

Da bi umjetna inteligencija, odnosno dostupni chatbotovi, mogli biti ozbiljan problem upozorio je i Europol, koji je u sklopu svog Laboratorija za inovacije organizirao niz radionica na kojima se istraživalo kako kriminalci mogu zloupotrijebiti velike jezične modele (LLM-ove) kao što je ChatGPT, kao i kako to može pomoći istražiteljima u svom svakodnevnom radu.

Slika nije dostupna Prvi čovjek OpenAI-a priznao da i on strahuje u kom smjeru će se kretati razvoj umjetne inteligencije

Rezultat je prvo izvješće Tech Watch Flash s naslovom "ChatGPT - utjecaj velikih jezičnih modela na provedbu zakona", koji na jednom mjestu daje pregled potencijalne zlouporabe ChatGPT-a i nudi pogled na ono što bi moglo tek uslijediti.

Kako ističu iz Europola, cilj je ovog izvješća podići svijest o potencijalnoj zlouporabi LLM-ova, otvoriti dijalog s tvrtkama za umjetnu inteligenciju (AI) kako bi im se pomoglo u izgradnji boljih zaštitnih mjera te promicati razvoj sigurnih i pouzdanih sustava AI-a.

Naime, trenutačni javno dostupni model na kojem se temelji ChatGPT može obraditi i generirati tekst nalik ljudskom kao odgovor na upite korisnika. Točnije, model može odgovarati na pitanja o različitim temama, prevoditi tekst, sudjelovati u razgovoru ('chat'), generirati novi sadržaj i proizvesti funkcionalni kod.

Slika nije dostupna Kada je umjetna inteligencija zaprijetila ljudima, oni su postali - kreativniji

Stručnjake iz Europola posebno zabrinjavaju tri područja - prijevara i društveni inženjering, dezinformacija i kibernetički kriminal. 

U izvješću su istaknuli kako sposobnost ChatGPT-a za izradu vrlo realističnog teksta, čini ga korisnim alatom za phishing. Može ga se koristiti za oponašanje stila govora određenih pojedinaca ili grupa, a to se može zlouporabiti u velikim razmjerima kako bi se potencijalne žrtve dovele u zabludu da povjere svoje povjerenje u ruke kriminalnih aktera. Također, ChatGPT se ističe u brzom stvaranju teksta koji zvuči autentično. To čini model idealnim za propagandne i dezinformacijske svrhe, budući da korisnicima omogućuje generiranje i širenje poruka koje odražavaju specifičan narativ uz relativno malo truda. Uz sve to, ChatGPT je sposoban proizvesti kod u nizu različitih programskih jezika. Za potencijalnog kriminalca s malo tehničkog znanja ovo je neprocjenjiv izvor za proizvodnju zlonamjernog koda.

Slika nije dostupna Privukli ih obećanjem o pristupu ChatGPT-u pa im oteli račune na Facebooku i ukrali novac

Kako tehnologija napreduje, a novi modeli postaju dostupni, postat će sve važnije za policije da ostanu na čelu ovih razvoja kako bi predvidjeli i spriječili zlouporabu, upozoravaju iz Europola.

Vezane vijesti