Britanski stručnjak upozorava: Samo je pitanje vremena kad će umjetnu inteligenciju početi koristiti - teroristi

Stručnjaci za borbu protiv terorizma već dulje vrijeme drže umjetnu inteligenciju na oku iako su dosad najviše raspravljali o tome kako koristiti AI u kombinaciji s alatima za prepoznavanje lica kako bi se spriječio terorizam.

Martina Čizmić | 11.04.2023. / 08:54

Terorizam i umjetna inteligencija, ilustracija (Foto: Getty Images)

Brojne mogućnosti ChatGPT-a i drugih alata pogonjenih umjetnom inteligencijom oduševile su korisnike diljem svijeta, ali i zabrinule znanstvenike zbog brzine kojom se korištenje umjetne inteligencije raširilo. I dok s jedne strane umjetna inteligencija može pomoći u obavljanju cijelog niza poslova, s druge strane može predstavljati i potencijalnu opasnost. Pritom ne mislimo nužno na scene poput onih iz filmova znanstvene fantastike.

Stručnjaci za računalnu sigurnost već su počeli upozoravati kako umjetna inteligencija hakerima može olakšati pisanje zlonamjernog koda i upade u tuđa računala. Sad se tim upozorenjima pridružio i jedan od savjetnika britanskog parlamenta na temu terorizma.

Protuterorističko vozilo - 1 Hrvatski stroj koji spašava živote: Ne mogu mu ništa ni ručne bombe, a ima i niz drugih aduta

U razgovoru za britanski Daily Mail Jonathan Hall upozorio je kako bi se umjetna inteligencija uskoro mogla početi koristiti i u terorizmu.

Vjerujem da je u potpunosti zamislivo da će AI chatbotovi biti programirani ili, još gore, posvećeni promoviranju nasilnih ekstremističkih ideologija, upozorio je Hall te dodao kako je samo pitanje vremena kad će se svijet suočiti s prvim terorističkim napadom u čijoj pozadini stoji umjetna inteligencija.

Stručnjaci za borbu protiv terorizma već dulje vrijeme drže umjetnu inteligenciju na oku iako su dosad najviše raspravljali o tome kako koristiti AI u kombinaciji s alatima za prepoznavanje lica kako bi se spriječio terorizam.

No, s razvojem komercijalnih alata pogonjenih umjetnom inteligencijom i širokom dostupnošću tehnologija kao što su generativni tekst, fotografije i videa stvorene AI-em, stručnjake sve više brine problem širenja lažnih informacija i terorizma.

Christopher Wray, FBI Direktor FBI-a upozorava na potencijalnu opasnost koju autonomna vozila mogu predstavljati

Hall pojašnjava kako alati koji koriste velike jezične modele (LLM) kao što je ChatGPT zvuče veoma elokventno, uvjerljivo i sigurno u ono što prezentiraju korisnicima, a upravo bi to moglo biti ono što teroristi žele iskoristiti kako bi "posijali kaos" kroz "propagandu i lažne informacije kreirane putem umjetne inteligencije". Dodatno, AI bi se mogao iskoristiti i za regrutiranje novih ekstremista, pogotovo onih koji traže validaciju na internetu.

Terorizam prati život. Kad naše živote preselimo online, i terorizam se seli online, jasan je Hall.

Dodao je i kako su teroristi često skloni prihvatiti novu tehnologiju puno brže od prosječnog korisnika. Podsjetio je kako su terorističke grupe koristile 3D printere za printanje pištolja, a ni rudarenje kriptovaluta nije im strano.

Kao jedan od trenutačno glavnih problema Hall ističe gotovo nepostojeće zakone vezane uz umjetnu inteligenciju, zbog čega bi praćenje terorizma ojačanog umjetnom inteligencijom moglo biti gotovo nemoguće.

Uklanjanje sadržaja s interneta (Ilustracija: Getty Imegs) Teroristički sadržaj uklanjat će se s interneta u roku od jednog sata?

Kazneni zakon ne obuhvaća robote, pa bi oni koji koriste umjetnu inteligenciju mogli proći nekažnjeno, upozorava Hall i dodaje kako je veoma teško dokazati gdje prestaje odgovornost čovjeka i počinje odgovornost stroja ili robota.

Izvor: Daily Mail

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti