Tamna strana ChatGPT-a: I negativci iskorištavaju sve prednosti umjetne inteligencije

ChatGPT je radikalno izmijenio krajolik prijetnji, prikupljanje informacija iz otvorenih izvora te kibernetičku sigurnost uopće.

Hina | 04.12.2023. / 15:25

Hakeri koriste umjetnu inteligenciju, ilustracija (Foto: Getty Images)

  Porast alata generativne umjetne inteligencije (AI) poput ChatGPT-ja pomaže računalnim kriminalcima u stvaranju uvjerljivijih prevara, upozorili su stručnjaci za kibernetičku sigurnost.

Dok popularni chatbot ChatGPT obilježava prvu godišnjicu od svog pokretanja, brojni stručnjaci su rekli da se tehnologijom koriste zlonamjerni akteri na internetu.

Stručnjaci su upozorili na to da alati generativne umjetne inteligencije za stvaranje teksta i slika kriminalcima olakšavaju stvaranje uvjerljivih prevara, no i da se AI koristi za jačanje kibernetičke obrane jer pomaže identificirati prijetnje pri njihovom pojavljivanju.

Slika nije dostupna U EU-u postignut dogovor o zaštiti digitalnih uređaja od hakerskih napada

Prijetnja sofisticiranijih kibernetičkih napada korištenjem AI-a naglašena je kao ključni budući rizik na događaju AI Safety Summit u Velikoj Britaniji početkom prošlog mjeseca, a svjetski vođe su pristali surađivati u tom području.

Britanski Nacionalni centar za kibernetsku sigurnost (NSC) je također naglasio korištenje AI-ja radi stvaranja i širenja dezinformacija kao ključnu prijetnju u narednim godinama, a naročito u vrijeme oko izbora.

James McQuiggan iz tvrtke za kibernetičku sigurnost KnowBe4 je rekao da se učinak generativne umjetne inteligencije i velikih jezičnih modela (LLM) već osjeća.

ChatGPT je radikalno izmijenio krajolik prijetnji, prikupljanje informacija iz otvorenih izvora te kibernetičku sigurnost uopće, rekao je za novinsku agenciju PA Media.

Internetska prijevara Sigurnosni stručnjak upozorava: Nemojte nikada kliknuti na ove 4 riječi pri surfanju internetom

Računalni kriminalci koriste LLM-ove kako bi generirali dobro napisane dokumente s ispravnom gramatikom, bez pravopisnih pogrešaka kako bi poboljšali svoje napade i zaobišli jedno od najvećih upozorenja u programima za podizanje svijesti o sigurnosti - ideju da loša gramatika i pravopisne pogreške upućuju na socijalni inženjering ili phishing napade.

Ne čudi da je došlo do povećanja sofisticiranosti i obujma phishing napada različitih stilova, što stvara izazove za poduzeća i potrošače.

Budući da generativni AI olakšava stvaranje uvjerljivih slika profila, besprijekornih tekstova ili čak zloćudnog softvera, "AI i LLM-ovi poput ChatGPT-ja se sve više koriste za masovno stvaranje uvjerljivijih poruka za phishing".

Kibernetička sigurnost, ilustracija Stručnjaci upozoravaju: Nikada nije bio veći pritisak zlonamjernih kibernetičkih napada

Iduća generacija modela generativne umjetne inteligencije očekuje se početkom 2024., a stručnjaci predviđaju da će biti znatno sposobnija od modela trenutne generacije.

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti