"Novac je nestao. Nema povratka": Kriminalci koriste AI za novu i vrlo uvjerljivu prijevaru

Mogućnosti umjetne inteligencije sve su veće, no s njima raste i broj različitih prijevara.

Hrvoje Jurman Hrvoje Jurman | 06.03.2023. / 15:36

Prijevara (Foto: Getty Images)

Roditelji jednog muškaraca iz Kanade nedavno su primili uznemirujući poziv. Nazvao ih jedan odvjetnik te im rekao kako je njihov sin u prometnoj nesreći ubio američkog diplomata - završio je u zatvoru te mu je potreban novac za pravne troškove. Nakon toga odvjetnik je predao telefon očajnom sinu koji im je objasnio situaciju u kojoj se nalazio, a kao i svi roditelji, oni su mu odlučili pomoći te su mu poslali oko 15 tisuća dolara u bitcoinima.

Ilustracija Uhićenja u Srbiji: Policija na nogama zbog međunarodne prijevare teške milijarde dolara

Dobra vijest za roditelje jest da im sin nije izazvao prometnu nesreću sa smrtnim posljedicama i nije završio u zatvoru, no loša je vijest da su ostali bez svojega novca. Oni su, naime, nasjeli na novu vrstu prijevare koju je omogućila umjetna inteligencija, odnosno alati bazirani na AI koji mogu klonirati glasove. Roditelji, dakle, uopće nisu razgovarali sa svojim sinom, već je umjetna inteligencija uspjela kreirati glas koji je gotovo identičan onome njihova sina.

Novac je nestao. Nema osiguranja. Nema povratka. Nestao je, komentirao je za medije sin prevarenog para Benjamin Perkin.

S postojećim alatima dovoljno je samo 30-ak sekundi zvučnog zapisa da umjetna inteligencija uspije prilično uspješno klonirati glas neke osobe. S obzirom na to da mnogi na Facebooku, Instagramu, TikToku i drugim mrežama često objavljuju videozapise, na mreži su javno dostupni brojni videozapisi iz kojih se može iskoristiti zvuk, odnosno glas za takvu vrstu prijevara.

Sumnjive poruke dobro pročitati - 1 Po čemu je nova internetska prijevara drukčija od ostalih? "Ljudima prikazuju stranicu koju inače koriste"

Dok je za takvo kloniranje glasa preko većine dostupnih alata potrebno, dakle, 30-ak sekundi zapisa, Microsoft je početkom godine predstavio vlastiti alat kojem su potrebne samo tri sekunde uzorka audiozapisa da na temelju njega klonira glas. Američka kompanija svoj alat nije učinila dostupnim javnosti upravo zbog potencijalnih rizika njegove zlouporabe, kakvu smo vidjeli na primjeru roditelja Benjamina Perkina. Na takvu zlouporabu upozorili su krajem siječnja iz ElevenLabsa, kompanija koja je razvila alat za kloniranje glasova, a nedugo nakon toga najavili su kako njihov alat VoiceLab više neće biti dostupan u besplatnoj verziji kako bi smanjili rastući broj prijevara.

Izvor: Fortune
 

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti