Dobili ste panični poziv od obitelji u kojem vas mole da im pošaljete novac? Dobro razmislite prije slanja

Alati pogonjeni umjetnom inteligencijom mogu se koristiti u pozitivne svrhe, ali se sve češće koriste i u negativne.

Martina Čizmić | 21.02.2024. / 11:46

Neugodan telefonski poziv, ilustracija (Foto: Getty Images)

Razvoj i sve veća popularnost alata pogonjenih umjetnom inteligencijom omogućio je brojnim tvrtkama da unaprijede svoje poslovanje. Više nije neobično da umjesto agenta u korisničkoj službi dobijete chatbot ili pak glasovnog asistenta koji bi vam trebao pomoći.

No, prednosti umjetne inteligencije prepoznali su i kibernetički kriminalci koji ju sve više koriste kako bi izvukli novac od građana. Posljednja u nizu prijevara kojom se koriste je korištenje umjetne inteligencije za simuliranje glasa neke osobe.

Deepfake tehnologija Umjetna inteligencija čini deepfake videa jednostavnima za stvaranje i kompliciranima za otkrivanje

Već smo pisali kako je u SAD-u takav glas korišten kako bi se imitirao američki predsjednik Joe Biden u kampanji za odabir kandidata za predsjedničke izbore. Treba podsjetiti i na slučaj u kojem je direktor tvrtke prebacio tisuće eura na račun kriminalaca, nakon što je dobio takav AI poziv.

Pa kako to sve funkcionira? Zapravo je izuzetno jednostavno. Dovoljno je potražiti na interentu AI alata za snimanje i reprodukciju glasa. On treba uzork glasa za stvaranje "baze" nakon čega može reproducirati bilo koji tekst pomoću tog glasa.

Takvi alati nisu nikakva novost. Do sad su se koristili kako bi pomogli ljudima koji su izgubili glas, koji su paralizirani pa ne mogu govoriti ili jednostavno za računalno čitanje tekstova. Međutim, sve bolji alati umjetne inteligencije, omogućili su i veoma uvjerljive "kopije" glasova, a to su odlučili iskoristiti prevaranti.

Kako se glas klonira?

Prevarantima koji se koriste AI alatima, dovoljno je tek nekoliko minuta snimke glasa, do koje mogu doći jednostavnim telefonskim pozivom osobi koju žele imitirati ili čak snimanjem s videa objavljenog na društvenoj mreži.

Nepoznati poziv, ilustracija Zabrinjavajuće istraživanje: Ljudi teško prepoznaju deepfake govor, a to može dovesti do velikih problema

Nakon toga, snimka glasa ubacuje se u AI alat namijenjen za imitaciju glasa, koji proučava i "uči" na temelju snimke. Nakon što alat obavi analizu, dovoljno je upisati tekst u alat ili pak pokrenuti "kloniranje" glasa i jednostavno izgovarati u mikrofon tekst, a kroz zvučnike će se čuti "klonirani" glas.

Prvi alati koji su se pojavili nisu mogli dovoljno dobro reproducirati "klonirani" glas, pa je on zvučao prilično mehanički. No, današnji alati mogu dodati pauze, naglaske ili kakve druge značajke govora kako bi konačan rezultat bio što uvjerljiviji i sličniji stvarnom glasu.

Kako se "klonirani glasovi" koriste?

Tako "klonirani" glas moguće je iskoristiti za bilo što. No, kibernetički kriminalci najčešće ga koriste za telefonske prijevare. Zamislite da vam zazvoni telefon, na zaslonu piše nepoznat broj, a kad se javite, s druge strane je netko od članova vaše obitelji koji govori da je izgubio novčanik i ne može se vratiti, iz primjerice, Dubrovnika. I moli vas možete li mu poslati novac poštom ili kojim drugim kanalom, jer nema kartice kod sebe.

Deepfake tehnologija Istraživanje otkrilo: Lažne video snimke sve su češće i bolje, a ljudi ih sve teže mogu prepoznati

Većina će bez problema uplatiti novac i ne razmišljajući da se možda radi o prijevari.

Ista se situacija može dogoditi, ako prevaranti nazovu direktora financija u nekoj tvrtki, predstavljajući se kao direktor tvrtke, i zatraže uplatu od nekoliko desetaka tisuća eura na neki račun.

Jasno je da je u trenutku kad primite takav poziv veoma teško prepoznati radi li se o stvarnoj osobi ili prijevari.

No, stručnjak Dane Sherrets, za MailOnline otkrio je nekoliko stvari na koje treba obratiti pozornost kako bismo prepoznali da se radi o "kloniranom" glasu.

Prije svega, obratite pozornost na pauze, način na koji nečiji govor zvuči. Kod "kloniranih" glasova mogu se čuti pauze onda kad ih ne bi trebalo biti, krivi naglasci, ali i možda nekakva neprirodna buka u pozadini.

Međutim, kako se tehnologija brzo razvija, postat će sve teže razaznati "klonirane" glasove od pravi.

Stoga Sherrets savjetuje da se svaki poziv u kojem vas netko traži da napravite nešto brzo i hitno, tretira kao sumnjiv.

Postavite pitanje na koje bi odgovor mogla znati samo ta osoba koja zove. Ili dogovorite "sigurnu riječ" sa svojom obitelji i prijateljima. Tako da, ako se nađu u hitnoj situaciji, znaju da moraju izgovoriti tu "sigurnu riječ" kako biste znali da su to zaista oni, ističe Sherrets.

Dodaje i da bi ljudi trebali biti oprezniji po pitanju ostavljanja digitalnih otisaka na internetu. Odnosno, da budu oprezni tko ima pristup njihovim društvenim mrežama i sadržaju koji tamo objavljuju.

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti