Takozvani deepfake videozapisi i slike ljudi generirani umjetnom inteligencijom postaju sve realističniji. To ih čini savršenim oružjem za širenje dezinformacija i prijevare.

No dok nas deepfake može svjesno prevariti, novi dokazi sugeriraju da naš mozak ipak zna bolje. Lažni portreti uzrokuju aktiviranje različitih signala, pokazali su skenovi mozga, navodi se u studiji objavljenoj u znanstvenom časopisu Vision Research.

Iako svjesno možda ne možemo uočiti deepfake lažnjak (za čitatelje, lice s desne strane je lažno), naši su neuroni pouzdaniji.

Vaš mozak vidi razliku između dvije slike. Samo to još ne možete vidjeti, Thomas Carlson s Fakulteta psihologije Sveučilišta u Sydneyju i koautor studije.

Znanstvenici su zamolili volontere da pogledaju niz od nekoliko stotina fotografija, od kojih su neke bile stvarne, a neke lažne, koje je generirao GAN (Generative Adversarial Network), koji predstavlja uobičajeni način stvaranja deepfakeova.

Jednu grupu od 200 sudionika zamolili su da pritiskom na gumb pogodi koje su slike stvarne, a koje lažne. Druga grupa od 22 sudionika nije pogađala, ali je podvrgnuta elektroencefalografiji (EEG) dok je gledala slike. EEG je pokazao jasne signale kada su sudionici gledali deepfakeove u usporedbi sa stvarnim slikama.

Mozak reagira drugačije nego kad vidi stvarnu sliku. Teško je dokučiti na što se točno odnosi jer sve što stvarno možete vidjeti je da je drugačiji, to je nešto što ćemo morati dodatno istražiti da bismo otkrili o čemu je riječ, kaže Carlson.

EEG skenovi nisu bili sigurni: mogli su uočiti duboke krivotvorine samo u 54 posto slučajeva. Ali to je znatno bolje od sudionika koji su svjesno pogađali i koji su pronašli deepfake samo u 37 posto slučajeva, što je gore nego da su pogađali, primjerice, bacanjem novčića.

Trenutni deepfakeovi su manjkavi

Činjenica da mozak može otkriti deepfake znači da su trenutni deepfakeovi manjkavi. Ako možemo naučiti kako mozak uočava deepfakeove, mogli bismo iskoristiti ove informacije za stvaranje algoritama za označavanje potencijalnih deepfakeova na digitalnim platformama kao što su Facebook i Twitter, kaže Carlson.

To bi se znanje onda isto tako moglo koristiti i za sprječavanje prijevara i krađa.

Kacige s omogućenim EEG-om mogle su biti od pomoći u sprječavanju nedavnih pljački banaka i slučajeva korporativnih prijevara u Dubaiju i Ujedinjenom Kraljevstvu, gdje su prevaranti koristili tehnologiju kloniranog glasa kako bi ukrali desetke milijuna dolara. U tim slučajevima financijsko osoblje je mislilo da je čulo glas klijenta ili suradnika od povjerenja i bili su prevareni da izvrše prijenos sredstava, kaže Carlson.

(Ipak) bez jamstava

No sve navedeno nikako nije jamstvo. Znanstvenici u svojem radu ističu da su, čak i dok su radili istraživanje, GAN-ovi napredovali i generirali bolje deepfake slike od onih koje su koristili u svojoj studiji. Moguće je da će, nakon što algoritmi postoje, deepfakeri samo smisliti nove načine da ih zaobiđu.

Unatoč tome, deepfake uvijek generira računalo koje ima 'ideju' o tome što je lice. Sve dok generira te stvari iz ove 'ideje', možda postoji i najmanja stvar koja nije u redu. Stvar je u tome da otkrijemo što s tim nije u redu ovaj put, kaže na kraju Carlson.

Izvor: Cosmos

Još brže do najnovijih tech inovacija. Preuzmi novu DNEVNIK.hr aplikaciju