Alati s kojima se "uništavaju životi i ostvaruju scenariji iz noćne more za žene" dostupni su na Telegramu

Stručnjaci upozoravaju kako je nevjerojatno da se takvim alatima može jednostavno pristupiti i koristiti ih.

Hrvoje Jurman Hrvoje Jurman | 16.10.2024. / 13:17

Gledanje pornografije (Foto: Getty Images)

Samo nekoliko klikova mišem dovoljno je kako bi se napravila lažna, ali prilično realna fotografija ili video neke žene ili djevojke u seksualnom odnosu ili se osobi na nekoj uobičajenoj fotografiji može (digitalno) skinuti odjeća. Deepfake je postao toliko opasan da su ga neki stručnjaci ranije nazvali digitalnim silovanjem i noćnom morom žena i djevojčica.

S obzirom na to da je jednostavno ogoliti osobe na fotografijama ili njihova lica postaviti na pornografske fotografije ili videa, jednom ako se takav lažan uradak proširi grupama na komunikacijskim platformama, teško je i zamisliti kakav pakao i stres mogu proživjeti žrtve deepfakea.

Slika katastrofe, ilustracija Novinari su recenzirali novi Googleov telefon i prilično su šokirani: "Na*ebali smo... Nitko nije spreman za ovo”

A koliko je danas jednostavno napraviti takve fotografije, možemo vidjeti na primjeru Telegrama. Na ovoj platformi, čiji je šef nedavno završio u zatvoru, postoje brojni botovi putem kojih korisnici mogu napraviti takve deepfeake fotografije i videa. Izvještaj Wireda pokazao je kako postoji najmanje 50 takvih botova čiji autori tvrde da se putem njih može skinuti odjeća s fotografija, ali i putem kojih se osobe s fotografija mogu postaviti u scene sa seksualnim odnosima. Broj mjesečnih korisnika takvih botova je čak skoro 4 milijuna. 

Zaista je zabrinjavajuće da se takvim alatima, koji zaista uništavaju živote i stvaraju scenarije iz noćne more, prvenstveno mladim djevojčicama i ženama, tako jednostavno može pristupiti, komentirao je stručnjak za deepfake Henry Ajder. Žrtve ovakve digitalne manipulacije često su i slavne osobe - što možemo vidjeti na nedavnom primjeru Taylor Swift, no jedno istraživanje provedeno u SAD-u pokazalo je kako se oko 40 posto školaraca susrelo s deepfakeom u svojim školama.

U nekim slučajevima djevojčice i žene se želi osramotiti, no ponekad se ova tehnologija koristi i za tzv. sextortion, odnosno naprave se lažne slike koje se pošalju tim osobama i onda se od njih traži novac ili slanje pravih golišavih fotografija. U suprotnom prijeti se objavom deepfake slika. Ovakav oblik lažnih fotografija može narušiti zdravlje i dobrostanje osoba, izazvati psihološku traumu i osjećaje poniženosti, neugodnosti, straha i srama, upozorava Emma Pickering iz Refugea, britanske organizacije koja se bori protiv zlostavljanja. Ono što je posebno naglasila jest da se osobe koje korištenjem AI alata stvaraju takve fotografije, rijetko smatraju odgovornima.

Botovi na Telegramu su male aplikacije koje rade unutar te aplikacije i nalaze se unutar kanala i grupa u kojima može komunicirati i do 200 tisuća osoba. Developeri su do sada razvili različite botove - od nekakvih kvizova, aplikacija za prijevod i slično, no dostupni su i deepfake botovi koje novinari Wireda, iz logičnih razloga, nisu isprobali. Za pristup, odnosno korištenje takvih botova, potrebno je kupiti posebne tokene.

Upozorenje na deepfake sadržaj, ilustrcija Kako prepoznati "deepfake video"? Ovaj brand predstavio je zanimljivo AI rješenje tog problema

Mediji godinama govore kako je Telegram omiljeni alat kriminalaca koji ga koriste u svojim svakodnevnim aktivnostima - od krijumčarenja droge pa do zlostavljanja djece. Kako je ekipa iz Telegrama godinama žmirila na sve te aktivnosti i nisu se htjeli petljati u to što se događa na njihovoj platformi, ne treba nikoga iznenaditi što se upravo tu pojavili i brojni deepfake alati.

Nakon uhićenja, Pavel Durov ipak je najavio određene promjene oko moderiranja sadržaja i bit će zanimljivo vidjeti hoće li se one odnosi i na deepfake. Novinari Wireda poslali su upit oko deepfake botova, no iz Telegrama im nitko nije odgovorio.

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti