Na udaru influencerice i poznate osobe: Twitterom se proširila deepfake pornografija

Tehnologija i AI su toliko napredovali da je danas jako teško, možda i nemoguće raspoznati stvarnu od lažne slike i videa.

Hrvoje Jurman Hrvoje Jurman | 15.06.2023. / 15:04

Slika nije dostupna (Foto: Zimo)

Twitterom su se proteklih dana proširile brojne fotografije i videa poznatih osoba i kreatorica s TikToka u seksualnim pozama. Među inim, na udaru su se našle poznate influencerice Addison Rae Easterling, Charli D’Amelio i Bella Poarch čije su golišave fotografije pregledane više milijuna puta. U ovom slučaju, kao i brojnim ranijim situacijama, iako slike izgledaju prilično uvjerljivo i mnogi zaista misle da su na njima spomenute osobe, riječ je o lažnim fotografijama napravljenim korištenjem deepfakea. Riječ je o tehnologiji, odnosno alatima baziranim na umjetnoj inteligenciji koji mogu na jednostavan i realan način postaviti lica osoba na postojeće (pornografske) fotografije ili videozapise.

Umjetna inteligencija "Kum umjetne inteligencije" upozorava: Svijet bi mogao postati mjesto u kojem nitko neće moći znati što je istina, a što laž

Objavom takvog sadržaja koji sadrži golotinju objavljenu bez pristanka, ali i zavaravajućeg sadržaja prekršena su pravila Twittera, no usprkos tome taj se sadržaj proširio mrežom i privukao veliku pažnju. Brojni su primjeri koliko je moćna današnja umjetna inteligencija i koliko realistične lažne slike može napraviti. Dovoljno je samo vidjeti fotografije pape Franje u bijeloj jakni ili sliku uhićenja Donalda Trumpa koje su zavarale brojne korisnike društvenih mreža.

Iako su neki tvitovi s kojih su objavljene lažne slike poznatih osoba u golišavom izdanju uklonjeni, a račune s kojih su objavljeni suspendirani, jednom kada se takav sadržaj pojavi na internetu nemoguće je spriječiti njegovo daljnje širenje. Osim što je šteta za osobe koje su žrtve deepfakea već napravljena i mnogi su povjerovali u njihovu istinitost, mnogi ih preuzmu na računala pa ih mogu naknadno ponovno širiti mrežom.

Iz New York Posta poslali su upit Twitteru vezano uz ovaj problem, no dobili su isti odgovor koji iz ove kompanije automatski šalju na novinarske upite - emoji kakice.

Deepfake tehnologija Američki mediji otkrivaju plan američke vlade koji će mnoge šokirati

Ovaj slučaj samo je još jedan primjer kako je danas iznimno teško, a možda i nemoguće razlikovati stvaran sadržaj od lažnog i računalno generiranog sadržaja, odnosno deepfakea. Ovaj će problem, kako su na to više puta upozorili stručnjaci, s vremenom biti sve veći s napretkom tehnologije te će biti potrebni napredni alati koji bi trebali upozoriti korisnike na društvenim mrežama, na kojima se takav sadržaj najčešće širi, da je riječ o lažnom, a ne stvarnom sadržaju.
 

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti