U posljednje vrijeme sve je teže prepoznati što je stvaran, a što lažan sadržaj na internetu. Kako tehnološki alati napreduju, njihovi su rezultati sve bolji, za što je odličan primjer nedavno predstavljena nova generacija AI alata za generiranje videozapisa Sora.
tri vijesti o kojima se priča
Videozapisi koji se tim alatom mogu napraviti samo iz tekstualnog upisa ili na temelju jedne fotografije nevjerojatno su realistični i velika je mogućnost da, ako ste u posljednje vrijeme primili nekakav nevjerojatan video za koji ste na prvi pogled mislili da je stvaran, iza njega stoji upravo Sora.
Sve više AI nasilja
Često je riječ o nekakvim šaljivim i zanimljivim videozapisima, no sa Sorom i drugim sličnim alatima pojavio se i jedan zabrinjavajući trend. Naime, u posljednje vrijeme na društvenim mrežama poput TikToka i X-a sve je više hiperrealističnih nasilnih videozapisa u kojima se prikazuje - gušenje žena i djevojaka.
Iako se na takvim videozapisima ne nalaze stvarne osobe, već ih je generirala umjetna inteligencija, njihov je sadržaj prilično zastrašujući. Na nekim od tih videa nalazi se vodeni žig “"Sora 2", pa će oni koji obrate pažnju na to ipak shvatiti kako je riječ o lažnom videu. No na dijelu takvih videa nema vodenih žigova, što znači da su korisnici pronašli način da ih uklone ili koriste druge alate za generiranje AI videa.
Iako se objavom takvog sadržaja na kojem je prikazano nasilje nad ženama i djevojkama krše pravila spomenutih platformi, TikTok i X nisu odmah reagirali na njihovo pojavljivanje i širenje. Tek nakon pritiska medija TikTok je uklonio jedan od takvih računa na kojem su objavljeni videozapisi gušenja žena i djevojaka, dok Muskova platforma X još nije reagirala i ta su videa i dalje dostupna, komentirali su na stranici Digital Trends.
Manja osjetljivost na stvarno nasilje
Pored same činjenice da netko stvara i dijeli takav uznemirujući sadržaj, izloženost online nasilju ljude može desenzibilizirati, odnosno učiniti ih manje osjetljivima na stvarno nasilje. Također, to je još jedan dokaz koliko je već sada jednostavno stvoriti toliko realistične lažne snimke nasilja i možemo se samo pitati što možemo očekivati u budućnosti. Takvi lažni i realni videozapisi koji uključuju neke poznate osobe, političare i slično mogli bi izazvati velike probleme te imati ozbiljne posljedice za sigurnost, zakonodavstvo, ali i čitavo društvo.
Upravo zbog toga raste pritisak javnosti na OpenAI i druge AI kompanije, kao i društvene mreže, da uvedu strože zaštitne mjere te mehanizme prepoznavanja nasilnih AI sadržaja, što će svakako biti izazovno.
Izvor: Digital Trends