Nakon što je DeepSeek nedavno šokirao tehnološki svijet sa svojim AI modelom, iz Kine stiže još jedan alat baziran na umjetnoj inteligenciji koji pokazuje veliki napredak koji je postignut na ovom polju. Riječ je o modelu za stvaranje videa koji je razvio ByteDance, kompanija najpoznatija kao vlasnik TikToka.
Putem alata OmniHuman moguće je napraviti kratke i vrlo realistične videozapise na temelju samo jedne fotografije, a rezultat je tako dobar da ga, kako su to objasnili na Tech Radaru, morate vidjeti da bi vjerovali. Koliko su dobar posao napravili pogledajte u priloženim videozapisima koji su objavljeni na YouTubeu i zaista je teško, možda i nemoguće prepoznati kako je ovdje riječ o umjetno stvorenom sadržaju od strane umjetne inteligencije, a ne o stvarnim videozapisima.
Npr. samo na temelju jedne Einsteinove fotografije, OmniHuman je uspio napraviti kratki i iznimno uvjerljiv videozapis predavanja ovog znanstvenika.
Iako je riječ o fantastičnom alatu, treba naglasiti kako slični programi koji iz fotografije ili teksta mogu napraviti videa već postoje, uključujući i alate koje su razvili OpenAI i Google. ByteDanceov OmniHuman trenutačno je samo projekt koji je i dalje u razvoju te još nije javno dostupan, a tehnološki mediji nagađaju kako bi u budućnosti ovakva mogućnost stvaranja videa iz fotografija mogla biti implementirana u najpoznatiji proizvod ove kompanije - TikTok.
Negativne posljedice
Za očekivati je da bi time mogla započeti prava mala revolucija na kineskoj društvenoj mreži koju bi preplavili razni umjetno stvoreni videozapisi tako da korisnici više uopće ne bi morali snimati i objavljivati videa. Umjesto toga, bit će dovoljno provući fotografije kroz ovaj alat te najbolji rezultat objaviti kao kratki video na TikToku.
Naravno, postoji i druga strana medalje za ovakvu tehnologiju. Kako je objasnila profesorica Škole za kulturu, obrazovanje i ljudski razvoj Sveučilišta u New Yorku Samantha G. Wolfe, dok je s tehnološke strane riječ o fascinantnom alatu, njegova primjena može imati i brojne negativne posljedice. S takvim se alatom mogu stvoriti vjerni, ali lažni videozapisi političara ili nekih poslovnih lidera koji će govoriti stvari koje ta osoba u stvarnom životu nikada ne bi rekla, a mogu imati veliki utjecaj na ljude ako/kada se prošire društvenim mrežama.
Pitanje je tko bi više mogao vjerovati takvim videozapisima te bi na sve videe koji se pojave na društvenim mrežama mogli gledati s određenom dozom skepticizma i opreza jer, koliko god izgledali stvarno, nećemo moći znati je li zaista riječ o pravom ili lažnom videu.
Izvor: Forbes