Svi koji su se u nekom trenutku bavili animacijom ili sinkronizacijom znaju koliko je teško uskladiti glas i sliku. Najbolji primjer su sinkronizacije crtanih i igranih filmova koje mogu biti bolje ili lošije napravljene. Ljubitelji videoigara, koji su isprobali videoigre u kojima su dijalozi na različitim jezicima, znaju koliko takve situacije u kojima glas i usne lika nisu povezane, mogu biti smiješne.
No, novi Nvidijin alat takve bi probleme mogao u potpunosti eliminirati. Radi se o Audio2Face alatu koji koristi umjetnu inteligenciju i vrti se na Nvidijinoj simulacijskoj platformi Omniverse. Dovoljno je učitati audio datoteku, a alat će sam prilagoditi pokrete animiranih likova koji su uključeni u Digital Mark 3D model.
Zanimljivo je promatrati koliko dobro alat funkcionira, bez obzira na to o kojem se jeziku radi. Jedini uvjet - audio snimka mora biti jasna i u digitalnom obliku.
U pozadini cijelog sustava nalazi se duboka neuronska mreža i umjetna inteligencija koje spajaju izraze lica sa zvukom u stvarnom vremenu. Korisnici mogu dodatno podesiti pojedine aspekte kako bi lice na ekranu zaista u potpunosti pratilo zvuk koji se čuje.
Upravo zbog tehnologija koje se nalaze u pozadini, Audio2Face će s vremenom postati još bolji i brži, a sigurno će svu svoju snagu pokazati u animacijama za videoigre. Iz Nvidije su najavili kako će uskoro korisnici moći i dodavati emocije odnosno različite izraze lica kako bi animacija bila što uvjerljivija i živopisnija.
Samo da ovaj alat ne otkriju kreatori deepfakeova, jer bi identifikacija lažnih i pravih video snimki mogla postati još teža i kompliciranija.