Kad vidimo robota koji se na neki način doima poput prave osobe, to može izazvati svojevrstan osjećaj nelagode. Taj je fenomen poznat kao takozvana "dolina nelagode" i predstavlja stalni izazov za inženjere robotike, osobito pri dizajniranju humanoidnih robota namijenjenih da izgledaju i govore poput nas. Znanstvenici s američkog Sveučilišta Columbia bave se tim problemom, fokusirajući se na sinkronizaciju pokreta usana i govora kako bi roboti izgledali prirodnije.
tri vijesti o kojima se priča
Cilj nam je riješiti ovaj problem, koji je u robotici zanemaren, rekao je za CNET Hod Lipson, profesor inženjerstva na Columbiji. Objasnio je da roboti često djeluju "neobično", jer njihove usne ne oponašaju ljudske pokrete tijekom razgovora.
Potrošačka robotika danas sve više ulazi u razdoblje pojačanog interesa. Na tehnološkom sajmu CES 2026, našao se niz robota namijenjenih interakciji s ljudima, od Boston Dynamicsovog Atlasa do kućanskih robota koji mogu slagati rublje. Čak se pojavio robot u obliku kornjače za istraživanje okoliša, što pokazuje da bi 2026. godina mogla biti važna godina za robote u svakodnevnoj upotrebi.
Među najatraktivnijima bili su humanoidni roboti s tijelom, sintetičkom kožom i ekspresivnim licima. Realbotix je predstavio robote prikladne za informacijske pultove ili emocionalnu podršku, dok je Lovense pokazao robota za odnose opremljenog umjetnom inteligencijom i koji "pamti" intimne razgovore.
No ne događa se sva robotika samo na CES-u. Nedavno smo imali priliku upoznati i prvu hrvatsku roboticu Tonku, koja je namjenjena upravo svakodnevnoj interakciji i za odgređena područja, poput primjerice turizma i edukacije.
I najmanja nesinkronizacija pokreta usana i govora može od zanimljivog humanoidnog robota stvoriti zastrašujući stroj, što pokazuje koliko je besprijekorna sinkronizacija usana važna za prihvaćanje od strane ljudskih korisnika.
Kako bi to riješili, tim s navedenog sveučilišta razvio je humanoidno lice nazvano Emo. Njegova silikonska koža, poduprta magnetskim konektorima, omogućuje precizne oblike usana za izgovaranje 24 suglasnika i 16 samoglasnika. Za sinkronizaciju pokreta usana s govorom koristili su takozvani "learning pipeline", proces koji prikuplja vizualne podatke o pokretima usana i koristi ih za treniranje AI modela.
Na temelju tih podataka, transformator za pokrete lica pretvara motoričke naredbe u sinkronizirane pokrete usta, što Emou omogućuje da "govori" više jezika, uključujući francuski, kineski i arapski.
Izbjegli smo problem vezan uz pojedini jezik, tako što smo trenirali model koji ide direktno od audiozapisa do pokreta usana. Ne postoji pojam jezika, pojasnio je Lipson.
Ljudi su navikli na mehanički izgled robota u industriji ili kod kuće, no životna lica postaju sve važnija kako tehnologija umjetne inteligencije omogućuje razgovor u stvarnom vremenu. Studije iz Berlina i Italije iz 2024. godine potvrdile su da su verbalna empatija i aktivan govor ključni za suradnju ljudi i robota, osobito u složenim zadacima, piše CNET.
U budućnosti Lipson sugerira da humanoidni roboti mogu izgledati gotovo kao ljudi, no da dizajnerski elementi, poput primjerice plave kože, jasno pokazuju da se radi o stroju. Takva pažljiva izrada omogućila bi socijalnu integraciju robota bez zabune ili nelagode.