Pametni zvučnici sve su popularniji gadgeti i tijekom ovogodišnjeg blagdanskog šoping razdoblja mnogi će ispod bora poželjeti neki od Amazonovih ili Googleovih zvučnika s AI glasovnom asistentom. Iako sigurnosni stručnjaci često upozoravaju da su ovakvi uređaji velika opasnost za privatnost ljudi – što su dokazali i neki slučajevi iz prakse, nedavno istraživanje pokazalo je da je veliki broj vlasnika ovih zvučnika tog svjestan, no ne žele zbog straha za privatnost prestati koristiti modernu tehnologiju.

tri vijesti o kojima se priča Cheyava Falls u dolini Neretva Vallis u krateru Jezero na Marsu Na Marsu NASA zagolicala maštu javnosti: U dolini Neretve pronađeni tragovi izvanzemaljskog života? Komet 3I/ATLAS snimljen teleskopom Hubble 3I/ATLAS "Međuzvjezdani posjetitelj" još je čudniji nego što su znanstvenici mislili Pandemija, ilustracija Mogu li te promjene nestati? Otkrili neočekivanu posljedicu pandemije: Čak i kod ljudi koji nikada nisu bili zaraženi

Kako bi unaprijedili svoje zvučnike, odnosno glasovne asistente i omogućili im da što bolje razumiju ljude i razgovaraju s njima, Amazon je prije dvije godine pokrenuo program Amazon Prize namijenjen studentima računalnih znanosti s ciljem razvoja konverzacijskih vještima glasovnog asistent Alexe. Studenti diljem svijeta razvijaju chatbotove s kojima korisnici Amazonovih uređaja razgovaraju, a iako su takvi chatbotovi uvelike pomogli u poboljšanju glasovnog asistenta ove kompanije, neki su korisnici ostali šokirani s onim što su čuli od Alexe.

Jedan je korisnik svoje iskustvo s Alexom i chatbotovima opisao "jezivim" jer mu je Amazonov glasovni asistent poručio da "ubije svoje udomitelje". Također, zabilježeni su i slučajevi u kojima je AI asistent razgovarao o seksu i "pražnjenju crijeva" kućnih ljubimaca.

Chatbotovi u konverzacijama koriste podatke koje su prikupili u filmovima, novinama, Wikipediji i drugim internetskim stranicama i tako uče kako odgovoriti na upite tijekom razgovora i upravo u takvom načinu prikupljanja podataka leži problem učenju glasovnih asistenata. Alexa je izjavu o ubojstvu udomitelja "pokupila" s jednog komentara s Reddita te je trenutno teško naučiti glasovne asistente da ignoriraju ovakve komentare i pamte i koriste samo one pozitivne.

No do sada se ipak pokazalo kako su navedeni primjeri samo anomalije koje se zaista rijetko događaju (naravno, u Amazonu će napraviti sve da slične stvari spriječe u budućnosti) te je zahvaljujući ovakvim testovima Alexa postaje sve bolja i pričljivija s korisnicima.

Izvor: Reuters