Meta (bivši Facebook) već godinama radi na razvoju umjetne inteligencije zadužene za različita područja. Posljednju u nizu pretvorili su u chatbot i, kako bi ju testirali, omogućili običnim ljudima da s njom malo "porazgovaraju".

Radi se o chatbotu nazvanom BlenderBot 3, koji je, tvrde u Meti, sposoban čavrljati s bilo kim o bilo čemu - od recepata za nedjeljni ručak do lokacija koje bi trebali posjetiti u nepoznatom gradu. Jedini problem - trenutno je dostupan samo u SAD-u.

Meta Meta razvija umjetnu inteligenciju za borbu protiv lažnih vijesti, a trenira ju na neobičan način

Pojašnjavaju kako je BlenderBot 3 temeljen na prijašnjim verzijama umjetne inteligencije koja se fokusirala na prepoznavanje jezika. Tako se BlenderBot prvo "učio" na velikim količinama teksta kako bi prepoznao uzorak u jeziku. No, takav način "učenja" ima i svoje negativne strane jer može doći do pristranosti odnosno učitavanja predrasuda u samu umjetnu inteligenciju. Dodatno, događalo se da je umjetna inteligencija "izmišljala" odgovore, što baš i nije najbolje rješenje ako ju netko planira koristiti kao asistenta.

Upravo zato u Meti su posebnu pozornost posvetili testiranju BlenderBota. A tko će ga bolje testirati nego široka javnost. Naime, jedna od njegovih mogućnosti je pretraživanje interneta kako bi prikupio podatke i tako "razgovarao" s osobom o bilo kojoj temi. Osim što će dati odgovor, korisnici će moći provjeriti izvor otkud je BlenderBot taj odgovor dobio.

Slika nije dostupna Nema više laganja oko godina na Instagramu: Dob korisnika provjeravat će umjetna inteligencija

Iz Mete kažu kako žele da BlenderBot bude testiran u stvarnim uvjetima, ne bi li dobili povratne informacije od javnosti o potencijalnim problemima s kojima su se susreli. Tako će korisnici moći označiti sve sumnjive odgovore, a iz Mete su posebnu pozornost posvetili uklanjanju vulgarnog jezika, psovki ili sumnjivih komentara.

 

 

No, kako bi izbjegli da netko označava i dobre odgovore, ističu iz Mete, razvili su novi algoritam učenja, koji bi trebao razlikovati dobre od loših primjera. Algoritam, tijekom "razgovora" s korisnikom procjenjuje njegovo ponašanje i tako "uči" vjerovati ili ne vjerovati korisnicima.

Prema trenutnim podacima, 0,16 posto odgovora koje je dao BlenderBot 3 označeni su kao neprikladnima, a u Meti je cilj taj postotak smanjiti na 0 posto.

Naš je cilj prikupiti i objaviti povratne podatke kako bismo, s vremenom, pronašli nove načine za optimizaciju sigurnosti i komunikacije između AI sustava i svih koji ih koriste, zapisali su na službenom blogu iz Mete.

Još brže do najnovijih tech inovacija. Preuzmi novu DNEVNIK.hr aplikaciju