Meta (bivši Facebook) već godinama radi na razvoju umjetne inteligencije zadužene za različita područja. Posljednju u nizu pretvorili su u chatbot i, kako bi ju testirali, omogućili običnim ljudima da s njom malo "porazgovaraju".
Radi se o chatbotu nazvanom BlenderBot 3, koji je, tvrde u Meti, sposoban čavrljati s bilo kim o bilo čemu - od recepata za nedjeljni ručak do lokacija koje bi trebali posjetiti u nepoznatom gradu. Jedini problem - trenutno je dostupan samo u SAD-u.
Pojašnjavaju kako je BlenderBot 3 temeljen na prijašnjim verzijama umjetne inteligencije koja se fokusirala na prepoznavanje jezika. Tako se BlenderBot prvo "učio" na velikim količinama teksta kako bi prepoznao uzorak u jeziku. No, takav način "učenja" ima i svoje negativne strane jer može doći do pristranosti odnosno učitavanja predrasuda u samu umjetnu inteligenciju. Dodatno, događalo se da je umjetna inteligencija "izmišljala" odgovore, što baš i nije najbolje rješenje ako ju netko planira koristiti kao asistenta.
Upravo zato u Meti su posebnu pozornost posvetili testiranju BlenderBota. A tko će ga bolje testirati nego široka javnost. Naime, jedna od njegovih mogućnosti je pretraživanje interneta kako bi prikupio podatke i tako "razgovarao" s osobom o bilo kojoj temi. Osim što će dati odgovor, korisnici će moći provjeriti izvor otkud je BlenderBot taj odgovor dobio.
Iz Mete kažu kako žele da BlenderBot bude testiran u stvarnim uvjetima, ne bi li dobili povratne informacije od javnosti o potencijalnim problemima s kojima su se susreli. Tako će korisnici moći označiti sve sumnjive odgovore, a iz Mete su posebnu pozornost posvetili uklanjanju vulgarnog jezika, psovki ili sumnjivih komentara.
(2/4) A focal point of our research is enhancing safety measures for chatbots. We developed new techniques that enable learning from helpful feedback from people, while ignoring people who are trying to trick the model into unhelpful or toxic responses. pic.twitter.com/KVbgO9aKHr
— Meta AI (@MetaAI) August 5, 2022
No, kako bi izbjegli da netko označava i dobre odgovore, ističu iz Mete, razvili su novi algoritam učenja, koji bi trebao razlikovati dobre od loših primjera. Algoritam, tijekom "razgovora" s korisnikom procjenjuje njegovo ponašanje i tako "uči" vjerovati ili ne vjerovati korisnicima.
Prema trenutnim podacima, 0,16 posto odgovora koje je dao BlenderBot 3 označeni su kao neprikladnima, a u Meti je cilj taj postotak smanjiti na 0 posto.
Naš je cilj prikupiti i objaviti povratne podatke kako bismo, s vremenom, pronašli nove načine za optimizaciju sigurnosti i komunikacije između AI sustava i svih koji ih koriste, zapisali su na službenom blogu iz Mete.