Kako je umjetna inteligencija sve prisutnija u svakodnevnom životu, a igrat će i veoma važnu ulogu u budućnosti, sve se češće povlači pitanje odgovornog korištenja i upravljanja umjetnom inteligencijom. 

Nakon što je Europska unija predložila svoje smjernice i mjere, o kojima se tek treba raspravljati prije prihvaćanja, postavlja se pitanje, što to točno znači odgovorno korištenje umjetne inteligencije. IBM je stoga priredio online okrugli stol s medijima na temu „Odgovorno korištenje umjetne inteligencije (AI)“ s uglednom znanstvenicom i članicom IBM Fellow programa, Aleksandrom (Saška) Mojsilović. Ona trenutno radi kao voditeljica AI Foundations u IBM Research i kodirektorica u IBM Science for Social Good. Autorica je preko 100 publikacija i posjeduje 16 patenata.

Među najnovijim projektima na kojima je dr. Mojsilović radila je AI sustav IBM Researcha koji je predstavljen u ožujku 2021. Taj sustav koristi tehnologije temeljene na AI kako bi ubrzao stvaranje novih peptida u borbi protiv rezistencije na antibiotike. Ovi napori mogu također pomoći u otkrivanju i stvaranju novih materijala koji pomažu u borbi protiv klimatskih promjena, stvaranju inteligentnije proizvodnje i skladištenja energije i još mnogo toga. 

U svom se izlaganju dr. Mojsilović usredotočila na ranjivosti AI-a poput izloženosti pristranosti, nedostatka objašnjivosti i osjetljivosti na napade koji posebno dizajniranim unosom podataka proizvode pogrešne rezultate. Također se govorilo o trenutnoj kontroverznoj upotrebi tehnologije, posebice AI koji se koristi za stvaranje potencijalno štetnih sadržaja poput lažnih video sadržaja (deepfake), viralnih sadržaja i algoritama društvenih mreža koji korisnike usmjeravaju prema dezinformacijama.

S obzirom na spomenuto, dr. Mojsilović naglasila je da performanse neće biti dovoljne kao paradigma dizajna umjetne inteligencije, nego će i etička pitanja morati biti dio jednadžbe. Stoga IBM Research razvija tehnike i algoritme za procjenu - i rješavanje - temeljnih elemenata povjerenja za AI sustave: alata koji otkrivaju i ublažavaju pristranost, otkrivaju ranjivosti, uklanjaju napade i demaskiraju postupak donošenja odluka. Budući da AI napreduje, ljudi i AI sustavi sve više surađuju i ključno je da vjerujemo rezultatima tih sustava kako bismo donosili svoje odluke.

Stručnjaci iz IBM Research identificiraju sljedeće stupove kako bi stvorili osnovu za pouzdane AI sustave:
Pravičnost: AI sustavi trebali bi koristiti podatke u razvoju i modele u kojima nema pristranosti, kako bi se izbjeglo nepravedno postupanje s nekim skupinama podataka
Robusnost: AI sustavi trebaju biti sigurni i zaštićeni, ne smiju biti podložni neovlaštenom upravljanju ili ugrožavanju podataka na kojima su razvijeni
Objašnjivost: AI sustavi trebaju pružati odluke ili prijedloge koji mogu biti razumljivi njihovim korisnicima i programerima
Loza: AI sustavi trebaju sadržavati detalje o njihovom razvoju, implementaciji i održavanju kako bi mogli biti revidirani tijekom svog životnog ciklusa

Međutim, baš kao i neka fizička struktura, povjerenje se ne može graditi samo na jednom stupu. Ako je AI sustav pravedan, ali ne može odoljeti napadu, neće mu se vjerovati. Ako je siguran, ali nitko ne može razumjeti podatke koje pruža, također mu se neće vjerovati. Stoga je, istaknula je dr. Mojsilović, nužno ojačati sve stupove zajedno, kao i sposobnost mjerenja i komuniciranja razina izvedbe sustava u svakoj od ovih dimenzija.

Jedan od načina da se to postigne bio bi pružanje takvih podataka putem SDoC-a ili informativnih tablica za usluge AI. U njih IBM-ovi stručnjaci predlažu da se uključe informacije o radu sustava, podacima o razvoju, osnovnim algoritmima, postavljanju i rezultatima ispitivanja, mjerilima performansi, provjerama pravednosti i robusnosti, namjeravanoj uporabi te održavanju i prekvalifikaciji.


Za daljnje informacije o radu dr. Mojsilović i IBM-ovog istraživačkog tima na polju etike AI-a, možete posjetiti Trusting AI.