U nedavnom otvorenom pismu koje je objavio neprofitni institut Future of Life brojni stručnjaci, uključujući i Elona Muska i Stevea Wozniaka, pozvali su šestomjesečnu pauzu u razvoju naprednog AI-a, dok se ne donesu nekakvi sigurnosni protokoli koji bi trebali spriječiti da razvoj krene u krivom smjeru. U pismu se upozorava na brojne potencijalne rizike i poziva se programere na suradnju s regulatorima.
No dok bi tako nešto u teoriji možda i moglo imati smisla, u praksi bi moglo dovesti do potpuno suprotnog učinka, upozorio je poznati investitor i upravitelj hedge fonda Bill Ackman. Naime, on smatra kako tehnološke kompanije koje su već daleko dogurale u razvoju napredne umjetne inteligencije nikako ne bi smjele zaustaviti taj razvoj, pa čak i na kratko.
Umjetna inteligencija, nema dvojbe, sljedeća je velika stvar ne samo u tehnološkoj industriji i jasno je kako svi žele iskoristiti njene mogućnosti za svoju dobrobit, no kao i sa svim tehnologijama, ona je jednako zanimljiva i kriminalcima, odnosno kako je to rekao Ackman - i "lošim momcima". Kada bi industrija zaista poslušala Muska i ostale potpisnike ovog pisma, time bi se dalo pola godine vremena "našim neprijateljima" kako ih je nazvao ovaj investitor, da sustignu do sada postignut napredak na polju AI-a i iskoriste ga na način na koji to njima odgovara, što može uključivati razna hakiranja, probijanja zaštite, korištenja AI-a i deepfakea za širenje lažnih videa i slika, fake newsa itd.
Kao radikalan primjer Ackam je spomenuo i Project Manhattan, odnosno projekt američke vlade za razvoj atomske bombe te kaže kako bi bila pogreška da su oni odustali od tog projekta te da su ih nacisti sustigli i prije Amerikanaca razvili atomsku bombu. Mislim da nemamo izbora, prenijeli su njegov komentar na NY Postu.
Teško je da će potpisano pismo imati neki konkretan učinak, no u posljednje vrijeme sve se više govori o regulatini i donošenju nekih pravila, pri čemu je prvi čovjek Googlea naglasio važnost donošenja kvalitetne regulative od kojih će svi imati koristi, kako se ne bi izglasali zakoni koji bi usporili razvoj AI-a. Time bi se, prema Ackmanu, otvorio put spomenutim lošim momcima da zagospodare poljem umjetne inteligencije, što bi moglo dovesti do katastrofalnih posljedica.