Brojni znanstvenici tijekom posljednjih godinu dana više puta upozorili su na opasnost od tzv. robota ubojica, odnosno uređaja poput dronova i robota dizajniranih za ratove koje pokreće umjetna inteligencija i koji će sami moći odlučivati o metama napada. Ako policija i vojska u budućnosti zaista počnu koristiti ovakve uređaje i robote – a neke ih zemlje već razvijaju, to bi značilo kako će roboti i umjetna inteligencija donositi odluke o tome tko će živjeti, a tko će umrijeti te možemo samo zamisliti što bi se moglo dogoditi ako se takvi roboti otmu kontroli.
Prije nekoliko mjeseci veliki broj znanstvenika i stručnjaka na polju umjetne inteligencije i robotike potpisao je peticiju s kojom traže zabranu razvoja ovakvih robota, a ovog su tjedna znanstvenici iz Australije i Kanade poslali otvoreno pismo premijerima i vladama ovih zemalja od kojih od traže zauzimanje "čvrstog globalnog stava protiv naoružavanja umjetne inteligencije". Također, od vlada ovih zemalja traži se suradnja s ostalim zemljama u postizanju novog međudržavnog dogovora oko zabrane razvoja, odnosno korištenja ovakvih autonomnih vojnih sustava, na sličan način na koji je 1970. godine postignut dogovor oko nuklearnog naoružanja, napominju na Mashableu. Od ove dvije države tako se traži zauzimanje pozicije moralnih lidera i sprječavanje nove revolucije u ratovanju u kojoj glavnu ulogu više ne bi imali ljudi nego strojevi i umjetna inteligencija koja bi mogla raditi što god želi.
U dvije peticije, odnosno pisma koja su potpisana u roku od nekoliko mjeseci ukupno je više od 300 znanstvenika i stručnjaka za robotiku i umjetnu inteligenciju izrazilo zabrinutost oko autonomnih sustava, dronova i robota koje trenutno razvijaju vojske nekih od najvećih zemalja svijeta, a nad kojima ljudi neće imati kontrolu – dok su ljudi svjesni (ili bi barem trebali biti svjesni) koju se "moralnu crtu" tijekom ratova i sukoba ne smije prijeći, umjetna inteligencija vjerojatno neće imati tu svjesnost te bi njene akcije mogle biti katastrofalne i pogubne, možda i za cijelo čovječanstvo.