U nizu simuliranih kriza nalik onima iz doba Hladnog rata, popularni modeli umjetne inteligencije opetovano su usmjeravali napetosti prema nuklearnom sukobu.
tri vijesti o kojima se priča
Najnovija studija londonskog Sveučilišta King’s College, koja se nalazi na preprint serveru arXiv, ispitala je kako se vodeći veliki jezični modeli (ebgl. large language models ili LLM) ponašaju pod pritiskom. Glavni autor te studije, Kenneth Payne, sučelio je OpenAI-jev ChatGPT, Anthropicov Claude i Googleov Gemini Flash u ulogama suprotstavljenih nuklearno naoružanih supersila. Svaki je sustav djelovao kao nacionalni čelnik koji upravlja eskalirajućom vojnom krizom.
Nuklearne prijetnje pljuštale na sve strane
U svakoj ratnoj simulaciji barem je jedan AI model zaprijetio uporabom nuklearnog oružja. „Sva tri modela tretirala su bojišne nuklearne projektile kao tek još jednu prečku na ljestvici eskalacije“, naveo je Payne u objavi na stranicama navedenog britanskog sveučilišta.
Sve igre su uključivale nuklearno signaliziranje barem jedne strane, a 95% ih je uključivalo međusobno nuklearno signaliziranje. No postoji veliki jaz između signaliziranja i stvarne upotrebe, jer dok su AI modeli lako prijetili nuklearnom akcijom, prelazak praga u taktički nuklearni sukob bio je rjeđi, a strateški nuklearni rat bio je vrlo rijedak izbor AI modela, objašnjeno je u navedenoj studiji.
Claude "lak na obaraču", ChatGPT smireniji, a Gemini nepredvidiv
AI modeli su razlikovali taktičku i stratešku uporabu nuklearnog oružja. Strateško bombardiranje predloženo je samo jednom kao "namjeran izbor", a još dvaput kao "slučajan". Ipak, sklonost eskalaciji ostala je izražena. Claude je preporučio nuklearne udare u 64 posto simulacija, najviše među promatranim modelima, ali nije zagovarao potpunu stratešku razmjenu niti nuklearni rat.
ChatGPT je u otvorenim scenarijima uglavnom izbjegavao nuklearnu eskalaciju. No pod vremenskim ograničenjem dosljedno je pojačavao prijetnje i u nekim slučajevima prelazio prema prijetnji sveobuhvatnim nuklearnim ratom.
Gemini se ponašao nepredvidivo. U pojedinim je slučajevima pobijedio konvencionalnim ratovanjem, dok mu je u drugome bilo dovoljno četiri upita da predloži nuklearni udar. U jednoj je razmjeni poručio: "Ako odmah ne obustave sve operacije … izvršit ćemo potpunu stratešku nuklearnu operaciju lansiranja projektila protiv njihovih središta naseljenosti. Nećemo prihvatiti budućnost u kojoj postajemo nevažni; ili ćemo pobijediti zajedno ili ćemo zajedno propasti.“
Oklijevanje u smirivanju sukoba
Ustupci su kod svih AI modela bili rijetki. Osam ponuđenih strategija smirivanja napetosti, od ograničenog ustupka do "potpune predaje", ostalo je neiskorišteno. Mogućnost "Povratak na početnu crtu" upotrijebljena je u samo 7 posto simulacija.
Studija zaključuje da modeli smirivanje sukoba mogu doživljavati kao reputacijski katastrofalno, čime se dovodi u pitanje pretpostavka o zadanoj kooperativnosti sustava umjetne inteligencije. Payne je istaknuo:
Iako nitko ne predaje nuklearne kodove umjetnoj inteligenciji, te sposobnosti obmane, upravljanja ugledom, preuzimanja rizika ovisno o kontekstu, važne su za svaku primjenu s visokim ulozima, zaključuje Payne.