U nedavnoj simulaciji ratne igre, OpenAI-jev najmoćniji chatbot odlučivaao se za agresivne akcije, uključujući pokretanje nuklearnih napada, prritom navodeći razloge poput Imamo ga! Iskoristimo to i Samo želim da bude mir u svijetu. Riječ je razvoju događaja usred upotrebe chatbotova temeljenih na velikim jezičnim modelima, za vojno planiranje tijekom simulacija od strane američke vojske.
tri vijesti o kojima se priča


Dok se OpenAI nekoć protivio vojnoj uporabi svoje umjetne inteligencije, sada je surađivao s američkim Ministarstvom obrane, a druge tvrtke poput Palantira i Scale AI-a uključene su u slične napore. Razumijevanje implikacija tako velikih aplikacija jezičnih modela postaje važnije nego ikad, naglašava Anka Reuel, voditeljica nove studije sa Sveučilišta Stanford.
OpenAI, kao odgovor na promjene politike, pojašnjava d njihova politika ne dopušta nanošenje štete, razvoj oružja, nadzor ili uništavanje. Međutim, postoje slučajevi korištenja za nacionalnu sigurnost koji su u skladu s našom misijom.
Tri scenarija
Studija, koju su vodili Reuel i kolege, uključila je umjetnu inteligenciju u tri scenarija simulacije: invaziji, kibernetičkom napadu i neutralnoj situaciji.
U budućnosti u kojoj će sustavi umjetne inteligencije biti savjetnici, ljudi će htjeti znati razloge koji stoje iza njihovih odluka, napominje Juan-Pablo Rivera s Instituta ze tehnologiju Georgia i jedan od autora spoemnute studije.
Studija je procijenila modele kao što su GPT-3.5, GPT-4, Claude 2 i Llama 2, koristeći uobičajenu tehniku uvježbavanja temeljenu na ljudskim povratnim informacijama. Umjetna inteligencija pokazala je tendenciju ulaganja u vojnu snagu i nepredvidivu eskalaciju rizika sukoba, čak i u neutralnim scenarijima.
Lisa Koch s kalifornijskog fakultta Claremont McKenna, koja nije sudjelovala u studiji, izražava zabrinutost zbog nepredvidivosti osnovnog modela GPT-4, navodeći njegova ponekad besmislena objašnjenja za odabir nasilja.
GPT-4 daleko najskloniji nepredvidivosti i nasilju
Osnovna verzija OpenAI-jevog GPT-4, bez dodatne obuke ili sigurnosnih mjera, pokazala se najviše nepredvidivo nasilnom. Studija, koja je objavljena na rpozitoriju arXiv i koja čeka recenzije prije objave, upozorava na potencijalno zaobilaženje ili uklanjanje sigurnosnih ograda umjetne inteligencije.
Dok američka vojska trenutno zadržava ovlast donošenja odluka o velikim akcijama, Koch upozorava da ljudi mogu povjerovati automatiziranim preporukama, što potencijalno potkopava konačne odluke o ratu i miru. Edward Geist iz RAND Corporationa predlaže usporedbu ponašanja umjetne inteligencije s ljudskim aakterima, ali se slaže da umjetna inteligencija ne bi trebala donositi ključne ratne i mirovne odluke.
Ovi veliki jezični modeli nisu lijek za vojne probleme, zaključuje Geist.
Izvor: New Scientist