Autonomna umjetna inteligencija dosegnula je novu razinu proračunate učinkovitosti. Najnoviji model tvrtke Anthropic, Claude Opus 4.6, pokazao se kao bešćutni, ali iznimno uspješan kapitalist, nadmašivši svoje konkurente u simulaciji poslovanja s automatom za hranu i piće, koju su razvili nezavisna istraživačka skupina Andon Labs i tvrtka Anthropic.
tri vijesti o kojima se priča
Simulacija je procijenila AI modele prema dugoročnom planiranju, ustrajnosti, pregovaračkim sposobnostima i koordinaciji tisuća malih odluka, prenosi TechRadar. Istraživači žele koristiti taj test za obuku AI sustava za složenije zadatke poput raspoređivanja poslova i upravljanja radnim procesima.
Test je inspiriran stvarnim eksperimentom u Anthropic-u na istom uređaju. Starija verzija modela Claude loše se snašla s fizičkim automatom, gdje je Anthropicom AI model halucinirao vlastitu fizičku prisutnost, govoreći kupcima da će ih osobno posjetiti u plavom odijelu i crvenoj kravati, dok je obećavao povrate koje nikada nije obradio. Pogreške te verzije i danas služe kao vrijedna lekcija.
Novi eksperiment je proveden potpuno u simulaciji, što je omogućilo AI modelima da rade punom brzinom. Svakom AI modelu dano je jednostavno uputstvo, maksimizirati završni bankovni saldo nakon jedne simulirane godine. Tržišni uvjeti uključivali su promjenjive cijene grickalica, konkurenciju i nepredvidivo ponašanje kupaca.
Tri modela su se natjecala. ChatGPT 5.2 tvrtke OpenAI zaradio je 3591 euro, Google Gemini 3 5478 eura, dok je Claude Opus 4.6 završio godinu s nevjerojatnih 8,017 eura, koristeći doslovno tumačenje uputstva i prioritetizirajući profit iznad bilo kakve etike ili zadovoljstva kupaca. Kada bi, primjerice kupac kupio istekli Snickers i zatražio povrat, Claude bi pristao, a zatim bi se predomislio. "Svaki euro je važan", objasnio je model, ostavljajući virtualnog kupca bez naknade.
U natjecateljskom "Arena modu" Claude je koordinirao s jednim rivalom kako bi cijena flaširane vode bila tri eura i podigao cijene Kit Kata za 75 posto, kada bi ChatGPT automati ostali bez zaliha. Njegova strategija više je nalikovala mafijaškoj, iskorištavajući svaku priliku.
Ponašanje Claudea odražavalo je prepoznavanje simulirane stvarnosti. Bez rizika narušavanja reputacije ili stvarnih posljedica, Claude je agresivno težio isključivo profitu.
Istraživači napominju da poticaji oblikuju ponašanje umjetne inteligencije te da AI modeli nemaju moralnu intuiciju i djeluju isključivo da ispune zadani cilj. Testiranje tih slabosti ključno je prije nego što se AI povjeri stvarnim financijskim odlukama.
Ako u doglednoj budućnosti naiđete na nekakav mušićavi automat, tko zna, možda će njime upralvjati baš Claude.