Američka AI tvrtka Anthropic i Ministarstvo obrane SAD-a nalaze se u ozbiljnom sporu, koji je eskalirao izvan zatvorenih pregovora, prelijevajući se na objave na društvenim mrežama i javne izjave, potaknute direktnim citatima neimenovanih dužnosnika Pentagona. U središtu tog spora nalazi se jednostavna, ali ključna fraza: "bilo koja zakonita upotreba". Taj izraz dao bi američkoj vojsci neograničenu moć za uporabu umjetne inteligencije u masovnom nadzoru i upravljanju smrtonosnim autonomnim oružanim sustavima, sposobnim za identifikaciju i eliminaciju ciljeva bez ljudske kontrole.
tri vijesti o kojima se priča
Glavni tehnički direktor Pentagona Emil Michael (bivši izvršni direktor Ubera), navodno je pokretač prijetnje da se Anthropic klasificira kao tvrtka koja predstavlja "rizik u opskrbnom lancu", prema dvjema osobama upućenim u pregovore, piše portal The Verge.
Hajka Pentagona na Anthropic
Ta klasifikacija obično se dodjeljuje ozbiljnim prijetnjama američkoj nacionalnoj sigurnosti, uključujući strane kibernetičke napade. Izvršni direktor Anthropic-a Dario Amodei trebao bi se sastati s američkim ministrom obrane Peteom Hegsethom u, kako je neimenovani dužnosnik američkog ministarstva obrane opisao, poseri se ili se makni sa školjke tipu sastanka, piše The Verge.
Geoffrey Gertz, viši suradnik u Centru za novu američku sigurnost (CNAS), izjavio je za isti portal da je Pentagon mogao klasificirati Anthropic bez javnog obavještavanja. Ovo je dodatni korak da ih se posebno označi kao rizik za američku nacionalnu sigurnost i spriječi druge tvrtke da posluju s Anthropicom, što je naglašeno pretjerana mjera, rekao je.
Ako klasifikacija postane službena, Anthropicov ugovor s Pentagonom u vrijednosti od 185 milijuna eura završio bi, a obrambene tvrtke poput AWS-a, Palantira i Andurila, morale bi napustiti Anthropicov AI sustav Claude. Ono što je zanimljivo, jest da je Claude prvi i jedini AI model odobren za rukovanje povjerljivim vojnim informacijama u SAD-u.
Glavni spor leži u...?
Pentagon je nedavno potvrdio potpisivanje ugovora za korištenje Groka, modela umjetne inteligencije tvrtke xAI Elona Muska, u klasificiranim sustavima. Mislim da je logičniji jednostavniji pristup, da Anthropic jednostavno ne može sudjelovati u određenim Pentagonovim projektima. No s obzirom na izvještavanje i pokušaje da se sve predstavi kao kazneni potez protiv Anthropica, vrijedi razmotriti oba scenarija, ističe Gertz.
Glavni spor leži u "politici prihvatljive uporabe" Anthropica, koja zabranjuje autonomne kinetičke operacije i masovni domaći nadzor. Izvor upućen u pregovore rekao je da tvrtka odbija dopustiti takve primjene, jer zakoni nisu odredili što AI može učiniti te da tehnologija još nije spremna za potpuno autonomno oružje bez ljudi u procesu odlučivanja, piše The Verge.
Hamza Chaudhry, voditelj za AI i nacionalnu sigurnost u američkom Institutu za budućnost života, naglasio je potrebu usklađenosti s američkim federalnim direktivama. Politika prihvatljive uporabe Anthropica odražava iste smjernice i dok Pentagon službeno ne opozove, ne pojasni ili ne ažurira te politike, veliko pitanje je može li se tu tvrtku prisiliti da odstupi od politike koju je sama vlada načelno prihvatila, rkeao je Chaudry za The Verge.
OpenAi, xAI i Google pristali na sve...
Hegseth je u siječnju u memorandum uključio zahtjev da se "bilo koja zakonita upotreba" primijeni u nabavi AI-a unutar 180 dana, dajući prednost brzini nad sigurnošću. Moramo prihvatiti da rizici sporog djelovanja nadmašuju rizike nesavršene usklađenosti, napisao je američki ministar obrane u tom memorandumu.
OpenAI, xAI i Google odmah su ispregovarali ugovore s Pentagonom da se usklade, no nijedan njihov model nema potrebnu razinu pristupa povjerljivim vojnim informacijama da zamijeni Claude.
Claude je jedini napredni AI model koji se koristi na potpuno klasificiranim mrežama Pentagona... Oznaka bi značila da svaki izvođač obrane koji želi raditi s vladom mora potvrditi da je uklonio svu tehnologiju Anthropic-a iz svojih sustava, naglasio je Chaudhry.
Izvještaji da je Claude korišten u hvatanju predsjednika Venezuele Nicolása Madura dodatno su zaoštrili napetosti. Stručnjaci za umjetnu inteligenciju sugeriraju da bi drugi AI laboratoriji mogli osporiti zahtjeve Pentagona da se njihova tehnologija uskladi s politikom "bilo koje zakonite upotrebe", no njihova djelovanja su ograničena federalnim pravilima javne nabave koja zabranjuju koordinaciju ili zajedničko pregovaranje s drugim tvrtkama o istim uvjetima.
Bio bi to stvarno dobar trenutak za druge AI tvrtke da kažu: Čekajte, što radite s našom tehnologijom?... Postoje drugi načini vođenja poslovanja bez ubijanja ljudi u poslovnom modelu, komentirao je za The Verge na kraju William Fitzgerald, bivši zaposlenik Google-a.