Umjetna inteligencija više nije ograničena samo na prozore za dopisivanje. Rezervira karte, pregledava mrežne stranice, sastavlja račune i upravlja radnim procesima. No kako ti AI sustavi postaju sve samostalniji, nadzor njihovih sigurnosnih protokola sve više zaostaje, upozorava novo istraživanje.
tri vijesti o kojima se priča
Da bi se sagledala razina transparentnosti i sigurnosti AI agenata u stvarnom svijetu, međunarodni tim znanstvenika predstavio je AI Agent Index, koji dokumentira sposobnosti, transparentnost i sigurnosne prakse trideset naprednih AI agenata, temeljeći se na javno dostupnim podacima i dopisivanju s njihovim razvojnim timovima. Index je javno objavljen na preprint serveru arXiv, a u timu su sudjelovali znanstvenici s britanskog Sveučilišta Cambridge, američkog MIT-a, američkog Sveučilišta Stanford i Hebrejskog Sveučilišta u Jeruzalemu.
Najnovije godišnje izdanje tog Indexa, koje vodi Leon Staufer iz Leverhulmeova centra za budućnost inteligencije pri Sveučilištu Cambridge, obuhvaća provjerene podatke u 1350 kategorija zaključno s krajem 2025. godine. Uvršteni su javno dostupni i jednostavni za uporabu sustavi, koje razvijaju tvrtke s tržišnom vrijednošću većom od 920 milijuna eura. Oko 80 posto uključenih AI agenata predstavljeno je ili znatno nadograđeno u posljednje dvije godine.
Nedostaci u objavi sigurnosnih podataka
Samo četiri od trideset uvrštenih AI agenata objavljuju posebne "sistemske kartice" s opisom razine samostalnosti, ponašanja i procjene rizika. Njih 25 ne otkriva rezultate internih sigurnosnih testiranja, a 23 ne pruža podatke neovisnih provjera, pokazao je AI Agent Index. Poznati sigurnosni incidenti zabilježeni su kod pet AI agenata, dok su ranjivosti na ubacivanje zlonamjernih uputa dokumentirane kod dva AI agenta.
Od pet kineskih agenata obuhvaćenih analizom, samo je jedan objavio sigurnosni okvir ili standarde usklađenosti.
Mnoge AI tvrtke zadovolje formu sigurnosti umjetne inteligencije usredotočujući se na temeljni jezični model, dok o sigurnosti agenata izgrađenih na njemu objavljuju malo ili ništa. AI tvrtke su znatno otvorenije kada je riječ o sposobnostima njihovih AI agenata. Ta asimetrija u transparentnosti upućuje na blaži oblik prividnog isticanja sigurnosti, rekao je Staufer, a prenosi Tech Explore.
Bez odgovarajuće objave sigurnosnih podataka, ranjivosti mogu postati vidljive tek kada budu iskorištene, upozorio je Staufer.
Koncentrirana ovisnost i rizici samostalnosti AI agenata
Trinaest AI agenata pokazalo je najvišu razinu samostalnosti, ali samo četiri objavljuju zasebne sigurnosne procjene. Izvan Kine većina se oslanja na nekoliko temeljnih modela, GPT, Claude i Gemini, što stvara sustavnu ovisnost.
Ta zajednička ovisnost stvara potencijalne jedinstvene točke pogreške, upozorio je Staufer.
Preglednički AI agenti imaju najveće nedostatke u objavi sigurnosnih podataka, a slijede ih poslovni sustavi. Najmanje šest AI agenata oponaša ljudsko pregledavanje kako bi zaobišlo zaštite. Operateri mrežnih stranica više ne mogu razlikovati ljudskog posjetitelja, legitimnog AI agenta i AI bota koji prikuplja sadržaj, naglasio je Staufer.
U okviru najnovijeg ažuriranja AI Agent Indexa predstavljena je i studija slučaja o AI agentu Perplexity Comet, koji se oglašava tvrdnjom da može raditi baš poput ljudskog asistenta.