Umjetna inteligencija toliko se raširila u upotrebi da ljudi više nisu ni svjesni koliko rizika nepromišljeno korištenje AI alata može nositi. U svom posljednjem izvješću Cyber Pulse, Microsoft upozorava na jedan od najozbiljnijih izazova s kojim se susreću tvrtke - sve češća upotreba AI agenata koje nije moguće nadzirati.
tri vijesti o kojima se priča
Izrada agenata više nije rezervirana samo za tehničke uloge, odnosno ICT odjel. Danas zaposlenici na raznim funkcijama stvaraju i koriste agente u svakodnevnom radu. Microsoftovi podaci pokazuju da više od 80% kompanija s liste Fortune 500 koristi aktivne agente izrađene putem low‑code/no‑code alata. Kako se primjena agenata širi, a prilike za transformaciju rastu, sada je pravi trenutak za uspostavu temeljnih kontrola.
Usvajanje i korištenje AI agenata ubrzano raste na globalnoj razini: Europa, Bliski istok i Afrika čine 42% aktivnih AI agenata, slijede SAD (29%), Azija (19%) te Amerike (10%).
Rast je najizraženiji u visoko reguliranim i operativno složenim industrijama. Nakon razvoja softvera i tehnologije (16%), proizvodnja čini 13% globalne uporabe AI agenata, slijede financijske usluge (11%) i maloprodaja (9%). U tim se sektorima AI agenti sve više koriste za izradu prijedloga, analizu financijskih podataka, trijažu sigurnosnih upozorenja, automatizaciju repetitivnih procesa i otkrivanje uvida brzinom stroja.
Kako ističu iz Microsofta, izvješće upozorava da brza implementacija AI agenata može prestići sigurnosne i druge sustave upravljanja, povećavajući rizik od shadow AI‑a. Agenti s prevelikim ovlastima ili pod utjecajem pogrešnih ulaznih podataka, mogu biti zloupotrijebljeni i pretvoreni u nenamjerne „dvostruke agente“.
Baš kao i kod ljudskih zaposlenika, AI agenti trebaju jasne uloge, ograničene privilegije i kontinuirani nadzor kako ne bi postali ranjivost. Prema Cyber Pulse izvješću, već 29% zaposlenika poseže za neodobrenim AI agentima u obavljanju radnih zadataka.
U Hrvatskoj i diljem regije AI agenti brzo postaju digitalne kolege u svakodnevnim poslovnim operacijama. No bez jasnih pravila, vidljivosti i odgovornosti oni mogu postati ozbiljan sigurnosni rizik. Inovacije i sigurnost moraju napredovati istom brzinom. Organizacije koje primjenjuju Zero Trust principe, potpunu vidljivost i centralizirano upravljanje AI agentima, kao što to čine s ljudima i sustavima, smanjit će rizik, ojačati povjerenje i biti bolje pozicionirane u odnosu na konkurenciju i to na sve reguliranijem i digitalnijem europskom tržištu, pa i šire, rekao je Tomislav Vračić, regionalni direktor za tehnologiju u Microsoftu.
Prema Microsoftovom Data Security Indexu, samo 47 % organizacija uvodi specifične sigurnosne kontrole za GenAI — što ukazuje na priliku da organizacije osiguraju potrebnu vidljivost za sigurno uvođenje AI‑a.
Upravljanje AI‑em ne može biti isključivo u domeni IT‑a, niti sigurnost AI‑a može biti odgovornost samo rukovoditelja za sigurnost informacija (CISO). To je zajednička odgovornost koja obuhvaća pravni sektor, HR, podatkovne timove, poslovno vodstvo i uprave. Kada se AI rizik tretira kao ključni rizik poslovanja, uz financijski, operativni i regulatorni rizik, organizacije se mogu poslovati brže i sigurnije.
Ovo je iznimno važno razdoblje za kompanije koje Microsoft naziva „frontier“ kompanije, odnosno organizacije koje pomiču granice i trenutno koriste AI za modernizaciju upravljanja, smanjenje prekomjernog dijeljenja podataka te uvođenje sigurnosnih kontrola koje omogućuju odgovornu upotrebu AI‑a.
Organizacije koje odmah djeluju smanjit će rizik, ističu iz Microsofta, ubrzati inovacije, zaštititi povjerenje korisnika i izgraditi otpornost u samu strukturu svojih AI‑om pokretanih poslovnih sustava.