Nacionalni centar za kibernetičku sigurnost (NCSC) Ujedinjenog Kraljevstva objavio je zanimljivo upozorenje namijenjeno svima koji koriste ili planiraju koristiti velike jezične modele (LLM) za izgradnju dodatnih alata u tvrtkama. NCSC u svom je upozorenju kao najveći rizik istaknuo slabosti i ranjivosti cijelog sustava koje još uvijek nisu riješene.
U svom su blogu priznali da veliki jezični modeli, odnosno alati pogonjeni umjetnom inteligencijom izazivaju velik interes među korisnicima, što je dovelo do toga da organizacije u svim sektorima istražuju korištenje tehnologije unutar svojih usluga.
Stručnjaci NCSC-a upozoravaju da se, budući da se radi o području koje se brzo razvija, modeli stalno ažuriraju, ali i da se na tržištu pojavljuju mnogobrojne nove tvrtke koje nude AI usluge. Takav nagli razvoj tržišta, ističu iz NCSC-a, mogao bi značiti da novoosnovana tvrtka koja danas nudi uslugu možda neće postojati za dvije godine.
Organizacije koje grade usluge pomoću LLM-a stoga moraju uzeti u obzir činjenicu da bi se modeli mogli promijeniti znatno promijeniti, što bi rezultiralo prestankom postojanja ključnog dijela integracije u nekom trenutku.
NCSC je napomenuo i da LLM-ovi sa sobom mogu nositi određene rizike kada su uključeni u poslovne procese organizacije. Kao primjer naveli su činjenicu da LLM-ovi "ne mogu razlikovati uputu od podataka koji pomažu u dovršavanju uputa". Dali su primjer chatbota koji pokreće AI, a koji koristi banka, a kojeg se može prevariti da pošalje novac napadaču ili izvrši neovlaštene transakcije ako su uneseni upiti strukturirani na pravi način.
Organizacije koje grade usluge koje koriste LLM-ove moraju biti oprezne, jednako kao što bi bile da koriste proizvod ili kodove koji su u beta-fazi, dodao je NCSC.