Nacionalni centar za kibernetičku sigurnost (NCSC) Ujedinjenog Kraljevstva objavio je zanimljivo upozorenje namijenjeno svima koji koriste ili planiraju koristiti velike jezične modele (LLM) za izgradnju dodatnih alata u tvrtkama. NCSC u svom je upozorenju kao najveći rizik istaknuo slabosti i ranjivosti cijelog sustava koje još uvijek nisu riješene. 

tri vijesti o kojima se priča Droga, ilustracija Roditelji, oprez! "Najopasnija mreža za mlade": Omiljena platforma prepuna je seksualnih predatora i dilera droge Zračni taksi Joby Aviationa Napravljen veliki korak Počinje velika tehnološka revolucija u zrakoplovstvu: Nebom će dominirati potpuno drukčije letjelice Cheyava Falls u dolini Neretva Vallis u krateru Jezero na Marsu Na Marsu NASA zagolicala maštu javnosti: U dolini Neretve pronađeni tragovi izvanzemaljskog života?

U svom su blogu priznali da veliki jezični modeli, odnosno alati pogonjeni umjetnom inteligencijom izazivaju velik interes među korisnicima, što je dovelo do toga da organizacije u svim sektorima istražuju korištenje tehnologije unutar svojih usluga.

Slika nije dostupna Sigurnosni stručnjaci upozoravaju: Nemojte vjerovati svemu što vam chatbotovi s umjetnom inteligencijom napišu

Stručnjaci NCSC-a upozoravaju da se, budući da se radi o području koje se brzo razvija, modeli stalno ažuriraju, ali i da se na tržištu pojavljuju mnogobrojne nove tvrtke koje nude AI usluge. Takav nagli razvoj tržišta, ističu iz NCSC-a, mogao bi značiti da novoosnovana tvrtka koja danas nudi uslugu možda neće postojati za dvije godine.

Organizacije koje grade usluge pomoću LLM-a stoga moraju uzeti u obzir činjenicu da bi se modeli mogli promijeniti znatno promijeniti, što bi rezultiralo prestankom postojanja ključnog dijela integracije u nekom trenutku.

Slika nije dostupna I Europol upozorava na opasnosti koje prijete zbog umjetne inteligencije: Ova tri područja treba posebno držati na oku

NCSC je napomenuo i da LLM-ovi sa sobom mogu nositi određene rizike kada su uključeni u poslovne procese organizacije. Kao primjer naveli su činjenicu da LLM-ovi "ne mogu razlikovati uputu od podataka koji pomažu u dovršavanju uputa". Dali su primjer chatbota koji pokreće AI, a koji koristi banka, a kojeg se može prevariti da pošalje novac napadaču ili izvrši neovlaštene transakcije ako su uneseni upiti strukturirani na pravi način.

Organizacije koje grade usluge koje koriste LLM-ove moraju biti oprezne, jednako kao što bi bile da koriste proizvod ili kodove koji su u beta-fazi, dodao je NCSC.