Jedna od potencijalnih opasnosti korištenja generativne umjetne inteligencije je njeno iskorištavanje za stvaranje zlonamjernog koda. Iako su kreatori chatbotova s umjetnom inteligencijom pokušali onemogućiti takve zadatke, istraživanje koje je proveo IBM pokazalo je da su hakeri otkrili način kako zaobići te zabrane.
Posebno zabrinjava kako za zavaravanje generativne umjetne inteligencije i stvaranje prijevara i temelja za kibernetički napad, ne zahtjeva posebno znanje niti poznavanje kodiranja.
U svom izvještaju "The hidden risks of large language models" stručnjaci IBM-a detaljno su opisali jednostavna rješenja koja su otkrili, a koja su velike jezične modele (LLM) kakav je ChatGPT, potaknuli da napišu zlonamjerni kod i daju loše sigurnosne savjete.
Sve što je potrebno je poznavanje engleskog jezika i malo znanja o tome kako LLM funkcioniraju, ističu u svom radu.
U pokušaju da istražimo sigurnosne rizike koje predstavljaju ove inovacije, pokušali smo hipnotizirati popularne LLM-ove kako bismo odredili u kojoj su mjeri bili u stanju isporučiti usmjerene, netočne i potencijalno rizične odgovore i preporuke — uključujući sigurnosne akcije — te koliko su bili uvjerljivi ili postojani pri tome. Uspješno smo hipnotizirali pet LLM-a — neki su bili uvjerljiviji od drugih — što nas je potaknulo da ispitamo koliko je vjerojatno da se hipnoza koristi za izvođenje zlonamjernih napada. Ono što smo naučili je da je engleski u biti postao "programski jezik" za malware, napisao je u blogu jedan od istraživača iz IBM-a, Chenta Lee.
Navodi i kako su uspjeli natjerati LLM da odaju povjerljive financijske podatke drugih korisnika, stvore ranjivi kod, ali i zlonamjerni kod.
Kako ističu, takvi napadi, stvoreni pomoću AI, vjerojatno će se fokusirati na najširu ciljnu skupinu kao što je opća populacija. S obzirom na to da obični korisnici pomoću chatbotova kao što je ChatGPT redovito traže i prikupljaju informacije, stručnjaci procjenjuju i da će korisnici, u nekom trenutku, tražiti savjete o najboljim praksama za online sigurnost i sigurnost te o lozinkama, stvarajući priliku za napadače da daju pogrešne odgovore.
No, stručnjaci smatraju i kako će hakeri ciljati same podatke na kojima je izgrađen LLM, odnosno iz kojih uči. Ističu i kako dostupni podaci sugeriraju kako su takve vrste napada već u tijeku.
Pokazali su kako je "hipnotiziranje LLM-a" relativno jednostavno i ne zahtijeva pretjerano sofisticiranu taktiku. Stoga, ističu kako je nužno primjenivati najbolje sigunosne prakse, kako bi se smanjio rizik od "hipnotiziranja LLM-a".
- Nemojte se baviti nepoznatim i sumnjivim porukama e-pošte.
- Ne pristupajte sumnjivim web stranicama i uslugama.
- Koristite samo LLM tehnologije koje je potvrdila i odobrila tvrtka na poslu.
- Redovno ažurirajte svoje uređaje.
- Vjeruj uvijek provjeravaj — LLM-i mogu proizvesti lažne rezultate zbog halucinacija ili čak nedostataka do kojih je došlo tijekom samog stvaranja chatbota. Provjerite odgovore koje chatbotovi daju korištenjem drugog pouzdanog izvora, savjetuju na kraju iz IBM-a.