Sigurnosni stručnjaci upozoravaju: Nemojte vjerovati svemu što vam chatbotovi s umjetnom inteligencijom napišu

Engleski u biti postao "programski jezik" za malware, upozoravaju iz IBM-a.

Martina Čizmić | 09.08.2023. / 14:45

Umjetna inteligencija, ilustracija (Foto: Getty Images)

 Jedna od potencijalnih opasnosti korištenja generativne umjetne inteligencije je njeno iskorištavanje za stvaranje zlonamjernog koda. Iako su kreatori chatbotova s umjetnom inteligencijom pokušali onemogućiti takve zadatke, istraživanje koje je proveo IBM pokazalo je da su hakeri otkrili način kako zaobići te zabrane.

Posebno zabrinjava kako za zavaravanje generativne umjetne inteligencije i stvaranje prijevara i temelja za kibernetički napad, ne zahtjeva posebno znanje niti poznavanje kodiranja.

U svom izvještaju "The hidden risks of large language models" stručnjaci IBM-a detaljno su opisali jednostavna rješenja koja su otkrili, a koja su velike jezične modele (LLM) kakav je ChatGPT, potaknuli da napišu zlonamjerni kod i daju loše sigurnosne savjete.

Lozinka AI može jednostavno i s velikom preciznošću saznati lozinke za mailove i druge online servise

Sve što je potrebno je poznavanje engleskog jezika i malo znanja o tome kako LLM funkcioniraju, ističu u svom radu.

U pokušaju da istražimo sigurnosne rizike koje predstavljaju ove inovacije, pokušali smo hipnotizirati popularne LLM-ove kako bismo odredili u kojoj su mjeri bili u stanju isporučiti usmjerene, netočne i potencijalno rizične odgovore i preporuke — uključujući sigurnosne akcije — te koliko su bili uvjerljivi ili postojani pri tome. Uspješno smo hipnotizirali pet LLM-a — neki su bili uvjerljiviji od drugih — što nas je potaknulo da ispitamo koliko je vjerojatno da se hipnoza koristi za izvođenje zlonamjernih napada. Ono što smo naučili je da je engleski u biti postao "programski jezik" za malware, napisao je u blogu jedan od istraživača iz IBM-a, Chenta Lee.

Navodi i kako su uspjeli natjerati LLM da odaju povjerljive financijske podatke drugih korisnika, stvore ranjivi kod, ali i zlonamjerni kod.

Kako ističu, takvi napadi, stvoreni pomoću AI, vjerojatno će se fokusirati na najširu ciljnu skupinu kao što je opća populacija. S obzirom na to da obični korisnici pomoću chatbotova kao što je ChatGPT redovito traže i prikupljaju informacije, stručnjaci procjenjuju i da će korisnici, u nekom trenutku, tražiti savjete o najboljim praksama za online sigurnost i sigurnost te o lozinkama, stvarajući priliku za napadače da daju pogrešne odgovore.

Sam Altman, OpenAI Šef OpenAI-a nervozan uoči izbora u SAD-u: To će biti moćna sila!

Umjetna inteligencija, ilustracija "Tehnologija ne poznaje granice i ne smije postati mač s dvije oštrice"

No, stručnjaci smatraju i kako će hakeri ciljati same podatke na kojima je izgrađen LLM, odnosno iz kojih uči. Ističu i kako dostupni podaci sugeriraju kako su takve vrste napada već u tijeku.

Pokazali su kako je "hipnotiziranje LLM-a" relativno jednostavno i ne zahtijeva pretjerano sofisticiranu taktiku. Stoga, ističu kako je nužno primjenivati najbolje sigunosne prakse, kako bi se smanjio rizik od "hipnotiziranja LLM-a".

- Nemojte se baviti nepoznatim i sumnjivim porukama e-pošte.
- Ne pristupajte sumnjivim web stranicama i uslugama.
- Koristite samo LLM tehnologije koje je potvrdila i odobrila tvrtka na poslu.
- Redovno ažurirajte svoje uređaje.
- Vjeruj uvijek provjeravaj — LLM-i mogu proizvesti lažne rezultate zbog halucinacija ili čak nedostataka do kojih je došlo tijekom samog stvaranja chatbota. Provjerite odgovore koje chatbotovi daju korištenjem drugog pouzdanog izvora
, savjetuju na kraju iz IBM-a.

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti