Autonomna vozila su sustavi umjetne inteligencije, koji koriste tehnike strojnog učenja za prikupljanje, analizu i transfer podataka, sve kako bi mogla donositi odluke koje u konvencionalnim automobilima i vozilima donose ljudski vozači.

No, kao i svaki drugi IT sustavi, i sustavi umjetne inteligencije podložni su kibernetičkim napadima koji mogu kompromitirati pravilno funkcioniranje vozila i izazvati velike probleme u prometu.

Novo izvješće Agencije za kibernetičku sigurnost Europske Unije (ENISA) te Centra za zajedničko istraživanje (JRC), koji je servis znanosti i znanja Europske komisije, baca svjetlo na rizike kibernetičke sigurnosti povezane s uvođenjem umjetne inteligencije u autonomna vozila te pruža preporuke kako ih izbjeći.

Kad nesigurno autonomno vozilo prijeđe granicu članice Europske unije, granicu prelaze i njegove ranjivosti. Sigurnost u tom smislu ne bi trebala naknadna misao, već preduvjet za pouzdano puštanje vozila na europske ceste, ističe Juhan Lepassaar, izvršni direktor ENISA-e.

Važno je da europski zakoni osiguraju da prednosti autonomne vožnje ne ostanu poništene zbog sigurnosnih rizika. Kako bi se podržalo donošenje odluka na razini EU, naše izvješće cilja povećanju razumijevanja AI tehnika korištenih u autonomnim vozilima, kao i rizike kibernetičke sigurnosti povezane s njima, kako bi se mogle poduzeti mjere koje će osigurati sigurnost umjetne inteligencije u autonomnoj vožnji, ističe generalni direktor JRC-a Stephan Quest.

Primjeri ranjivosti AI sustava u prometu

AI sustavi autonomnih vozila rade kontinuirano kako bi prepoznali prometne znakove, prometne oznake na cestama, druga vozila, procijenili brzinu drugih vozila i kako bi planirali daljnji put. Ako izuzmemo nenamjerne prijetnje, poput iznenadnih kvarova, ti su sustavi ranjivi na međunarodne napade koji imaju specifičan cilj ometanja AI sustava i remećenje kritičnih sigurnosnih funkcija u prometu..

Dodavanje boje na ceste kako bi se zavarala navigacija ili naljepnica na prometne snakove, poput znaka za obavezno zaustavljanje (STOP znak) kako bi se spriječilo do AI sustav prepozna isti znak, samo su neki primjeri takvih mogućih napada.

Takve izmjene mogu navesti AI sustav da na krivi način klasificira objekte te da se u konačnici počne ponašati opasno u prometu.

Preporuke za povećanje sigurnosti autonomnih vozila

U spomenutom izvješću navodi se i više preporuka o tome kako poboljšati AI sigurnost autonomnih vozila.

Jedna od tih preporuka jest i redovita provjera sigurnosti AI komponenti tijekom njihovog čitavog životnog vijeka. Sustavna provjera AI modela i podataka je ključna za osiguranje da vozilo uvijek funkcionira ispravno kad je suočeno s neočekivanim situacijama ili malicioznim napadom.

Druga preporuka kaže da bi se trebala provoditi kontinuirana procjena rizika uz pomoć inteligencije za prijetnje, što bi omogućilo prepoznavanje potencijalnih AI rizika i pojave novih prijetnji povezanih za uvođenje umjetne inteligencije u autonomnu vožnju.

Adekvatna AI sigurnosna politika i AI sigurnosna kultura trebale bi upravljati ukupnim opskrbnim lancem u autoindustriji.

Automobilska industrija isto tako bi trebala prigrliti sigurnost novim pristupom dizajnu za razvoj i uporabu AI funkcionalnosti, gdje bi kibernetička sigurnost postala središnji element digitalnog dizajna od samog početka.

U konačnici, bitno je i da automobilski sektor podigne razinu svoje pripremljenosti i dodatno učvrsti sposobnosti reakcije na incidente, kako bi se mogli nositi sa pojavom problema kibernetičke sigurnosti povezane s umjetnom inteligencijom.

Izvor: Helpsecurity.com