Iza svakog naprednog AI modela skriva se tko će odlučiti hoće li biti siguran ili opasan,m a jedan računalni znanstvenik postao je ključni čuvar sigurnosti. Zico Kolter, profesor na američkom Sveučilištu Carnegie Mellon, predsjeda Odborom za sigurnost i zaštitu OpenAI-ja, četveročlanom skupinom ovlaštenom za zaustavljanje puštanja u opticaj AI sustava koji se smatraju nesigurnima.
tri vijesti o kojima se priča
Ovdje ne govorimo većinom samo o egzistencijalnim problemima vezanim za AI. Govorimo o cijelom spektru pitanja sigurnosti i zaštite te kritičnim temama koje se javljaju kada počnemo razgovarati o široko korištenim AI sustavima, pojasnio je Kolter za Associated Press (AP). Njegova ovlast obuhvaća tehnologiju koja seže od AI-a sposobnog za stvaranje oružja masovnog uništenja do chatbotova koji mogu utjecati na mentalno zdravlje.
Regulatorna kontrola postala nužnost
OpenAI je započeo prije deset godina kao neprofitni istraživački laboratorij s ciljem stvaranja AI-a superiornog ljudima, za dobrobit čovječanstva. Međutim, izdavanje ChatGPT-a 2022. godine pokrenulo je komercijalni bum u razvoju umjetne inteligencije, privukavši kritike da je OpenAI žurio s proizvodima na tržištu, na štetu sigurnosti. Privremeno uklanjanje izvršnog direktora Sama Altmana 2023. godine pojačalo je zabrinutost oko odstupanja od ranije navedene prvotne misije tog sad već AI diva.
Regulatorna kontrola pojačala se kada je OpenAI nastojao restrukturirati poslovanje. Glavni državni odvjetnik američke savezne države Kalifornije Rob Bonta i glavna državna odvjetnica američke savezne države Delaware Kathy Jennings, učinili su da Kolterov nadzor bude ključni uvjet za osnivanje nove korporacije OpenAI-ja u javnom interesu, koja je tehnički pod kontrolom neprofitne Zaklade OnepnAI-ja. OpenAI zauzvrat može lakše prikupljati kapital i ostvarivati profit, ali samo pod nadzorom sigurnosti AI sustava.
Sigurnost prije profita
Dogovori obvezuju OpenAI da prednost da sigurnosti nad financijskim interesima. Kolter postaje član odbora neprofitne organizacije. Iako neće sjediti u odboru profitne korporacije, ima pravo prisustvovanja njezinim sastancima i pristup svim informacijama o sigurnosti AI-a, prema memorandumu Roba Bonte. Kolter je jedina osoba osim Bonte koja je posebno navedena u tom dokumentu.
Imamo mogućnost učiniti stvari poput zahtjeva za odgodu izdavanja modela dok se ne ispune određene sigurnosne mjere, rekao je Kolter, odbijajući otkriti je li njegov odbor ikada prethodno koristio tu ovlast. U odboru je i bivši general američke vojske Paul Nakasone, bivši zapovjednik Američkog kibernetičkog zapovjedništva.
Najvažniji budući izazovi AI-a
Kolter je naveo nadolazeće izazove: kibernetičku sigurnost, ranjivosti u parametrima modela i nove prijetnje jedinstvene za naprednu AI. Kolter je upozorio na različite rizike AI sustava.
Omogućuju li AI modeli zlonamjernim korisnicima znatno veće sposobnosti u stvaranju biološkog oružja ili izvođenju zlonamjernih kibernetičkih napada?, navodi kao primjer Kolter te dodaje i da AI može utjecati na mentalno zdravlje. Kako korištenje ovih modela utječe na ljude i što takva interakcija može izazvati?, rekao je dajući novi primjer.
Kolter se počeo baviti istraživanjem strojnog učenja još kao brucoš na američkom Sveučilištu Georgetown.
Kad sam počeo raditi u strojnome učenju, to je bila ezoterična, vrlo specifična stvar. Zvali smo to strojno učenje jer nitko nije htio koristiti termin AI, jer je AI bio staromodni pojam koji je previše obećavao i premalo ispunjavao, rekao je.
AI analitičari, poput Nathana Calvina iz američke neprofitne organizacije EncodeAI, izražavaju optimizam, ali s oprezom.
Mislim da on ima pozadinu koja ima smisla za ovu ulogu. Čini se kao dobar izbor za vođenje ovoga, rekao je Calvin, napominjući da značaj navedenih mjera ovisi o tome hoće li odbor OpenAI-a doista ozbiljno provoditi sigurnosne obveze.