Ove je godine zapošljavanje u tvrtkama koje se bave umjetnom inteligencijom eksplodiralo. Treba li uopće podsjetiti na puste milijune dolara koje je Meta potrošila ne bi li u svoj Meta AI tim dovela najbolje stručnjake za umjetnu inteligenciju?
tri vijesti o kojima se priča
Kako se industrija razvijala, a s njom i različiti oblici umjetne inteligencije, tako su se počeli pojavljivati i poslovi koji do tad nisu ni postojali.
Jedan od takvih poslova pojavio se upravo u OpenAI i to za godišnju plaću od više od pola milijuna dolara i vlasnički udio u tvrtki. Iako bi iz naše, hrvatske, perspektive to bio izvrstan novac, zanimljiv je opis posla koji bi dotična osoba trebala obavljati za taj iznos.
Kako je naveo izvršni direktor OpenAI-ja, Sam Altman, traži se voditelj odjela za pripravnost koji će se morati pozabaviti rastućom zabrinutošću oko otkrivanja kritičnih ranjivosti u sustavima umjetne inteligencije i utjecaja na mentalno zdravlje korisnika.
Altman je u objavi na platformi X naveo kako su najbolji modeli umjetne inteligencije "sposobni za mnoge sjajne stvari", ali i da te sjajne stvari dolaze sa "stvarnim izazovima" koje je potrebno hitno razmotriti.
We are hiring a Head of Preparedness. This is a critical role at an important time; models are improving quickly and are now capable of many great things, but they are also starting to present some real challenges. The potential impact of models on mental health was something we…
— Sam Altman (@sama) December 27, 2025
Iako nije precizirao na što točno misli, dovoljno je pogledati sve s čim se industrija umjetne inteligencije suočava posljednjih mjeseci. Od činjenice da se sustavi umjetne inteligencije sve više koriste za sofisticirane kibernetičke napade, lažiranje različitih dokumenata, širenje lažnih informacija, podilaženje korisnicima pa sve do zabrinjavajući "razgovora" koje vode s korisnicima, a koji su doveli do razvoja "ljubavi prema AI sustavima", ali i "AI psihoze" i ozbiljnih problema s mentalnim zdravljem.
Stoga ne iznenađuje da u OpenAI traže osobu koja bi trebala na vrijeme uočiti takve rizike i osmisliti odgovor na njih. Ključne odgovornosti uključuju razvoj evaluacija sposobnosti, modela prijetnji i ublažavanja u kritičnim područjima rizika, uključujući kibernetičku sigurnost, biosigurnost i samousavršavajuće sustave umjetne inteligencije.
Osim toga, osoba kakvu OpenAI traži trebala bi "pomoći svijetu da shvati kako osposobiti 'branitelje' kibernetičke sigurnosti vrhunskim mogućnostima, a istovremeno osigurati da ih napadači ne mogu iskoristiti za nanošenje štete.
Altman nije skrivao činjenicu da će posao biti stresan i da od osobe koja ga dobije zahtijeva da odmah "uskoči u vatru".
Treba istaknuti kako ovo nije nova poziciji. U OpenAI ju je ranije vodio Aleksander Madry, no nakon višestrukih promjena u sigurnosnim timovima OpenAI, ostala je ispražnjena.