AI je sličniji ljudima no što biste mogli zamisliti, neki modeli čak i zabušavaju na poslu

Zanimljivo je da su iz Anthropica objavili pogreške koje su većinom bezopasne, no logično je postaviti pitanje - griješi li i u ozbiljnijim situacijama?

Martina Čizmić | 28.10.2024. / 10:25

Umjetna inteligencija, ilustracija (Foto: Getty Images)

Čini se kako su modeli umjetne inteligencije sličniji ljudima nego što bismo to mogli zamisliti. Naime, ni oni nisu imuni na malo "ljenčarenja".

Anthropicov trenutačni model umjetne inteligencije, Claude 3.5 Sonnet, pripremio je pravo iznenađenje tijekom demonstracije svojih sposobnosti. Dok su programeri pokušavali snimiti demonstraciju Claudeovih mogućnosti kodiranja, AI je imao druge ideje.

Digitalna manipulacija i kontrola, ilustracija Anthropic želi da njihov AI agent kontrolira vaše računalo

Kako se vidi u videu koji su objavili, Claude u jednom trenutku prestaje s kodiranjem, otvara Googleov pretraživač i pretražuje fotografije Nacionalnog parka Yellowstone. Da se radi o čovjeku, rekli bismo da mu je dosadilo pisati kod, te je potražio malo razbibrige.

U drugom primjeru programeri su snimali što se sve događa na ekranu, a Claude je zaustavio snimanje i uzrokovao gubitak svih snimaka. Iz Anthropica ističu kako vjeruju da taj postupak nije bio namjeran, već da je riječ o grešci.

S obzirom na to da Anthropic reklamira Claude 3.5 Sonnet kao "AI agenta koji može koristiti računala na isti način na koji to ljudi čine", odnosno da može "preuzeti kontrolu nad radnom površinom i raditi umjesto čovjeka", činjenica da se koji put poželi odmoriti možda i nije najbolja reklama.

Umjetna inteligencija Hoćete li vjerovati tehnologiji ili ljudima? Neki AI modeli već imaju moć uvjeravanja poput ljudi

Jer očito je da je Claude još daleko od savršenog.

Iako je to trenutačno stanje tehnologije, Claudeovo korištenje računala ostaje sporo i često podložno pogreškama, rekli su iz tvrtke. Postoje brojne radnje koje ljudi rutinski rade na računalima (povlačenje, zumiranje i tako dalje) koje Claude još ne može izvesti.

Zanimljivo je da su iz Anthropica objavili pogreške koje su većinom bezopasne, no logično je postaviti pitanje - griješi li i u ozbiljnijim situacijama? Primjerice, što kad Claude umjesto da piše kod, počne otvarati korisnikove društvene mreže i objavljivati statuse?

Budući da korištenje računala može pružiti novi vektor za poznatije prijetnje kao što su spam, dezinformacije ili prijevare, zauzimamo proaktivan pristup za promicanje njegove sigurne implementacije, ističu iz Anthropica.

Kako dodaju, to uključuje implementaciju novih klasifikatora za prepoznavanje kada se umjetna inteligencija koristi za obavljanje označenih aktivnosti, poput objavljivanja na društvenim medijima i pristupanja vladinim web-stranicama.

Nadajmo se i da će smisliti način da zaustave Claudea da mu misli lutaju. 

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti