Microsoftov novi AI alat ima impresivne mogućnosti, ali predstavlja i veliki rizik

Zbog potencijalnih opasnosti iz Microsofta su odlučili da ovaj alat neće biti javno dostupan za korištenje.

Hrvoje Jurman Hrvoje Jurman | 22.04.2024. / 12:19

Microsoftov AI alat (Foto: Microsoft)

Jedna od najkontroverznijih tema vezanu uz tehnologiju i umjetnu inteligenciju posljednjih godina jest deepfake. Riječ je o tehnologiji i alatima putem kojih se samo na temelju nečijih fotografija i videozapisa može stvoriti novi lažni videozapis koji izgleda iznimno realno. S deepfakeom može se napraviti video s političarima koji će davati nekakve opasne izjave i time utjecati na npr. predizborne kampanje ili, što je još strašnije, može se koristiti za pornografiju pa na tijela pornoglumica ili glumaca postaviti lice drugih osoba ili napraviti takvu sliku i video samo uz pomoć tekstualnih uputa. Tako nešto nedavno se dogodilo Taylor Swift, a lažne fotografije proširile su se društvenim mrežama. Zahvaljujući toj tehnologiji ponekad zaista ne znamo što je istina, a što laž.

Aco Momčilović Može li umjetna inteligencija odlučiti izbore? Stručnjak za AI objasnio kako tehnologija može utjecati na izborni proces u Hrvatskoj

A ta je tehnologija sada postala još naprednija, odnosno potrebno je još manje sadržaja koji se može iskoristiti za stvaranje realnih videa. Microsoftov istraživački odjel iz Azije tako je predstavio novi eksperimentalni alat nazvan VASA-1 koji omogućuje stvaranje deepfake videozapisa na temelju samo jedne fotografije ili crteža/slike lica osobe. Korištenjem fotografije i crteža, kao i postojećih audio datoteka, moguće je napraviti vjerne videozapise lica tih osoba koje govore, uz realne pokrete lica i grimase kakve i inače ljudi rade dok razgovaraju. Istraživači ove tvrtke objavili su i primjere videa korištenjem njihove tehnologije te oni izgledaju dovoljno dobro da mogu prevariti ljude koji neće primijetiti razliku između takvih i stvarnih videa.

Nije teško zaključiti kako bi ovakva tehnologija u rukama osoba loših namjera mogla donijeti brojne probleme jer bi u kratko vrijeme i s jako malo sadržaja mogli napraviti brojna lažna videa. Toga su svjesni i u Microsoftu pa su tako iz ove tvrtke odlučili da neće objaviti demo ili konačan proizvod, kao niti omogućiti drugima razvoj vlastitih proizvoda na njihovoj tehnologiji, sve dok ne budu sigurni da će se njihova tehnologija koristit odgovorno i u skladu s odgovarajućom regulativom.

Ono što nije poznato, naglasili su na Engadgetu, jest namjeravaju li u svoju tehnologiju implementirati nekakve zaštitne mjere s kojima će se spriječiti njenu zlouporabu poput spomenute pornografije ili uporabe u svrhu miješanja u izborne procese.

Upozorenje na deepfake sadržaj, ilustrcija Tehnološki divovi sklapaju sporazum radi borbe protiv AI deepfake tehnologije i njezina utjecaja na političke izbore

Iako je ovaj alat treniran na fotografijama stvarnih (slavnih) osoba, pokazao se prilično uspješan i na umjetničkim slikama pa je tako oživio Mona Lisu koja je zapjevala, odnosno odrepala dio pjesme “Paparazzi” s glasom Anne Hathaway.
 

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti