Izmišlja i griješi: Umjetna inteligencija daje potencijalno opasne savjete za liječenje bolesti

Mogućnosti AI iznimno su velike te umjetna inteligencija može znatno unaprijediti medicinu, no kada je u pitanju terapija, slušajte samo liječnike.

Hrvoje Jurman Hrvoje Jurman | 27.08.2023. / 11:42

Robot doktor (Foto: Getty Images)

Dok smo se u prošlosti u potrazi za nekim informacijama za pomoć gotovo uvijek obraćali Googleu, u posljednje vrijeme sve više razgovaramo i s AI chatbotovima poput ChatGPT-a. Odgovori koje ovaj chatbot daje na neka kompleksna pitanja zaista mogu oduševiti i zadiviti, no uvijek treba imati na pameti kako to nisu savršeni alati. Mogu griješiti, ali i izmišljati i zato uvijek treba biti oprezan s njihovim odgovorima na upite.

AI robot "Ovo je čudno i uznemirujuće": Umjetna inteligencija otela se kontroli i počela raditi stvari koje ne bi smjela

To se pogotovo odnosi na odgovore vezane uz neka ozbiljnija pitanja, poput onih vezanih uz liječničke tretmane. Na to upozoravaju znanstvenici s Harvard Medical Schoola koji su ispitivali ovaj chatbot oko tretmana vezanih uz liječenje tumora, a rezultati koje su dobili prilično su zabrinjavajući. Naravno, jasno je kako u slučaju ovako ozbiljne dijagnoze nitko neće tražiti pomoć umjetne inteligencije, već će se posavjetovati s doktorima, no rezultati ovog istraživanja pokazuju koliko razgovor s AI može biti opasan, ako s chatbotovima razgovarate o zdravlju i terapiji.

Znanstvenici su od ChatGPT-a tražili preporuke u liječenju raka dojke, prostate i pluća, a odgovori koje su dobili su “potencijalno opasni”. Iako su odgovori sadržavali dijelom točne odgovore, AI je davala i lažne i izmišljene informacije. Više od trećine odgovora ChatGPT-a tako je sadržavalo prijedloge za tretmane liječenja koji nisu u skladu s liječničkim preporukama, dok su više od deset posto tih odgovora bile tzv. halucinacije, odnosno AI je izmislio odgovore koji nemaju nikakve veze s liječenjem tumora.

Ono na što je upozorio znanstvenik Danielle Bitterman koji je sudjelovao u ovom istraživanju, jest što ChatGPT komunicira na siguran i smislen način tako da se čini kako ima znanje o onome o čemu piše, a kada pri tome daje odgovore koji su kombinacija točnih i pogrešnih informacija, to predstavlja veliku opasnost.

Bitterman kaže kako veliki jezični modeli mogu položiti američki medicinski ispit za licenciranje, prikazati kliničko znanje i dati bolje dijagnoze od laika, no chatbotovi bazirani na umjetnoj inteligenciji nisu se pokazali pouzdanima u pružanju točnih preporuka za liječenje raka. Naglašava i kako developeri moraju imati veću odgovornost te distribuirati tehnologije koje ne izazivaju štetu, dok pacijenti moraju biti svjesni ograničenja te tehnologije.

Robot i pas, ilustracija AI bi uskoro mogao komunicirati i sa životinjama, ali...

Da je ChatGPT sklon pogreškama upozorili su još ranije i iz OpenAI. Nedugo nakon lansiranja ChatGPT-a 4 na svom su blogu objasnili kako ovaj AI chatbot nije u potpunosti pouzdan te može izmišljati činjenice i raditi greške u razmišljanju.

Izvor: NY Post

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti