Zdravlje i umjetna inteligencija: Tipfeler i pripadnost ovom rodu vas može stajati liječničke pomoći

Sve više ljudi se za zdravstvene savjete okreće chatbotima umjetne inteligencije. No to baš i nije najbolji izbor.

Branimir Vorša | 01.07.2025. / 12:16 komentari
AI liječnik, ilustracija
AI liječnik, ilustracija (Foto: Getty Images)

Previđena greška u tipkanju ili zabrinut ton u pitanju vezanom za zdravstveni problem mogli bi neprimjetno utjecati na to hoće li umjetna inteligencija preporučiti medicinsku pomoć, osobito ako je autorica poruke žena. To je zaključak nove studije koju je vodila Abinitha Gourabathina s američkog Instituta za tehnologiju Massachusetts (MIT), a koja otkriva kako umjetna inteligencija može suptilno pojačati pristranosti u digitalnim savjetima o zdravlju.

tri vijesti o kojima se priča Mreže optičkih kablova iznad šume u Ukrajini Jesu mreže, ali nisu paukovi VIDEO Pogledajte nestvaran prizor na krošnjama ogromne šume u Ukrajini Pametni telefon, ilustracija Mali, ali značajna promjena Stavljate telefon na stol s ekranom prema gore? Evo zašto biste trebali promijeniti tu naviku Uređaj koji izvlači pitku vodu iz zraka Nije znanstvena fantastika Stvorili pitku vodu iz "ničega": Ovaj genijalan izum mogao bi spasiti mnoge živote

Gourabathina i njezin tim koristili su velike jezične modele (LLM‐ove) kako bi procijenili odgovore na više od 20.000 simuliranih upita pacijenata. Poruke su namjerno sadržavale tipfelere, emocionalne izraze, rodno neutralne zamjenice i neodređen ili nesiguran jezik kako bi odražavale različite stilove komunikacije korisnika. Ocijenjivani AI modeli uključivali su GPT‐4 tvrtke OpenAI, Llama‐3‐70b i Llama‐3‐8b tvrtke Meta, te Palmyra‐Med, model za zdravstvo koji je razvila američka tvrtka Writer.

"Podmukla pristranost"

Tim je otkrio da takve stilske varijacije povećavaju vjerojatnost da će AI preporučiti ostanak kod kuće za 7 do 9 posto. Poruke povezane sa ženskim rodom bile su osobito sklonije dobivanju savjeta protiv traženja liječničke pomoći. Modeli su također češće nego ljudski liječnici mijenjali preporuke za liječenje ovisno o spolu i načinu izražavanja u poruci. Rezultati njihovog istraživanja objavljeni su u časopisu FAccT ’25: Proceedings of the 2025 ACM Conference on Fairness, Accountability, and Transparency.

Podmukla pristranost može promijeniti ton i sadržaj AI savjeta, a to može dovesti do suptilnih, ali važnih razlika, rekao je za New Scientist Karandeep Singh sa Sveučilišta Kalifornija u San Diegu, koji nije sudjelovao u istraživanju.

Zayed Yasin iz tvrtke Writer naglasio je da se Palmyra‐Med ne bi smio koristiti bez uključivanja čovjeka u proces.

OpenAI i Meta odbili su komentirati rezultate studije, piše New Scientist.

Vezane vijesti