Interno izvješće Facebooka procurilo u javnost i pokazalo da su posljednjih šest mjeseci imali ogroman problem

Facebookovi inženjeri problem su prvi put primijetili u listopadu 2021. godine, kad je iznenadni nalet dezinformacija počeo strujati kroz News Feed, navodi se u izvješću koje je podijeljen interno unutar tvrtke prošli tjedan.

Branimir Vorša | 01.04.2022. / 11:08

Slika nije dostupna (Foto: Zimo)

Grupa Facebook inženjera identificirala je ogroman problem u rangiranju koji je izložio čak polovicu svih pregleda News Feeda te društvene mreže potencijalnim rizicama integriteta tijekom posljednjih šest mjeseci, piše portal The Verge, pozivajući se na interno izvješće o incidentu koje su dobili na uvid.

Facebookovi inženjeri problem su prvi put primijetili u listopadu 2021. godine, kad je iznenadni nalet dezinformacija počeo strujati kroz News Feed, navodi se u izvješću koje je podijeljen interno unutar tvrtke prošli tjedan.

Umjesto da suzbija objave počinitelja višestrukih dezinformacija, koje je pregledala mreža vanjskih takozvanih factcheckera, News Feed je davao distribuciju objava, povećavajući njihove preglede za čak 30 posto na globalnoj razini.

Problem otklonjen tek sredinom proteklog ožujka

Obzirom da nisu mogli pronaći korijen tog problema, Facebookovi inženjeri su promatrali kako je nalet jenjavao nekoliko tjedana kasnije, a zatim iznova buknuo sve dok problem s rangiranjem nije riješen 11. ožujka 2022. godine.

Osim postova označenih kao činjenično provjerenih, interna istraga je otkrila da, tijekom razdoblja bugova, Facebookovi sustavi nisu uspjeli pravilno degradirati vjerojatnu golotinju, nasilje, pa čak i ruske državne medije koje je društvena mreža nedavno obećala da će prestati preporučivati ​​kao odgovor na rusku invaziju na Ukrajinu.

Problem je interno označen kao SEV prve razine, što je oznaka rezervirana za tehničke krize visokog prioriteta, poput aktualnog blokiranja Facebooka i Instagrama u Rusiji.

Problem primjećen još 2019. no nije bio dovoljno ozbiljan

Glasnogovornik Mete Joe Osborne potvrdio je incident u izjavi za The Verge, rekavši da je tvrtka otkrila nedosljednosti u snižavanju ranga u pet različitih navrata, što je povezano s malim, privremenim povećanjem internih metrika.

U internim dokumentima stoji da je tehnički problem prvi put primjećen još 2019. godine, ali da nije stvorio primjetan utjecaj sve do listopada 2021. godine.

Pronašli smo uzrok u softverskom bugu i popravili problem, rekao je Osborne, dodajući da bug "nije imao značajan, dugoročni utjecaj na mjerne podatke” i nije se odnosio na sadržaj koji je zadovoljio prag sustava za brisanje.

Snižavanje ranga kao borba protiv ljudskih nagona

Godinama je Facebook promicao niži rang kao način poboljšanja kvalitete News Feeda i stalno je širio vrste sadržaja na koje djeluje njegov automatizirani sustav. Smanjenje ranga korišteno je kao odgovor na ratove i kontroverzne političke priče, što je izazvalo zabrinutost zbog zabrane u sjeni i poziva na donošenje zakona. Unatoč sve većoj važnosti, Facebook se tek treba otvoriti o svom utjecaju na ono što ljudi vide i, kao što ovaj incident pokazuje, što se događa kada sustav krene po zlu.

Godine 2018., izvršni direktor Mark Zuckerberg objasnio je da se snižavanje ranga bori s prirodnim porivom koji ljudi imaju da se upuštaju u interakciju sa senzacionalističkim i provokativnim sadržajem.

Naše istraživanje sugerira da bez obzira na to gdje povučemo granice dopuštenog, kako se dio sadržaja približava toj granici, ljudi će se u prosjeku više baviti njime, čak i kada nam kasnije kažu da im se sadržaj ne sviđa, napisao je Zuckerberg tada u objavi na Facebooku.

Smanjenje ranga ne samo da potiskuje ono što Facebook naziva "graničnim" sadržajem koji se približava kršenju njegovih pravila, već i sadržaj za koji njegovi sustavi umjetne inteligencije sumnjaju da krši pravila, ali mu je potreban daljnji ljudski pregled.

Facebook je u rujnu 2021. objavio popis na visokoj razini sadržaja kojeg degradiraju, ali nisu otkrili kako točno degradacija utječe na distribuciju zahvaćenog sadržaja.

U međuvremenu, čelnici Facebooka redovito se hvale kako njihovi sustavi umjetne inteligencije svake godine postaju sve bolji u proaktivnom otkrivanju sadržaja kao što je govor mržnje, pridajući veću važnost tehnologiji kao načinu moderiranja u velikim razmjerima.

Potrebna veća transparentnost

Prošle godine, Facebook je rekao da će početi snižavati sve političke sadržaje u News Feedu, što je dio nastojanja izvršnog direktora Marka Zuckerberga da vrati Facebook aplikaciju njezinim bezbrižnijim korijenima.

Iako zasad ne postoje nikakve naznake da je iza ove nedavne greške u rangiranju stajala zla namjera, koja bi utjecala na polovicu pregleda News Feeda tijekom razdoblja od nekoliko mjeseci, incident pokazuje zašto je potrebna veća transparentnost u internetskim platformama i algoritmima koje oni koriste, kaže Sahar Massachi, bivši član Facebookovog tima za građanski integritet.

U velikom složenom sustavu poput ovog, bugovi su neizbježni i razumljivi. Ali što se događa kada moćna društvena platforma ima jednu od ovih slučajnih grešaka? Kako bismo uopće znali? Potrebna nam je stvarna transparentnost kako bismo izgradili održivi sustav odgovornosti kako bismo im mogli pomoći da brzo shvate ove probleme, rekao je Massachi, koji je sada suosnivač neprofitne organizacije Integrity Institute.

Izvor: The Verge

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti