Consiliul de Supraveghere al Meta, îngrijorat de moderarea automată a discursului instigator la ură
Consiliul de Supraveghere al Meta se arată îngrijorat de decizia companiei de a automatiza moderarea conținutului care incită la ură. Problema ar fi faptul că sistemul automat este eficient, iar postările ce încalcă normele Meta nu ajung să fie șterse.
În postare pe blogul Consiliului, Meta este avertizată cu privire la politica de moderare și la rezultatele slabe pe care aceasta le presupune. Totul a pornit de la un cazul unui meme antisemit postat pe Instagram, care afirma că Holocaustul nu s-ar fi întâmplat. Postarea a fost raportată de șase ori, începând cu septembrie 2020. În aceeași perioadă, Meta și-a schimbat normele și a precizat că negarea Holocaustului nu este acceptată pe platformele sale.
În toate cele șase cazuri de raportare, Meta nu a șters postarea – de patru ori sistemul automat de moderare a stabilit că postarea nu încalcă nici o regulă, iar de două ori conținutul a fost analizat de moderatori umani, care au luat aceași decizie.
Ultima raportare, din luna mai 2023, deși a fost respinsă, utilizatorul a făcut apel la Consiliul de Supraveghere al Meta. Concluzia Consiliul este că postarea a încălcat regulile platformei și a oferit date neadvărate sau denaturate despre Holocaust.
Problema fundamentală în acest caz, pe lângă automatizarea făcută în grabă de Meta, este faptul că normele nu sunt suficient de detaliate atunci când vine vorba de aplicarea lor. În cazul acestui meme, negarea Holocaustului a fost trecut sub eticheta de ”instigare la ură”, motiv pentru care nici moderatorii umani, nici cei automați nu au eliminat postarea. Consiliul cere Meta să introducă un sistem de etichetare mult mai precis, pentru a eficientiza aplicarea normelor.
„Consiliul are întrebări cu privire la eficacitatea și acuratețea sistemelor de moderare ale Meta în ceea ce privește eliminarea conținutului de negare a Holocaustului de pe platformele sale […] Moderatorii umani ai Meta nu au posibilitatea de a aplica normele într-un mod gradat (de exemplu, conținutul din acest caz este etichetat drept «discurs care incită la ură» în loc de «negare a Holocaustului»). Meta ar trebui să construiască sisteme de etichetare pentru aplicarea normelor la un nivel mai detaliat, în special având în vedere consecințele reale ale negării Holocaustului. Pe măsură ce Meta se bazează din ce în ce mai mult pe inteligența artificială pentru a modera conținutul, Consiliul este interesat de modul în care dezvoltarea unor astfel de sisteme poate fi modelată pentru a prioritiza o aplicare mai precisă a regulilor cu privire la discursului instigator la ură”, declară Consiliul în postarea sa.
Meta a oferit un răspuns Consiliului în care admite că postarea nu a fost eliminată (între timp a fost ștearsă) și că va analiza posibilitatea unor schimbări tehnice pentru sistemul de moderare.
Articole asemănătoare
Sky News Australia a eliminat zeci de videoclipuri de pe site, după ce YouTube i-a suspendat canalul pentru dezinformare
Apple scrie istorie: Capitalizare bursieră de 1000 de miliarde de dolari
YouTube testează rezumate generate de AI pentru videoclipuri
Un jurnalist de investigaţii din Olanda, împușcat pe stradă. Trei suspecți au fost reținuți
România sporește măsurile preventive împotriva coronavirus. Zborurile din și spre Italia, anulate