Când cercetătorii americani și europeni au încărcat imagini cu membrii congresului american în serviciul Google de recunoaștere a imaginilor, acesta a aplicat etichete diferite bărbaților și femeilor. Dacă la bărbați cuvintele cheie au fost au fost „oficial” și „om de afaceri”, la femei etichetele aplicate erau, printre altele „zâmbet” și „bărbie”. Se poate deduce că software-ul a fost antrenat pe baze discriminatorii: programul întărește stereotipul conform căruia femeile trebuie să fie drăguțe, iar bărbații sunt liderii în afaceri.
Prejudecăți în loc de răceală matematică
Acestea sunt câteva dintre concluziile unui studiu realizat de o echipă condusă de Carsten Schwemmer, de la Institutul GESIS Leibniz pentru Științe Sociale din Köln. Echipa a colaborat cu cercetători de la New York University, American University, University College Dublin, University of Michigan și asociația California YIMBY, informează Wired.
Cercetătorii au folosit serviciul de inteligență artificială (AI) de la Google, Amazon și Microsoft. Au fost plătiți oameni care au revizuit adnotările pe care aceste servicii le aplicau fotografiilor oficiale ale parlamentarilor și imaginilor pe care aceștia le-au postat pe Twitter.
Serviciile AI au văzut, în general, lucruri pe care și recenzorii umani le-au putut vedea în fotografii, dar au avut tendința de a observa diferite lucruri despre femei și bărbați; femeile au fost mult mai susceptibile de a fi caracterizate prin aspectul lor. Membrele congresului erau adesea etichetate cu „fată” și „frumusețe”. Studiul demonstrează că algoritmii nu văd lumea cu detașare matematică, ci au tendința de a reproduce sau chiar de a amplifica prejudecățile culturale istorice.
Informații oferite de platforma Cloud Vision de la Google, pentru imaginea lui Barrack Obama.
(Sursa: studiu – CC BY)
Noul studiu a fost publicat săptămâna trecută, dar cercetătorii au adunat date de la serviciile AI în 2018. Experimentele realizate de WIRED folosind fotografiile a zece bărbați și zece femei din senatul din California sugerează că rezultatele studiului sunt încă valabile.
Exemple comparative de etichete aplicate de Google unor imagini cu bărbați și femei.
(Sursa: studiu – CC BY)
Aceste diferențe nu sunt noi și ele se mulează pe credințele din societatea modernă.
Problemă veche, soluții grele
Această înclinare a programelor de recunoaștere facială de a judeca diferit bărbații și femeile a fost observată încă din 2016 de către cercetători. Atunci, profesorul de informatică Vicente Ordóñez a observat un model în unele dintre presupunerile făcute de software-ul de recunoaștere a imaginilor pe care îl construia, scria Wired. Asta l-a făcut pe Ordóñez să se întrebe dacă el și alți cercetători nu cumva injectau inconștient prejudecăți în software-ul lor.
Potrivit acestei identificări automatizate, Hale Berry ar putea fi bărbat și cam la egalitate albă și neagră, dar și mult mai atractivă decât Jack Nicholson, care, de altfel, are gușă, dar este mai slab decât actrița.
(Sursa: studiu)
Două colecții de imagini de cercetare, de la Microsoft și Facebook, afișau prejudecăți de gen predictibile în descrierea activităților precum gătitul și sportul. Imaginile cu cumpărături și spălat rufe erau legate de femei, de exemplu, în timp ce sportul și fotografiatul erau legate de bărbați. Dacă un set foto asociază în general femeile cu gătitul, software-ul instruit prin studierea acelor fotografii și a etichetelor acestora creează o asociere și mai puternică.
Umbrele de gen
În 2018, proiectul Gender Shades a arătat că serviciile cloud ale companiilor Microsoft, IBM și Face++ au fost foarte precise la identificarea genului bărbaților albi, dar foarte inexacte la identificarea genului femeilor negre. La acea vreme, cercetătorii de la Massachussetts Institute of Technology s-au declarat jenați de aceste rezultate, dar au precizat că nu-și permit să ignore concluziile studiului.
Măsurători comparative din studiul Gender Shades.
(Sursa: Joy Buolamwini, CC BY-NC-ND)
Folosind sistemul de clasificare a tipului de piele Fitzpatrick, studiul a caracterizat distribuția genului și a tipului de piele pe două criterii de analiză facială. Femeile cu pielea mai închisă la culoare au avut o rată de eroare de identificare de 34,7%. Rata maximă de eroare pentru bărbații cu piele mai deschisă a fost de 0,8%.
Studiul a arătat că inteligența artificială ajută la determinarea persoanelor care vor fi angajate, concediate, cărora li se va acorda un împrumut sau chiar la stabilirea timpului pe care-l va petrece cineva în închisoare. Selectarea datelor de învățare pentru a regla fin sistemele de inteligență artificială este o parte esențială a dezvoltării unor modele predictive solide. Cu toate acestea, părtinirea care reflectă inechitățile sociale pot oferi un sentiment fals al progresului.
Foto: Gerd Altmann (Pixabay)
Leave a Comment