
Meta va utiliza inteligența artificială pentru majoritatea evaluărilor de risc, în locul examinatorilor umani
Meta va schimba modul în care analizează riscurile pe care le pot presupune produsele sale (de la platforme social media până la modele de inteligență artificială generativă) și va renunța la examinatorii umani. Compania americană plănuiește să automatizeze procesul cu ajutorul modelelor AI, care vor stabili riscurile produselor.
Dezvăluirea vine după ce anumite documente interne au fost analizate de publicația NPR, care spune că Meta dorește ca, în proporție de 90%, evaluările de risc să fie efectuate de AI. Gradul mare de automatizare presupune și evaluarea unor domenii precum riscurile pentru tineri și cele ce acoperă conținutul violent sau dezinformarea.
Bineînțeles că folosirea AI în acest proces se poate dovedi o decizie extrem de inadecvată, care ar crea mai multe probleme decât soluții. Chiar și foști angajați ai Meta sunt de părere că o evaluare făcută de AI poate trece cu vederea riscuri grave pe care o echipă umană le-ar putea identifica.
„În măsura în care acest proces înseamnă, din punct de vedere funcțional, lansarea mai rapidă a mai multor produse, cu un control și o contestare mai puțin riguroasă, înseamnă că se creează riscuri mai mari. Externalitățile negative ale modificărilor produselor au mai puține șanse de a fi prevenite înainte de a începe să cauzeze probleme în lume”, a declarat un fost manager de la Meta, citat de NPR.
Meta nu e singura companie care decide că modelele AI sunt mai importante decât siguranța utilizatorilor săi. OpenAI a anunțat că va reduce timpul de testare a siguranței modelelor sale viitoare, iar – în această perioadă – întreaga industrie pare mult mai preocupată de cum să integreze inteligența artificială în produsele lor decât de oricare alt aspect care merită luat în considerare.
Deși în ultimii ani companiile tech au prezentat modelele AI ca fiind niște unelte absolut indinspensabile, adevărul este că programele de inteligență artificială nu sunt încă în stadiul în care să funcționeze corect fără intervenție umană. Automatizarea unui proces atât de important ca stabilirea riscurilor unor platforme de social media și a conținutul toxic sau de dezinformare care se poate răspândi acolo reprezintă o decizie pripită, care ocolește dezbaterea despre riscurile pe care însăși inteligența artificială le presupune.
Discuția despre implementarea AI în societate, așadar, trece mult prea ușor peste partea ce ține de siguranța acestei tehnologii sau folosirea ei în mod etic. În prezent, studiile despre siguranța AI reprezintă doar 2% din toate cercetările din acest domeniu, deși subiectul este, aparent, mereu discutat de guverne și companiile tech.
Impunerea unor standarde universale legate de AI ar presupune o reglementare serioasă, care lipsește din prioritățile instituțiilor – o problemă la nivel global, nu doar regional. Vidul legislativ de până acum este folosit de companii pentru a cere mai multe libertăți în numele eficienței, în timp ce siguranța și protejarea oamenilor încep să fie aspecte tot mai ignorate.
1 Comentariu
Articole asemănătoare
Președintele Lukoil a murit după ce a căzut de la o fereastră. Istoria Rusiei privind defenestrarea
Afganistanul a pierdut aproape 60% din jurnaliști după ce talibanii au recâștigat controlul țării
Jurnalista Maria Ressa, câștigătoare a Premiului Nobel, ar putea fi condamnată la închisoare
Google își poate antrena serviciile AI din căutări web, chiar dacă publicațiile resping partajarea datelor
Guvernul chinez cenzurează presa în legătură cu anchetarea companiei Alibaba