Studiile despre siguranța inteligenței artificiale reprezintă doar 2% din toate cercetările din domeniul AI, deși subiectul este intens discutat de guverne și companiile tech. Regelementările tehnologiei AI depind de înțelegerea tehnologiei, iar lipsa de informații cu privire la siguranța programelor de inteligență artificială îngreunează crearea unor legi adecvate.
Un studiu al Observatorului tehnologiilor emergente (ETO) din cadrul Universității Georgetown din Washington, arată că cercetarea din domeniul siguranței AI „reprezintă doar o picătură” din studiile generale despre inteligența artificială. Importanța siguranței pare să fie doar un subiect prin care companiile tech încearcă să atragă atenția publicului și să facă pe plac autorităților, chiar dacă eliminarea pericolelor pe care tehnolohia AI le presupune este un pas crucial.
Cercetările din domeniu de siguranță se concentrează, notează Semafor, pe asigurarea faptului că modelele de inteligență artificială nu produc consecințe dăunătoare – de la prejudecăți rasiale în răspunsurile programelor și, chiar, până la terorism biologic.
Rezultatele publicate de ETO arată că, deși doar 2% din cercetările AI sunt legate de siguranța acestei tehnologii, între 2017 și 2022 studiile despre acest domeniu au crescut cu peste 300%, majoritatea dintre acestea fiind făcute de cercetători americani (40% dintre lucrări; în timp ce 19% au avut autori europeni și doar 12% autori chinezi).
De când inteligența artificială a devenit populară în mainstream, atât guvernele, cât și companiile au folosit termenul de ”siguranță AI” în discursurile lor. Fondurile și sponsorizarea pentru proiectele de cercetare în domeniu rămân, aparent, în urmă, deși presiunea pentru reglementarea AI este tot mai mare – în special în acest an în care majoritatea statelor de pe glob au alegeri electorale.
Leave a Comment