În ultima perioadă, popularitatea programelor ce folosesc inteligența artificială precum ChatGPT sau Midjourney a atras și atenția autorităților de reglementare. Teama că aceste instrumente ar putea fi folosite pentru a induce publicul în eroare sau că anumite joburi vor fi înlocuite de noua tehnologie a făcut ca guvernele să ia în considerare măsuri prin care lucrurile să nu escaladeze.
La începutul lunii februarie, Uniunea Europeană anunța că lucrează la un set de legi menite să reglementeze inteligența artificială. Programele AI (de ex. ChatGPT) sunt considerate de UE ca fiind sisteme de „mare risc” pentru că pot fi folosite într-o gamă variată de domenii, care pot afecta activitatea umană.
OpenAI, compania din spatele ChatGPT, a derulat un studiu și a identificat 86 de meserii expuse la inteligența artificială. Printre ele, jurnalismul și cei care lucrează cu seturi de date precum matematicienii sau analiștii de date. Bineînțeles, munca nu poate fi suplinită pe deplin, ci doar ușurată, dar cercetarea ne oferă o posibilitate ce trebuie luată în calcul.
Deocamdată, teamă că inteligența artificială ar înlocui anumite joburi este o discuție dechisă, însă riscurile legate de dezinformare sunt cât se poate de reale și, în acest moment, motivul principal pe care guvernele se axează când vorbesc de reglementări.
Pe lângă UE, acum și administrația prezidențială din SUA se gândește să introducă măsuri de control asupra programelor AI. Încă se dezbate forma eventualei legi, însă autoritățile au menționat un proces de certificare pentru companiile ce dezvoltă această tehnologie. Scopul ar fi acela de responsabilizare al dezvoltatorilor astfel încât dezinformarea să poate fi diminuată.
Cel mai viral exemplu de imagine falsă generată de AI se referă la Donald Trump înfățișat ca un condamnat căruia i se face o poză mugshot, dând de înțeles utilizatorilor că acesta ar fi fost arestat.
Chiar și România are un proiect legislativ care ar trebuie să reglementeze imaginile și videoclipurile generate de AI, dar – după cum notează și Misreport – legea este plină de carențe și neînțelegeri ale tehnologiei pe care parlamentarii doresc s-o controleze.
Probleme legate de siguranța datelor
Pe lângă ce poate sau nu poate face inteligența artificială mai există o îngrijorare serioasă: siguranța datelor personale ale utilizatorilor care folosesc aceste programe. La finalul lunii martie, ChatGPT a suferit o eroare ce permitea utilizatorilor să vadă titlurile și istoricul conversațiilor altor persoane.
Acest lucru a făcut ca autoritățile italiene să înceapă o anchetă privind o posibilă încălcare a legilor europene de protecție a datelor. În consecință, ChatGPT a fost interzis în Italia, iar asta a generat o reacție și din partea altor țări europene.
Printre altele, Spania cere UE să investigheze posibilitatea acestor scurgeri de date personale, iar autoritățile de reglementare din Franța derulează propria lor anchetă după ce au primit mai multe plângeri cu privire la această problemă.
Inteligența artificială nu este încă în stadiul în care poate înlocui sau crea ceva ce nu poate fi identificate ca fiind artificial. Poate păcăli, poate imita foarte bine, dar încă mai are de învățat până să fie la un nivel similar cu noi. Cu toate astea, un anumit grad de reglementare este binevenit, mai ales cu privire la dezinformare și falsuri, care – spre deosebire de adevăr – se viralizează mult mai repede pe social media.
Leave a Comment