Autoritățile de reglementare încep să pună presiune pe programele de inteligență artificială

În ultima perioadă, popularitatea programelor ce folosesc inteligența artificială precum ChatGPT sau Midjourney a atras și atenția autorităților de reglementare. Teama că aceste instrumente ar putea fi folosite pentru a induce publicul în eroare sau că anumite joburi vor fi înlocuite de noua tehnologie a făcut ca guvernele să ia în considerare măsuri prin care lucrurile să nu escaladeze.

La începutul lunii februarie, Uniunea Europeană anunța că lucrează la un set de legi menite să reglementeze inteligența artificială. Programele AI (de ex. ChatGPT) sunt considerate de UE ca fiind sisteme de „mare risc” pentru că pot fi folosite într-o gamă variată de domenii, care pot afecta activitatea umană.

OpenAI, compania din spatele ChatGPT, a derulat un studiu și a identificat 86 de meserii expuse la inteligența artificială. Printre ele, jurnalismul și cei care lucrează cu seturi de date precum matematicienii sau analiștii de date. Bineînțeles, munca nu poate fi suplinită pe deplin, ci doar ușurată, dar cercetarea ne oferă o posibilitate ce trebuie luată în calcul.

Deocamdată, teamă că inteligența artificială ar înlocui anumite joburi este o discuție dechisă, însă riscurile legate de dezinformare sunt cât se poate de reale și, în acest moment, motivul principal pe care guvernele se axează când vorbesc de reglementări.

Pe lângă UE, acum și administrația prezidențială din SUA se gândește să introducă măsuri de control asupra programelor AI. Încă se dezbate forma eventualei legi, însă autoritățile au menționat un proces de certificare pentru companiile ce dezvoltă această tehnologie. Scopul ar fi acela de responsabilizare al dezvoltatorilor astfel încât dezinformarea să poate fi diminuată.

Cel mai viral exemplu de imagine falsă generată de AI se referă la Donald Trump înfățișat ca un condamnat căruia i se face o poză mugshot, dând de înțeles utilizatorilor că acesta ar fi fost arestat.

Chiar și România are un proiect legislativ care ar trebuie să reglementeze imaginile și videoclipurile generate de AI, dar – după cum notează și Misreport – legea este plină de carențe și neînțelegeri ale tehnologiei pe care parlamentarii doresc s-o controleze.

Probleme legate de siguranța datelor

Pe lângă ce poate sau nu poate face inteligența artificială mai există o îngrijorare serioasă: siguranța datelor personale ale utilizatorilor care folosesc aceste programe. La finalul lunii martie, ChatGPT a suferit o eroare ce permitea utilizatorilor să vadă titlurile și istoricul conversațiilor altor persoane.

Acest lucru a făcut ca autoritățile italiene să înceapă o anchetă privind o posibilă încălcare a legilor europene de protecție a datelor. În consecință, ChatGPT a fost interzis în Italia, iar asta a generat o reacție și din partea altor țări europene.

Printre altele, Spania cere UE să investigheze posibilitatea acestor scurgeri de date personale, iar autoritățile de reglementare din Franța derulează propria lor anchetă după ce au primit mai multe plângeri cu privire la această problemă.

Inteligența artificială nu este încă în stadiul în care poate înlocui sau crea ceva ce nu poate fi identificate ca fiind artificial. Poate păcăli, poate imita foarte bine, dar încă mai are de învățat până să fie la un nivel similar cu noi. Cu toate astea, un anumit grad de reglementare este binevenit, mai ales cu privire la dezinformare și falsuri, care – spre deosebire de adevăr – se viralizează mult mai repede pe social media.

2 Comentarii

  1. Legat de datele personala, situatia e mult mai complexa.
    Datele personale, cel putin in UE, se culeg cu un acord explicit legat de scopul acestei culegeri. Acordul utilizatorului trebuie sa fie explicit; exista dreptul de accesare, corectare si stergere a datelor personale daca operatiunea nu contravine legii (ex: datele legate de tranzactiile financiare – facturi si plata lor, de exemplu – trebuie pastrate 5 ani). Chiar daca utilizatorul si-a dat acordul pentru procesarea datelor personale in anumite scopuri statistice, cum poti cere serviciului AI (ex. ChatGPT) sa „uite” de persoana in cauza?
    Exportul datelor personale in tari terte este reglementat (mai mult sau mai putin strict). Trebuie sa stii unde sunt amplasate fizic centrele de date iplicate in stocarea si procesarea acestor date.
    Proprietatea intelectuala: de multe ori nu numai datele personale sunt valoroase, ci si modul in care sunt folosite. De exemplu modul de segmentare a clietelei, modul de crearea a produselor diverse (telecom, asigurari etc.). Apare riscul sa inveti un motor AI de tipul ChatGPT cu secretele tale profesionale si sa le faci mai depate publice indirect.

    1. Nu face training pe persoane, doar pe continutul public de pe internet. Deocamdata.

      Singurul acord este pentru folosirea temporara a prompturilor tale, pe care tu i le dai. Atat.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *