OpenAI cere administrației Trump să renunțe la mai multe măsuri de protecție pentru industria dezvoltării programelor AI. Solicitarea face parte din poziția companiei cu privire la un raport strategic pe care autoritățile îl întocmesc și care va fi prezentat Casei Albe în următoarele luni.
Numit „Planul de acțiune privind inteligența artificială” (AI Action Plan), raportul va sta la baza legii pregătite de Trump, ce va reglementa tehnologia AI. După ce a anulat planul propus de Joe Biden, fostul președinte american, administrația Trump a promis că va elabora o nouă lege care va susține poziția dominantă a SUA în acest sector tech.
OpenAI nu vrea să rateze acest moment important și a solicitat legi mult mai permisive și un „parteneriat voluntar între guvernul federal și sectorul privat”, conform CNBC. Compania condusă de Sam Altman e de părere că o cooperare între autorități și dezvoltatorii AI este mult mai benefică decât constrângerile legislative.
Mai puține măsuri de siguranță, mai multe libertăți
La baza cererii OpenAI stă ideea că măsurile de siguranță împiedică inovația modelelor de inteligență artificială, motiv pentru care acestea ar trebui să fie evitate. În documentul transmis oficialilor americani, analizat de CNBC, compania vrea, printre altele, să dea acces serviciilor guvernamentale la programele AI chiar și cu un an mai devreme decât e standardul acum.
Cu alte cuvinte, OpenAI vrea o adoptare mult mai rapidă a inteligenței artificiale, însă măsura nu e văzută cu ochi buni pentru că ar însemna mai mult mai puțin timp pentru a stabili cât de sigur, eficient și de încredere este un nou model.
Pe lângă asta, compania vrea „o strategie privind drepturile de autor care să promoveze libertatea de a învăța” și „păstrarea capacității modelelor americane de inteligență artificială de a învăța din materiale protejate de drepturile de autor”.
Această cerere este fix una dintre cele mai discutate probeleme cu care modele AI se confruntă. Dincolo de procesele pe care chiar OpenAI le are cu privire la încălcarea drepturilor de autor, subminarea acestor drepturi nu va face tehnologia mai eficientă și nici nu va ajuta societatea – așa cum se mândresc de fiecare dată dezvoltatorii AI când lansează un model nou.
Probabil cel mai îngrijorător aspect, însă, se referă la disponibilitatea OpenAI de a-și lăsa tehnologia să fie folosită pentru securitatea națională. Termenul este suficient de larg încât să cuprindă nenumărate aspecte, însă utilizarea în scopuri militare sau de supraveghere sunt printre cele mai probabile. Într-o anumită măsură, OpenAI pare că înțelege acest lucru.
„Guvernul are nevoie de modele antrenate pe seturi de date clasificate care sunt ajustate pentru a fi ideale în sarcinile de securitate națională pentru care nu există o piață comercială – cum ar fi informațiile geospațiale sau operațiunile nucleare clasificate”, a afirmat compania.
Google a luat deja decizia de a renunța la angajamentul de a nu crea programe AI pentru arme, deci industria a început să se ajusteaze noii administrații Trump; OpenAI nu vrea decât ca acest lucru să fie acceptat și la nivel legislativ pentru a feri sectorul AI de posibile probleme.
Discuția despre inteligența artificială e mai mereu axată pe integrarea ei pe rețelele sociale sau în diverse platforme de divertisment, iar partea ce ține de siguranța acestei tehnologii sau folosirea ei în mod etic este ușor trecută cu vederea. În prezent, studiile despre siguranța AI reprezintă doar 2% din toate cercetările din acest domeniu, deși subiectul este, aparent, mereu discutat de guverne și companiile tech.
Reglementările AI depind de înțelegerea tehnologiei, iar lipsa de informații cu privire la siguranța ei îngreunează crearea unor legi adecvate. Vidul legislativ de până acum, după cum o demonstrează OpenAI, este folosit de companii pentru a cere mai multe libertăți în numele eficienței, în timp ce siguranța și protejarea oamenilor încep să fie aspecte tot mai ignorate.
Leave a Comment