Companiile AI, tot mai multe presiuni asupra Casei Albe pentru a utiliza liber conținutul protejat de drepturi de autor

ai-jurnalism

Companiile dezvoltatoare de inteligență artificială fac tot mai multe presiuni asupra Casei Albe pentru a folosi fără restricții conținutul protejat de drepturi de autor. Cererile lor fac parte dintr-un raport pe care autoritățile îl întocmesc și care va fi prezentat administrației Trump în următoarele luni.

Drepturile de autor sunt în centrul majorității disputelor legale pe care companii precum OpenAI, Google sau Meta le poartă din cauza modelelor lor de inteligență artificială. Sub noul mandat al lui Donald Trump, giganții AI speră să scape de anumite măsuri de siguranță pentru a-și dezvolta tehnologia fără limite.

OpenAI a dat startul acestor solicitări care caută să convingă administrația prezidențială să propună o bază legislativă mult mai permisivă cu sectorul AI. Raportul ce va sta la baza viitoarei legii pregătite de Donald Trump, numit „Planul de acțiune privind inteligența artificială” (AI Action Plan) este în plină dezbatere, de asta companiile se grăbesc să influențeze rezultatul final.

China, arătată cu degetul

După ce a anulat planul propus de Joe Biden, administrația Trump a promis că va elabora o nouă lege care va susține poziția dominantă a SUA în acest sector tech. Pentru a face acest lucru, OpenAI și, acum, Google susțin că modelele lor AI ar trebui să aibă acces neîngrădit la datele protejate de drepturile de autor, așa cum au companiile din China.

Dacă dezvoltatorii chinezi au acces nelimitat la date, iar companiile americane nu au acces la utilizarea justă a acestora, cursa pentru inteligența artificială este efectiv încheiată”, a menționat OpenAI în cadrul raportului, conform Axios.

Utilizarea justă amintită mai sus este deja oferită de statutul legal actual, OpenAI și Google, însă, solicită o lărgire considerabilă a ceea ce poate fi considerat ”utilizare justă”. Tocmai asta e una dintre controversele cu care modelele AI se confruntă, și nu doar la nivel legal prin diversele procese deschise împotriva lor.

Subminarea acestor standarde nu va face tehnologia mai eficientă și nici nu va ajuta societatea – așa cum se mândresc de fiecare dată dezvoltatorii AI când lansează un model nou.

China nu este un exemplu de urmat în materie de măsuri de siguranță a tehnologiei – nu trebuie să ne scape din vedere faptul că guvernul de la Beijing utilizează în mod activ instrumente de supraveghere, de recunoaștere facială și de cenzură. Statele democratice au reguli și oferă drepturi pentru protecția societății și a individului, atitudinea de copiere a unui regim dictatorial nu ar trebui să fie în centrul ideilor companiilor AI.

Dincolo de acest aspect, discuția despre inteligența artificială trece mult prea ușor peste partea ce ține de siguranța acestei tehnologii sau folosirea ei în mod etic. În prezent, studiile despre siguranța AI reprezintă doar 2% din toate cercetările din acest domeniu, deși subiectul este, aparent, mereu discutat de guverne și companiile tech.

Reglementările AI depind de înțelegerea tehnologiei, iar lipsa de informații cu privire la siguranța ei îngreunează crearea unor legi adecvate. Vidul legislativ de până acum, după cum o demonstrează OpenAI și Google, este folosit de companii pentru a cere mai multe libertăți în numele eficienței, în timp ce siguranța și protejarea oamenilor încep să fie aspecte tot mai ignorate.

Iacob Șerban:
Leave a Comment

Acest website foloseste cookie-uri