ChatGPT ar putea deschide ușa pentru noi campanii de dezinformare. Amenințările și dificultățile inteligenței artificiale

Inteligența artificială a făcut parte din viața noastră cu mult înainte ca ChatGPT să uimească internetul cu capacitățile sale. Potrivit ChatGPT însuși, primele utilizări ale inteligenței artificiale au fost limitate la domenii specializate, cum ar fi cercetarea și dezvoltarea în domenii științifice și tehnice. Cu toate acestea, de-a lungul timpului, progresele tehnologice au permis integrarea AI într-o gamă mai largă de domenii, inclusiv în medicină, finanțe, transporturi și multe altele.

Una dintre cele mai importante contribuții ale IA înainte de ChatGPT a fost dezvoltarea sistemelor expert, care imită deciziile pe care un expert uman le-ar lua într-un anumit domeniu. Însă inteligența artificială a fost integrată și în alte aspecte ale vieții noastre, mult mai comune. Dacă contactăm o companie pentru rezolvarea unei probleme, cel mai probabil vom sta de vorbă cu un sistem de procesare a limbajului natural (NLP), înainte de a fi preluați de un operator uman. 

Iar industrii precum cibernetica și automobilistică continuă să lucreze la dezvoltarea sistemelor autonome, care duc la dezvoltarea mașinilor care se conduc singure, drone sau robotică.

Există o îngrijorare reală că inteligența artificială ar putea înlocui în curând lucrătorii umani. În unele domenii, acest lucru s-a întâmplat deja într-o anumită măsură. Chiar și în calitate de jurnaliști, ne-am întrebat dacă putem fi înlocuiți – răspunsul este că nu este atât de simplu, iar eu am explicat acum doi ani, AICI, de ce noi, lucrătorii din mass-media, nu trebuie să ne facem griji.

Inteligența artificială și dezinformarea

Inteligența artificială are potențialul de a avea un impact major asupra diverselor industrii, inclusiv asupra modului în care sunt partajate și consumate informațiile. Progresul rapid al tehnologiei AI a dus la dezvoltarea de sisteme care pot genera conținut, cum ar fi texte și imagini – aproape imposibil de distins de cele create de oameni și care ar avea potențialul de a contribui la răspândirea dezinformării.

Conținutul generat de AI poate fi conceput să pară și să sune ca și cum ar proveni de la o sursă de încredere, ceea ce face dificilă pentru o persoană obișnuită să facă distincția între informațiile reale și cele false. Copywriterii, cei care creează texte de marketing, folosesc deja cu succes ChatGPT sau alte servicii similare pentru a-și ușura munca.

O altă utilizare potențială a AI în răspândirea dezinformării este prin manipularea algoritmilor de căutare. Rezultatele motoarelor de căutare pot fi modificate prin inundarea acestora cu informații false, ceea ce face mai dificilă pentru utilizatori găsirea răspunsurilor corecte. Acest lucru poate duce la răspândirea de informații false, în special în cazurile în care utilizatorii se bazează exclusiv pe motoarele de căutare pentru a se informa.

Însă dezinformarea amplificată prin intermediul instrumentelor care folosesc inteligența artificială poate fi și personală. De exemplu, sistemele de inteligență artificială pot analiza profilurile din social media pentru a determina interesele și convingerile politice ale unei persoane și apoi pot genera mesaje adaptate la persoana respectivă, ceea ce face mai probabil ca aceasta să creadă și să răspândească informații false. Un astfel de scenariu a avut loc în timpul alegerilor americane din 2016, care a generat cel mai mare scandal din industria tech de până atunci.

ChatGPT nu vrea să genereze informații false

Bineînțeles, instrumente precum ChatGPT au stârnit și o dezbatere despre dezinformare. Într-un articol anterior, MediaStandard a cerut ChatGPT să descrie modul în care poate ajuta la combaterea acestui fenomen, dar într-o altă discuție am vrut să văd dacă instrumentul OpenAI era deschis să îmi genereze o știre falsă.

Acesta a refuzat, explicând că „contravine principiilor OpenAI de utilizare responsabilă și poate dăuna sănătății și bunăstării oamenilor” și că „răspândirea de informații false despre o problemă serioasă precum COVID-19 și vaccinurile sale”, subiectul pe care i l-am dat, „poate duce la neîncredere în comunitatea științifică, poate dăuna sănătății publice și poate submina eforturile de combatere a pandemiei”.

Așa că am întrebat dacă ChatGPT poate fi folosit pentru a genera informații false și a le răspândi.

„Da, în teorie, orice instrument, inclusiv ChatGPT, poate fi folosit pentru a răspândi dezinformarea dacă este folosit pentru a genera informații false sau înșelătoare cu intenția de a înșela oamenii. Cu toate acestea, este important de reținut că OpenAI încurajează utilizarea responsabilă a modelelor sale și descurajează utilizarea acestora în scopuri dăunătoare, inclusiv răspândirea dezinformării.

ChatGPT poate răspândi dezinformarea prin generarea de informații false sau înșelătoare, care pot fi apoi diseminate către un public larg prin diverse mijloace, cum ar fi rețelele de socializare, chatbots sau site-uri web.

De exemplu, dacă datele introduse în ChatGPT sunt tendențioase sau înșelătoare, acesta poate genera răspunsuri care perpetuează sau amplifică aceste tendințe sau inexactități, contribuind astfel la răspândirea dezinformării. De asemenea, este posibil ca actorii rău intenționați să manipuleze răspunsurile generate de ChatGPT pentru a răspândi informații false sau dăunătoare.

Prin urmare, este important să evaluăm critic sursele și veridicitatea informațiilor, mai ales atunci când acestea sunt generate de modele de inteligență artificială precum ChatGPT”, a fost răspunsul instrumentului.

O situație prevăzută

Utilizarea potențială a modelului lingvistic în scopuri de dezinformare a fost un lucru pe care OpenAI l-a prevăzut. Într-un raport publicat în urma unei colaborări cu Centrul pentru Securitate și Tehnologii Emergente al Universității Georgetown și cu Observatorul de Internet de la Stanford, acesta afirmă că instrumente precum ChatGPT ar putea deveni populare în rândul celor care desfășoară operațiuni de influență.

Este mult mai ieftin decât alte opțiuni disponibile, ceea ce ar putea determina creșterea numărului de noi actori și tipuri de actori. În plus, tacticile care în prezent sunt costisitoare (de exemplu, generarea de conținut personalizat) ar putea deveni mai ieftine.

Cu toate acestea, există și un alt aspect care explică de ce modelele lingvistice pot deveni atractive pentru actorii rău intenționați: după cum afirmă OpenAI, „instrumentele de creare de text alimentate de modele lingvistice pot genera mesaje mai incisive sau mai persuasive în comparație cu propagandiștii, în special cei care nu au cunoștințele lingvistice sau culturale necesare despre ținta lor. De asemenea, acestea pot face ca operațiunile de influențare să fie mai puțin ușor de descoperit, deoarece creează în mod repetat conținut nou fără a fi nevoie să recurgă la copy-paste și la alte comportamente vizibile de economisire a timpului”. Cu alte cuvinte, instrumente precum ChatGPT pot crește numărul campaniilor de influențare, dar și răspândirea acestora între țări, deoarece barierele lingvistice și culturale vor fi reduse.

Deși utilizarea modelelor lingvistice pentru a genera dezinformare este un lucru care a fost prevăzut în cazul ChatGPT și, din câte știm acum, nu poate fi păcălit pentru a genera narațiuni false, o operațiune de influențare care să folosească un model lingvistic este încă posibilă.

Așadar, OpenAI, împreună cu partenerii numiți mai sus, au venit cu câteva posibile atenuări care ar face acest scenariu mai greu de realizat. Unele dintre ele includ restricții guvernamentale privind colectarea de date sau hardware-ul AI, în timp ce altele încurajează societatea să fie mai atentă.

Deși acestea nu pot fi răspunsul final, iar unele atenuări pot avea riscuri mai mici decât altele, singurul mod în care consumatorii pot fi în siguranță în fața dezinformării este investiția în educație și încurajarea gândirii critice.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *