ChatGPT, în continuare modelul AI preferat de propagandiștii din China pentru campaniile de manipulare
ChatGPT este, în continuare, modelul de inteligență preferat de propagandiștii chinezi atunci când își elaborează campaniile de manipulare. OpenAI ține un ochi pe aceste eforturi, mai ales că astfel de campanii coordonate de dezinformare devin tot mai des întâlnite acum că programele AI sunt ușor de accesat, iar numărul acestora este tot mai mare.
Compania din spatele popularului ChatGPT spune că a identificat și întrerupt patru operațiuni chineze de manipulare, care foloseau modelul AI pentru a genera postări și comentarii pe rețele de socializare precum TikTok, Facebook, Reddit și X.
„Ceea ce vedem din partea Chinei este o gamă tot mai largă de operațiuni secrete care utilizează o gamă tot mai largă de tactici […] Operațiunile au vizat multe țări și subiecte diferite, incluzând chiar și un joc de strategie. Unele dintre ele au combinat elemente de operațiuni de influență, inginerie socială, supraveghere. Și au funcționat pe mai multe platforme și site-uri web diferite”, a declarat Ben Nimmo, șeful echipei de informații și investigații a OpenA, citat de NPR.
Comentariile generate se învârteau, mai ales, în jurul politicii americane, însă discuția s-a oprit și asupra unui joc video taiwanez în care jucătorii luptă împotriva Partidului Comunist din China. ChatGPT a fost utilizat pentru a crea postări pe rețelele de socializare despre anumite subiecte în vogă, în special cele legate de deciziile luate de Donald Trump, pentru a stârni un discurs politic înșelător.
De asemenea, raportul OpenAI analizat de NPR mai amintește și că una dintre campaniile se axa pe „colectarea de informații prin deghizarea în jurnaliști și analiști geopolitici”. Concret, ChatGPT era folosit pentru a scrie postări și biografii pentru conturile false de pe X, pentru a traduce e-mailuri și mesaje din chineză în engleză și pentru a analiza date. Unul dintre mailuri era o „corespondența adresată unui senator american cu privire la numirea unui oficial al administrației”, însă OpenAI a adăugat că nu a putut confirma dacă mesajul a fost trimis.
Eforturile OpenAI de a monitorizare modul fraudulos în care sunt utilizate programele sale AI este de aplaudat, însă e clar că pentru a identifica aceste campanii coordonate și destul de complexe de dezinformare sau supraveghere necesită resurse considerabile. În lipsa unei legislații clare care să reglementeze și să sprijine companiile AI să combată aceste tendințe periculoase, tot mai mult timp și efort vor fi necesare pentru a identifica fraudele fabricate cu ajutorul inteligenței artificiale.

Articole asemănătoare
Administrația Trump elimină postul de agenție de presă din corpul de presă al Casei Albe
Spotify testează un feed similar cu cel al TikTok
Transmisia live a unui reporter CNN, întreruptă de o femeie cu o pancartă pe care scria ”Fake News”
Autoritatea Europeană pentru Protecția Datelor, dezamăgită de aplicarea legii GDPR
Macron: Franța va interzice accesul minorilor sub 15 ani la rețelele sociale dacă UE nu ia măsuri