ChatGPT, în continuare modelul AI preferat de propagandiștii din China pentru campaniile de manipulare

ChatGPT este, în continuare, modelul de inteligență preferat de propagandiștii chinezi atunci când își elaborează campaniile de manipulare. OpenAI ține un ochi pe aceste eforturi, mai ales că astfel de campanii coordonate de dezinformare devin tot mai des întâlnite acum că programele AI sunt ușor de accesat, iar numărul acestora este tot mai mare.

Compania din spatele popularului ChatGPT spune că a identificat și întrerupt patru operațiuni chineze de manipulare, care foloseau modelul AI pentru a genera postări și comentarii pe rețele de socializare precum TikTok, Facebook, Reddit și X.

Ceea ce vedem din partea Chinei este o gamă tot mai largă de operațiuni secrete care utilizează o gamă tot mai largă de tactici […] Operațiunile au vizat multe țări și subiecte diferite, incluzând chiar și un joc de strategie. Unele dintre ele au combinat elemente de operațiuni de influență, inginerie socială, supraveghere. Și au funcționat pe mai multe platforme și site-uri web diferite”, a declarat Ben Nimmo, șeful echipei de informații și investigații a OpenA, citat de NPR.

Comentariile generate se învârteau, mai ales, în jurul politicii americane, însă discuția s-a oprit și asupra unui joc video taiwanez în care jucătorii luptă împotriva Partidului Comunist din China. ChatGPT a fost utilizat pentru a crea postări pe rețelele de socializare despre anumite subiecte în vogă, în special cele legate de deciziile luate de Donald Trump, pentru a stârni un discurs politic înșelător.

De asemenea, raportul OpenAI analizat de NPR mai amintește și că una dintre campaniile se axa pe „colectarea de informații prin deghizarea în jurnaliști și analiști geopolitici”. Concret, ChatGPT era folosit pentru a scrie postări și biografii pentru conturile false de pe X, pentru a traduce e-mailuri și mesaje din chineză în engleză și pentru a analiza date. Unul dintre mailuri era o „corespondența adresată unui senator american cu privire la numirea unui oficial al administrației”, însă OpenAI a adăugat că nu a putut confirma dacă mesajul a fost trimis.

Eforturile OpenAI de a monitorizare modul fraudulos în care sunt utilizate programele sale AI este de aplaudat, însă e clar că pentru a identifica aceste campanii coordonate și destul de complexe de dezinformare sau supraveghere necesită resurse considerabile. În lipsa unei legislații clare care să reglementeze și să sprijine companiile AI să combată aceste tendințe periculoase, tot mai mult timp și efort vor fi necesare pentru a identifica fraudele fabricate cu ajutorul inteligenței artificiale.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *