
OpenAI a oprit campanii de dezinformare din China care foloseau ChatGPT
OpenAI continuă să monitorizeze modul în care cel mai popular serviciu al său, ChatGPT, este folosit. Crearea de campanii coordonate de dezinformare este destul de des întâlnită, mai ales acum când programele AI sunt ușor de accesat, iar numărul acestora este tot mai mare.
Dezinformările fabricate cu ChatGPT venite din China se axau, în principal, pe răspândirea de falsuri despre SUA și disidenți chinezi. O altă campanie crea materiale de promovare a unor servicii de supraveghere a platformelor de social media din China, ce raporta posibilele proteste la către autorități.
În cazul dezinformării despre SUA, campania avea ca scop publicarea de comentarii și articole false de presă care ar fi dat credibilitate născocirilor fabricate cu ajutorul ChatGPT. Comentariile erau postate pe X, rețeaua socială condusă de Elon Musk, iar articolele erau scrise în limba spaniolă și ținta publicul din America Latină.
„Din câte știm, asta este prima dată când o operațiune de influență chineză a fost descoperită traducând articole lungi în spaniolă și publicându-le în America Latină. Dacă nu am fi avut în vedere utilizarea inteligenței artificiale, nu am fi putut face legătura între tweet-uri și articolele de pe internet”, a declarat Ben Nimmo, șeful echipei de informații și investigații a OpenAI, citat de Axios.
Cealaltă campanie, una mult mai complexă, avea ca scop generarea de materiale de marketing pentru un instrument supraveghere și chiar ascultare a rețelelor sociale. OpenAI spune că oamenii din spatele acestui proiect îl foloseau pentru a trimite rapoarte în legătură cu posibile proteste către serviciile de securitate chineze.
ChatGPT a fost folosit pentru a face și anumite schimbări la codul acestui instrument, însă creatorii par să se fii folosit și de alte programe AI, precum DeepSeek și Llama 3. Motivul pentru care au făcut asta nu este clar, însă ar putea fi o încercare de a-și acoperi urmele.
„Acesta a fost un caz foarte interesant în care se pare că un actor amenințător menționează cel puțin utilizarea mai multor modele diferite. Poate că au vrut să fragmenteze semnalul. Există o mulțime de motive diferite pentru care s-ar putea întâmpla acest lucru”, a spus Nimmo.
Eforturile OpenAI de a monitorizare modul fraudulos în care sunt utilizate programele sale AI este de aplaudat, însă e clar că pentru a identifica aceste campanii coordonate și destul de complexe de dezinformare sau supraveghere nevesită resurse considerabile. În lipsa unei legislații clare care să reglementeze și să sprijine companiile AI să combată aceste tendințe periculoase, tot mai mult timp și efort vor fi necesare pentru a identifica fraudele fabricate cu ajutorul inteligenței artificiale.
Articole asemănătoare
Marian Oprișan, din nou în război cu presa. Conflictul acestuia cu un jurnalist nu este nici primul, nici ultimul
Erdogan vrea control absolut asupra rețelelor de socializare, după ce fiica acestuia a fost jignită: ”Suntem hotărâți să facem orice este necesar”
Semnalul tras de Code4Romania, în seara alegerilor: „Autoritățile au făcut un pas în spate în asigurarea transparenței”
Rusia a arestat un activist pe aeroport, după modelul Belarus
WhatsApp confirmă că 90 de jurnaliști și activiști au fost ținta unui spyware israelian