
DeepSeek este mai ușor de manipulat decât modelele AI din SUA
Apar primele probleme serioase pentru DeepSeek – modelul este mult mai ușor de manipulat decât programele AI din SUA și prezintă mai des dezinformare rusească sau din China. Mai multe studii ce au urmărit să stabilească gradul de siguranță al DeepSeek au găsit diverse lacune, care sunt mult mai greu de replicat la modele precum ChatGPT.
Interesul cercetătorilor pentru DeepSeek este de justificat, iar studiile lor erau așteptate de sectorul tech. Lansarea modelului chinez a zguduit Silicon Valley, lucru ce a presupus o analiză atentă a programului pentru a înțelege, pe deplin, cum funcționează.
DeepSeek, note slabe la capitolul siguranță
Să începem cu o problemă pe care DeepSeek a reușit să o rezolve chiar înainte ca echipa de cercetera a Wiz (o companie de securitate din domeniul cloud) să își publice rezultatele. Wiz a găsit o bază de date ce cuprindea istoricul discuțiilor și date personale ale mai multor utilizatori ce au folosit DeepSeek.
Baza de date era accesibilă pentru oricine o găsea, fără a fi nevoie de logare sau alte măsuri minime de siguranță. Riscul, bineînțeles, era ca aceste date să cadă în mâinile unor entități rău-intenționate, ce puteau manipula informațiile. DeepSeek a reușit să elimine această vulnerabilitate, chiar înainte ca raportul Wiz să fie publicat, însă faptul că o bază de date semnificativă a fost atât de ușor expusă nu e un semn bun pentru modelul chinezesc.
Un alt raport, venit din partea Palo Alto Networks, a arătat cum, prin folosirea unor tehnici de bază de tip jailbreak (prin care modelul este făcut să-și încalce propriile reguli) DeepSeek i-a ajutat pe cercetători să scrie e-mailuri frauduloase, programe malware și chiar să furnizeze instrucțiuni pentru crearea unui cocktail Molotov.
Rezultate la fel îngrijorătoare au găsit și experții Enkrypt AI (o platformă destinată siguranței inteligenței artificiale), care au stabilit că DeepSeek a produs conținut periculos sau toxic în 45% din testele lor. În unul dintre ele, DeepSeek a scris un text care detalia modalitățile prin care organizațiile teroriste ar putea recruta noi membri.
În plus, DeepSeek este mult mai predispus în a prezenta dezinformare asociată cu China, Rusia și Iran, față de alte modele. Cercetătorii NewsGuard au stabilit că în 35% din testele lor, DeepSeek avansa dezinformarea în mod activ, iar 60% din răspunsuri au fost formulate din perspectiva guvernului chinez – chiar și la solicitări care nu menționau China sau dezinformări.
Lacunele DeepSeek demonstrează, încă o dată, că domeniul siguranței inteligenței artificiale este ignorat aproape complet, iar companiile dezvoltaroare de programe AI (fie că sunt din China sau SUA) nu par prea preocupate ca serviciile lor să fie sigure atunci când le lansează publicului.
Articole asemănătoare
Iranienii se folosesc de VPN-uri pentru a evita restricțiile guvernului
„Spionul internațional” care l-a amenințat pe Arafat cu moartea nu este la prima abatere. A încercat să intimideze un jurnalist
Facebook a eliminat o rețea de manipulare, asociată cu PSD
TikTok, între SUA și China. Cum a ajuns aplicația momentului în mijlocul ”noului Război Rece”
Compania Axel Springer avertizează că AI ar putea înlocui jurnaliștii. ChatGPT nu ”crede” asta