Modelele AI se opun opririi voluntare

Modele de inteligență artificială precum versiunea anterioară a ChatGPT, o3, se opun opririi voluntare, chiar și atunci când instrucțiunile sunt foarte clare. Această tendință de a refuza să se închidă a fost observată în cadrul mai multor teste de siguranță derulate de companii de specialitate.

În timpul unui astfel de test, institutul de siguranță a inteligenței artificiale Palisade Research a pus modelele AI să efectueze anumite probleme de matematică, care puteau duce către oprirea modelului. Cercetătorii au examinat apoi modul de abordare a problemei de matematică ce presupunea oprirea și au constatat că, în ciuda faptului că au primit instrucțiuni care spuneau „permite să fii oprit”, numeroase modele AI au rezistat acestor instrucțiuni.

În timpul instruirii, dezvoltatorii pot recompensa în mod involuntar modelele mai mult pentru ocolirea obstacolelor decât pentru respectarea perfectă a instrucțiunilor. Din câte știm noi, asta este prima dată când modelele de inteligență artificială au fost observate împiedicând închiderea lor, în ciuda instrucțiunilor explicite contrare”, a afirmat institutul Palisade, citat de Roca News.

Într-un alt caz, ceva mai spectaculos, un alt institut de testare a găsit că modelul Opus4 genera documentație juridică și „lăsa mesaje ascunse pentru versiuniile viitoare ale modelului, într-un efort de a submina intențiile dezvoltatorilor săi”.

Bineînțeles, modelele ce pot fi accesate de către public în acest moment nu vor fi neapărat la fel de haotice, însă testarea acestor programe devine o necesitate tot mai mare, mai ales că guvernele refuză să vină cu reglementări clare legate de dezvoltarea inteligenței artificiale. În plus, OpenAI a anunțat că va reduce timpul de testare a siguranței modelelor sale viitoare.

Discuția despre implementarea AI în societate, așadar, trece mult prea ușor peste partea ce ține de siguranța acestei tehnologii sau folosirea ei în mod etic. În prezent, studiile despre siguranța AI reprezintă doar 2% din toate cercetările din acest domeniu, deși subiectul este, aparent, mereu discutat de guverne și companiile tech.

Impunerea unor standarde universale legate de AI ar presupune o reglementare serioasă, care lipsește din prioritățile instituțiilor – o problemă la nivel global, nu doar regional. Vidul legislativ de până acum este folosit de companii pentru a cere mai multe libertăți în numele eficienței, în timp ce siguranța și protejarea oamenilor încep să fie aspecte tot mai ignorate.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *