
Modelele avansate de inteligență artificială devin tot mai imprevizibile
Modelele avansate de inteligență artificială devin tot mai imprevizibile față de programele precedente, chiar dacă sunt mai eficiente. Nivelul de răspunsuri corecte oferite a crescut semnificativ, însă performanța nu este una omogenă – majoritatea modelelor AI excelează în anumite domenii și sunt complet inutile în altele.
Discuția despre progresul previzibil al AI a apărut după ce OpenAI și-a lansat noile modele, o3 și o4-mini. Lăudate pentru eficiența, capacitatea de a motiva un răspuns și pentru faptul că sunt capabile de noii funcții, precum stabilirea locației folosind doar fundalul din fotografii, chiar OpenAI admite că noile modele ”halucinează” mult mai des decât modelele mai vechi.
Termenul de halucinare pentru inteligența artificială înseamnă că programul inventează răspunsuri pentru întrebări, iar acestea sunt absolut incorecte. Halucinarea trece dincolo de text și se vede, cel mai des, în imaginile sau clipurile generate de AI, care de multe ori au tot felul de greșeli în ele.
Dincolo de problemele de siguranță pe care noua funcție de stabilire a locației, o3 și o4-mini au în continuare probleme grave când vine vorba de răspunsuri matematice sau de sarcini financiare de bază. Un studiu recent, citat de The Washington Post, arată că toate modelele AI performante de astăzi au o acuratețe de sub 50% când vine vorba de aceste domenii.
Față de alte tehnologii, inteligența artificială rămâne mult mai imprevizibilă și mai greu de stabilit cât de mult progres înregistrează, de fapt. Discursul public al dezvoltatorilor AI laudă constant noile lor modele și mereu anunță că lucrează la cele mai performante și bune programe, însă realitatea e că, față de acum doi de când a început întregul hype AI, lucrurile au avansat într-un mod relativ.
Sigur, actualele aplicații de inteligență artificială sunt la curent cu evenimentele actuale, pot să navigheze pe net și oferă imagini sau clipuri mult mai reale, însă rata lor de halucinare le face să nu fie atât de eficiente pe cât se laudă.
Legat de acest lucru e și faptul că OpenAI a decis, recent, să reducă timpul, dar și resursele destinate testării siguranței modelelor AI. Decizia ridică mari semne de întrebare în legătura cu viitorul dezvoltării sigure și etice a inteligenței artificiale, iar faptul că guvernele de pe glob nu au niște standarde universale sau reglementări clare ale AI creează un vid legislativ. Cui servește această ezitare? Marilor companii dezvoltatoare de inteligență artificială.
Nu doar că cer mai multe libertăți în numele eficienței, dar siguranța și protejarea oamenilor încep să fie aspecte tot mai ignorate. Noile modele ale OpenAI sunt un exemplu perfect în acest sens: foarte eficiente când vine vorba de aspecte îndoielnice (cum e stabilirea locației din poze), însă tot mai slabe în domenii unde ar putea să ajute oamenii cu sfaturi cu adevărat utile.
Articole asemănătoare
Sistemul Chinei de recunoaștere facială a produs prima eroare
Femeile riscă să fie vânate prin datele personale, post-Roe v Wade
Trump a lansat un site despre mandatul său. A omis însă cele două proceduri de impeachment sau criza Covid
Premierul canadian Justin Trudeau, vizat de o campanie de dezinformare chineză
Twitter nu se stinge cu un bang, ci cu un ”X”