
Testerii programului AI al Google, nepregătiți să combată dezinformarea
Gemini, programul AI al Google, este testat continuu pentru a asigura calitatea informațiilor prezentate atunci când un utilizator pune o întrebare. Testerii Gemini, însă, sunt nepregătiți pentru a face fact-check dezinformării sau datelor prezentate greșit de inteligența artificială – fapt ce duce către răspunsuri tot mai inexacte ale Gemini.
Programele AI, precum ChatGPT, Copilot sau Gemini, sunt cunoscute pentru slabele informații pe care le oferă utilizatorilor când vine vorba de știri actuale sau subiecte foarte specifice. Pentru a mai curăța răspunsurile greșite, companiile contractează firme terțe care testează sau evaluează programele AI în privința calității informațiilor.
Conform TechCrunch, însă, GlobalLogic, firma însărcinată cu îmbunătățirea preciziei Gemini, și-a schimbat recent politica. Evaluatorilor li se cere acum să verifice răspunsurile chiar și dacă nu au „cunoștințe în domeniu”, dar să noteze părțile pe care nu le înțeleg și să menționeze lipsa lor de expertiză.
Cu alte cuvinte, până acum, un evaluator era avertizat că dacă nu deține cunoștințe într-un anumit domeniu (matematică, codare, medicină etc.) atunci ar fi bine să sară peste informațiile prezentate de Gemini. Schimbarea, așadar, presupune ca testerii să aprecieze calitatea informației chiar și când nu știu dacă programul AI are dreptate sau nu.
„Credeam că scopul omiterii este de a crește precizia, dând-o cuiva mai bun”, a fost comentariu unui angajat după schimbarea politicii, citat de TechCrunch.
Deși, Google adaugă un avertisment pentru Gemini și le spune utilizatorilor că programul AI „poate face greșeli, așa că verificați-l de două ori”, această situație ridică semne de întrebare cu privire la rigurozitatea și standardele pe care Google le aplică pentru testarea preciziei Gemini.
„Evaluatorii îndeplinesc o gamă largă de sarcini în cadrul mai multor produse și platforme Google. Aceștia nu analizează doar conținutul răspunsurilor, ci oferă și feedback valoros cu privire la stil, format și alți factori. Evaluările pe care le furnizează nu au un impact direct asupra algoritmilor noștri, dar atunci când sunt luate în ansamblu, reprezintă un punct de date util care ne ajută să măsurăm cât de bine funcționează sistemele noastre”, a declarat un purtător de cuvânt al Google.
Poziția companiei nu pare să se adreseze îngrijorărilor legate de procesul prin care testerii pot aprecia ca fiind corectă o informație total neadevărată, chiar dacă notează la final că n-au expertiza necesară. Dacă scopul este de a analizat stilul sau formatul răspunsului, de ce trebuie să aprecieze și acuratețea? Pentru moment, din nefericire, standardul Google pentru asigurarea preciziei informaționale a Gemini pare să se slăbească.
Articole asemănătoare
TikTok dezvăluie planul de protejare a datelor utilizatorilor europeni
Tot (chiar tot) ce trebuie să știi despre Călin Georgescu: minciuni, declarații și manipulări
Google lansează o arhivă a reclamelor pe care le rulează
Majoritatea reclamelor sunt super-enervante. Noroc cu Marcel, care le va face mai bune
Reddit a interzis cel mai mare subreddit pro-Trump. Twitch a suspendat temporar contul președintelui SUA