Testerii programului AI al Google, nepregătiți să combată dezinformarea
Gemini, programul AI al Google, este testat continuu pentru a asigura calitatea informațiilor prezentate atunci când un utilizator pune o întrebare. Testerii Gemini, însă, sunt nepregătiți pentru a face fact-check dezinformării sau datelor prezentate greșit de inteligența artificială – fapt ce duce către răspunsuri tot mai inexacte ale Gemini.
Programele AI, precum ChatGPT, Copilot sau Gemini, sunt cunoscute pentru slabele informații pe care le oferă utilizatorilor când vine vorba de știri actuale sau subiecte foarte specifice. Pentru a mai curăța răspunsurile greșite, companiile contractează firme terțe care testează sau evaluează programele AI în privința calității informațiilor.
Conform TechCrunch, însă, GlobalLogic, firma însărcinată cu îmbunătățirea preciziei Gemini, și-a schimbat recent politica. Evaluatorilor li se cere acum să verifice răspunsurile chiar și dacă nu au „cunoștințe în domeniu”, dar să noteze părțile pe care nu le înțeleg și să menționeze lipsa lor de expertiză.
Cu alte cuvinte, până acum, un evaluator era avertizat că dacă nu deține cunoștințe într-un anumit domeniu (matematică, codare, medicină etc.) atunci ar fi bine să sară peste informațiile prezentate de Gemini. Schimbarea, așadar, presupune ca testerii să aprecieze calitatea informației chiar și când nu știu dacă programul AI are dreptate sau nu.
„Credeam că scopul omiterii este de a crește precizia, dând-o cuiva mai bun”, a fost comentariu unui angajat după schimbarea politicii, citat de TechCrunch.
Deși, Google adaugă un avertisment pentru Gemini și le spune utilizatorilor că programul AI „poate face greșeli, așa că verificați-l de două ori”, această situație ridică semne de întrebare cu privire la rigurozitatea și standardele pe care Google le aplică pentru testarea preciziei Gemini.
„Evaluatorii îndeplinesc o gamă largă de sarcini în cadrul mai multor produse și platforme Google. Aceștia nu analizează doar conținutul răspunsurilor, ci oferă și feedback valoros cu privire la stil, format și alți factori. Evaluările pe care le furnizează nu au un impact direct asupra algoritmilor noștri, dar atunci când sunt luate în ansamblu, reprezintă un punct de date util care ne ajută să măsurăm cât de bine funcționează sistemele noastre”, a declarat un purtător de cuvânt al Google.
Poziția companiei nu pare să se adreseze îngrijorărilor legate de procesul prin care testerii pot aprecia ca fiind corectă o informație total neadevărată, chiar dacă notează la final că n-au expertiza necesară. Dacă scopul este de a analizat stilul sau formatul răspunsului, de ce trebuie să aprecieze și acuratețea? Pentru moment, din nefericire, standardul Google pentru asigurarea preciziei informaționale a Gemini pare să se slăbească.
Articole asemănătoare
Consiliul televiziunii publice a decis: TVR Cultural și TVR Info revin pe micile ecrane
YouTube interzice colectarea de date de pe conținutul adresat copiilor
O nouă publicație economică se lansează. Ce va conține aceasta
Zuckerberg, acuzat că ar avea o înțelegere cu Trump privind postările sale. CEO-ul Facebook neagă acuzațiile
Războiul hibrid, ediția subacvatică: un comandant NATO avertizează asupra noilor amenințări rusești