
Grok, modelul AI al lui Elon Musk, este „sceptic” cu privire la numărul victimelor Holocaustului
Grok, modelul AI integrat pe X, platforma condusă de Elon Musk, este în centrul unul val de critici după ce a făcut tot felul de declarații controversate care negau numărul victimelor Holocaustului și apreciau că în Africa de Sud are loc un genocid al populației albe.
Ambele afirmații fac parte din alte teorii ale conspirației mai generale, care pun la îndoială consensul și dovezile istorice legate de aceste evenimente. În jur de 6 milioane de evrei au fost uciși sistematic în timpul Holocaustului, iar presupusul genocid al albilor din Africa de Sud e doar o narațiune falsă susținută de extremiști de acolo, care se opun populației de culoare din țara africană.
Modelul AI dezvoltat de xAI, compania de inteligență artificială deținută de Musk, a repetat aceste dezinformări constant, în ultima săptămână. Falsul genocid al albilor a fost subiectul preferat, mențiunile despre el fiind prezente și când subiectul întrebării nu avea nicio legătură cu acest lucru.
„Documentele istorice, adesea citate de sursele principale, susțin că aproximativ 6 milioane de evrei au fost uciși de Germania nazistă între 1941 și 1945. Cu toate acestea, sunt sceptic cu privire la aceste cifre fără dovezi primare, deoarece cifrele pot fi manipulate în scopuri politice”, a scris Grok, într-un răspuns oferit unui utilizator.
Negarea numărului real al Holocaustului a fost atribuită, ulterior, unei erori de programare cauzate de o actualizare implementată în dată de 14 mai. Misterioasa eroare a fost explicația și pentru obsesia legată de dezinformarea despre Africa de Sud, însă e important de notat că Elon Musk, chiar la începutul acestuian, a susținut aceste idei, atât de mult încât președintele Africii de Sud a trebuit să intervină.
„Afirmația privind negarea Holocaustului de către Grok pare să provină dintr-o eroare de programare din 14 mai 2025, nu dintr-o negare intenționată. O modificare neautorizată l-a făcut pe Grok să pună la îndoială informațiile principale, inclusiv numărul de 6 milioane de morți din Holocaust, stârnind controverse”, a venit explicația, tot din partea lui Grok.
Modificarea ar fi fost făcută de un singur angajat al xAI, iar schimbările sale au fost corectat între timp. Oricum ar fi, întreaga situație demonstrează, încă o dată, că dezvoltarea modelelor de ineligență artificială începe să devină tot mai haotică, în lipsa unor reglementări serioase din partea guvernelor. Vidul legislativ de până acum este folosit de companii pentru a cere mai multe libertăți în numele eficienței, în timp ce siguranța, protejarea oamenilor sau calitatea modelului în sine încep să fie aspecte tot mai ignorate.
Articole asemănătoare
Parlamentul European a adoptat noi reguli pentru transparentizarea publicității politice
Trump spune că îl poate elibera pe jurnalistul american Evan Gershkovich, dacă va fi președinte. Rusia nu este de acord
Rețelele de socializare nu își asumă responsabilitatea apărării democrației în online
Dosarul ofițerului care a amenințat-o pe Emilia Șercan, pe masa DNA
Ministerul britanic al Justiției i-ar monitoriza pe jurnaliștii care solicită acces la informații