Google a actualizat pagina de web în care își detaliază principiile de dezvoltare a tehnologiei AI și a șters secțiunea unde promitea să nu creeze programe de inteligență artificială pentru arme sau tehnologii de supraveghere.
Schimbarea coincide cu publicarea unei postări pe blogul companiei, unde Google afirmă, printre altele, că „sprijinirea securității naționale” ar trebui să fie o prioritate de acum încolo.
„Credem că democrațiile ar trebui să fie în fruntea dezvoltării AI, ghidate de valori fundamentale precum libertatea, egalitatea și respectarea drepturilor omului. Și credem că întreprinderile, guvernele și organizațiile care împărtășesc aceste valori ar trebui să colaboreze pentru a crea inteligență artificială care protejează oamenii, promovează creșterea globală și sprijină securitatea națională”, se arată în postare.
Până săptămâna trecută, pagina intitulată ”Our AI Principles” (principiile noastre AI) conținea o secțiune în care Google menționa mai multe exemple în care va refuza să dezvolte servicii AI, precum „arme sau alte tehnologii al căror scop principal sau punere în aplicare este de a provoca sau de a facilita în mod direct vătămarea persoanelor” sau „tehnologii care colectează sau utilizează informații pentru supraveghere, încălcând normele acceptate la nivel internațional”.
Acum, această secțiune a dispărut complet. Noua pagină cu principii poate fi accesată aici.
Chiar dacă această schimbare nu anunță lucruri prea bune pentru viitorul AI, Google și-a încălcat deja propriile principii încă din 2021, când a început să lucreze la Project Nimbus – un proiect care pune la dispoziția armatei Israelului diverse servicii de inteligență artificială.
Contractul a fost îndelung contestat chiar de angajații Google (care au protestat de-a lungul anilor împotriva acestui proiect), însă nemulțumirile acestora nu au fost luate în considerare și chiar au fost demiși din cauza protestelor. Conform TechCrunch, contractul cu Israel impune niște condiții extreme, care impiedică compania să cedeze presiunii protestelor sau boicotului.
Discuția despre AI e mai mereu axată pe integrarea ei pe rețelele sociale sau în diverse platforme de divertisment, iar partea ce ține de siguranța acestei tehnologii sau folosirea ei în mod etic este ușor trecută cu vederea.
În prezent, studiile despre siguranța inteligenței artificiale reprezintă doar 2% din toate cercetările din domeniul AI, deși subiectul este intens discutat de guverne și companiile tech. Reglementările AI depind de înțelegerea tehnologiei, iar lipsa de informații cu privire la siguranța ei îngreunează crearea unor legi adecvate.
Leave a Comment