Tecnologia

Google ha rifiutato la promessa di non usare l'IA per creare armi: ciò che è noto

I principi di Google non contengono più punti che escludono l'uso dell'IA per creare armi, monitoraggio e altre tecnologie per danneggiare le persone. Martedì 4 febbraio, Google ha aggiornato i suoi principi etici per l'intelligenza artificiale (AI), rifiutando di non utilizzare questa tecnologia come armi o sorveglianza. Informazioni su di esso scrive il Washington Post.

In precedenza, i principi di Google su AI contenevano una sezione che elencava industrie in cui la società non avrebbe sviluppato o implementato l'IA. Secondo una copia situata nella sola macchina Wayback Archives, questa sezione consisteva in quattro punti: dal 5 febbraio, questa sezione manca sul sito.

Il rappresentante di Google ha rifiutato di rispondere alle domande dei giornalisti sulla politica dell'azienda sulle armi e sul monitoraggio, ma si è riferito a un rapporto pubblicato martedì dal capo del Demsabis, a capo della demisabis e al suo senior vice vice presidente della tecnologia e della società, James Manica .

Il rapporto afferma che Google sta aggiornando i suoi principi di intelligenza artificiale, come concorrenza globale per la leadership dell'IA nel mondo nelle condizioni di paesaggio geopolitico sempre più difficile, che ha dato origine alla necessità di aziende nei paesi democratici e servono clienti nel governo , continua nel mondo nel mondo e servono clienti e clienti nel mondo nel mondo.

"Riteniamo che la democrazia dovrebbe condurre nello sviluppo dell'IA, guidata da valori di base come la libertà, l'uguaglianza e il rispetto dei diritti umani. E crediamo che le aziende, i governi e le organizzazioni che condividono questi valori dovrebbero lavorare insieme per creare Un CI, che protegge le persone, promuove la crescita globale e mantiene la sicurezza nazionale ", hanno affermato Gassabis e Manic.

La versione aggiornata dei principi di Google nell'intelligenza artificiale afferma che la società utilizzerà la supervisione umana e accetterà un feedback per garantire che la sua tecnologia venga utilizzata in conformità con "principi generalmente accettati di diritto internazionale e diritti umani". Inoltre, l'azienda promette di testare la sua tecnologia per "mitigare le conseguenze involontarie o dannose".

Ricordiamo che un ingegnere noto sulla rete sotto lo pseudonimo di STS 3D ha creato una canna basata su canne, che funziona sulla base di Chatbot con l'intelligenza artificiale CHATGPT di Openi. Secondo il rappresentante di Openai, lo sviluppatore ha riferito di aver violato la politica della società e ha chiesto "a fermare questa attività".