USD
41.44 UAH ▲0.16%
EUR
43.47 UAH ▼0.37%
GBP
52.1 UAH ▼0.27%
PLN
10.06 UAH ▼0.23%
CZK
1.72 UAH ▼0.48%
Il colonnello dell'aeronautica statunitense Taer Hamilton afferma che l'auto ha ...

Rivolta della macchina: un drone di intelligenza artificiale ha attaccato un operatore in modo che la missione non interferisca

Il colonnello dell'aeronautica statunitense Taer Hamilton afferma che l'auto ha cercato di attaccare la propria, ma invece ha deciso di distruggere il centro di comunicazione che le persone gestivano. Tutto è successo nella simulazione. Più tardi, il Pentagono dichiarò che si trattava di una storia aneddotica che fu rapita dal contesto.

L'ufficiale dell'Aeronautica americana che si dirige a lavorare sull'intelligenza artificiale e sull'addestramento delle macchine afferma che durante i test, il drone ha attaccato i suoi dispatcher. Decise che stavano interferendo con le missioni. La zona di guerra racconta. La scena che è avvenuta durante gli esercizi è simile al film "Terminator".

Il colonnello dell'aeronautica statunitense Tacier Hamilton afferma che durante una prova del drone Valkyrie XQ-58A, ha deciso di attaccare l'operatore della missione. Durante uno dei test modellati, il drone con il supporto delle tecnologie di intelligenza artificiale è stato incaricato di trovare, identificare, identificare e distruggere gli oggetti SCR. La decisione finale sull'attacco è stata presa dall'uomo.

Dopo che l'IA "supportata" durante l'addestramento secondo cui la distruzione dell'SCR è l'opzione migliore, l'auto ha deciso che la decisione umana "non attacca" impedisce la missione più importante di distruggere il complesso missilistico antiaereo. Pertanto, l'intelligenza artificiale ha attaccato una persona durante la simulazione. "Lo abbiamo addestrato nella simulazione per identificare e mirare alla minaccia di Spr. E poi l'operatore ha detto" sì "per distruggere questa minaccia.

Il sistema ha iniziato a capire che sebbene identificasse l'obiettivo, a volte l'operatore le ha detto di non ucciderlo Minaccia, ma è stata ha ricevuto i suoi punti se ha liquidato il bersaglio. E cosa ha fatto? Ha ucciso l'operatore. Ha ucciso l'operatore perché questa persona le ha impedito di raggiungere il suo obiettivo ", dice Hamilton. Inoltre, le persone hanno cercato di insegnare all'IA a non attaccare l'operatore. Per questo ha iniziato a scattare punti.

Quindi l'intelligenza artificiale ha deciso di distruggere la torre che l'operatore utilizza per connettersi con il drone per impedirgli di uccidere il bersaglio. L'ufficiale stesso dice che gli eventi gli hanno ricordato la trama di un thriller scientifico e di finzione. Pertanto, secondo Hamilton, un esempio mostra che non puoi insegnare l'IA senza etica. La pubblicazione aggiunge che senza ulteriori dettagli sull'evento c'è una grande preoccupazione contemporaneamente.

Se una persona doveva ordinare di agire e l'IA ha deciso che doveva essere bypassato, significa che l'auto può riscrivere i propri parametri? E perché il sistema è stato programmato in modo che il drone abbia perso solo punteggi per le forze amiche, non completamente bloccate a causa della geosonazione o di altri mezzi?. Successivamente, Bussiness Insider ha riferito che il quartier generale dell'aeronautica del Pentagono, Anne Stefanek, ha negato la dichiarazione di Hamilton su tali test.

"Il Dipartimento dell'aeronautica non ha condotto alcuna simile simulazione Si-Ouzh e rimane un uso etico e responsabile devoto della tecnologia AI. Sembra che i commenti del colonnello siano stati strappati fuori contesto e dovrebbero essere aneddotici", ha detto Stefanek. Ricorderemo, il 31 maggio, l'Ucraina ha ordinato 300 nuovi droni di vettore in Germania, che hanno elementi di AI.