USD
41.72 UAH ▲0.33%
EUR
49.18 UAH ▲1.09%
GBP
56.99 UAH ▼0.02%
PLN
11.57 UAH ▲1.03%
CZK
2 UAH ▲1.6%
Questa opinione è stata espressa da Lyran Antebi, scienziato dell'Institute for ...

"Il problema non è nell'arma ma nella Si": la quarta guerra mondiale sarà condotta con pietre e bastoncini

Questa opinione è stata espressa da Lyran Antebi, scienziato dell'Institute for National Security Research (INS). La nostra paura dei droni è falsa: il vero pericolo è la tecnologia che li lancia, afferma Lyran Antebi, ricercatore dell'Institute for National Security Research (INS). "Non so quale arma ospiterà la terza guerra mondiale, ma la quarta guerra mondiale sarà condotta con bastoncini e pietre", scrive lo scienziato.

Con l'avvicinarsi del 2023, divenne chiaro che il mondo delle ostilità si spostò dalla minaccia di attacchi nucleari al cyberspazio. L'intelligenza artificiale penetra in tutti gli aspetti della nostra vita, ed è stata solo una questione di tempo quando inizierà a essere utilizzato nei nostri sistemi di armi, secondo Ctech. Lyran Antebi crede che le armi non causino la stessa preoccupazione dell'autonomia dei sistemi SI.

"Dobbiamo far fronte alla tecnologia fino a quando non è troppo tardi", ha detto. "Dobbiamo approfondire profondamente l'argomento, oltre a capire come funziona l '" ecosistema "delle tecnologie SHI. L'intelligenza artificiale di autonomia è rilevante oggi sia per le forze armate che per le società e per le piccole aziende. Ognuno ha i suoi compiti per l'IA. " Naturalmente, l'intelligenza artificiale è già nella nostra vita quotidiana, automatizzando alcuni dei suoi aspetti.

Le aziende private creano veicoli autonomi, elettronica per la casa autonoma, una casa "intelligente", ecc. E alla gente piace, perché è così conveniente. Tuttavia, Antebi afferma che quando si parla di autonomia delle armi, le opinioni delle persone cambiano radicalmente. "Quando parliamo della domanda militare, parliamo di vite umane", ha spiegato. "Se esiste un potere antincendio, c'è un problema di sopravvivenza, il problema della morte e il problema di salvare vite umane.

Quando si tratta di sistemi fatali autonomi, le persone lo percepiscono in modo molto critico, ma solo perché sono morti per credere che le armi autonome sono, prima di tutto, un'arma, cioè ciò che uccide, ma un'auto o un drone autonomo non possono uccidere. Antebi studia come le opportunità di autonomia.

In passato, ha consigliato le Nazioni Unite come parte di un gruppo IPraw (gruppo internazionale su armi autonome Gruppo di regolamentazione dei sistemi) e consigliato il Ministero della Difesa israeliano su questi temi. Armi e nelle s. Dobbiamo essere sicuri che l'IA sia perfetta prima di dargli l'opportunità di guidare almeno qualcosa - e non importa, sarà un'arma o un'auto, perché può essere erroneamente danneggiato o addirittura uccidere.

Sto parlando di auto autonome come Telsa, parlo di tutti i tipi di robotica. "Lo scienziato ha spiegato che" soluzioni etiche "realizzate dall'intelligenza artificiale" indipendentemente "sono un problema e una responsabilità delle società private che creano tecnologie.

Sistemi che, ci si aspetta Portare bambini in veicoli autonomi o effettuare attacchi di droni nei campi delle operazioni di combattimento, dovrebbe essere perfetto prima di poter lavorare ricevendo il merito della fiducia dei cittadini e dei governi. Il famoso dilemma che salverà il robot durante l'incendio, O come il drone attaccerà, per colpire il bersaglio, richiederà una rigorosa supervisione e regolamentazione in modo che l'autonomia sia conveniente ma non mortale.