USD
41.14 UAH ▼0.57%
EUR
48.3 UAH ▼1.03%
GBP
55.27 UAH ▼1.18%
PLN
11.31 UAH ▼1.37%
CZK
1.98 UAH ▼1.43%
Grazie all'intelligenza artificiale, il tanale può immediatamente contare e crea...

L'esercito israeliano usa l'IA per scegliere gli obiettivi: come è il misterioso sistema di fabbrica di fuoco

Grazie all'intelligenza artificiale, il tanale può immediatamente contare e creare colpi mortali sul nemico. Israele sta introducendo impercettibilmente i sistemi di intelligenza artificiale nelle sue operazioni militari, riferisce Bloomberg. Secondo i funzionari dell'esercito, ora è possibile selezionare obiettivi per colpi dall'aria e tenere raid a velocità senza precedenti.

Sebbene i militari non commentano operazioni specifiche, i funzionari affermano di utilizzare ora un sistema di raccomandazioni SI in grado di elaborare enormi quantità di dati per selezionare obiettivi per gli attacchi aerei.

Tutti i raid e i colpi sono previsti per l'analisi del sistema di fabbrica di fuoco, che utilizza i dati sugli obiettivi militari approvati per calcolare il numero di munizioni, dare priorità alle priorità e indicare migliaia di obiettivi da parte di piani e droni e offre un ictus ottimale adeguato. Tutto ciò è dovuto al fatto che il sistema si basa sull'intelligenza artificiale e sugli algoritmi di calcolo progressivo.

I dettagli dell'esercito, ovviamente, non rivelano, ma dicono che la fabbrica di fuoco, appositamente progettata per un'analisi rapida e accurata dell'elaborazione di enormi matrici di dati su base e archivio ", cosa ha impiegato un'ora prima, ora richiede minuti , con pochi minuti per controllare una persona ", ha detto il colonnello Uri, che dirige l'unità dell'esercito della trasformazione digitale del serbatoio.

"Grazie allo sviluppo dei neurotrani con lo stesso numero di persone, facciamo molto più di prima", hanno sottolineato i militari. L'esercito di difesa israeliano usa l'IA da molto tempo, ma negli ultimi anni ha diffuso questi sistemi in unità diverse. Alcuni di questi sistemi sono stati costruiti da appaltatori di difesa israeliani; Altri, come le telecamere di controllo delle frontiere Startrack, hanno sviluppato i militari stessi.

Questo sistema combina la funzione della videosorveglianza con la rapida identificazione di persone e oggetti che sono stati identificati. Insieme, il sistema è una grande architettura digitale progettata per analizzare un numero enorme di video di droni e telecamere di videosorveglianza, nonché immagini satellitari. Il Tahal rifiuta di segnalare qualsiasi dettaglio della tecnologia di riconoscimento facciale utilizzata in Startrack.

Questo sistema è attivamente criticato dagli attivisti per i diritti umani, ma i militari israeliani promettono che non integreranno l'intelligenza artificiale nel software per assumere il personale militare a causa dei rischi di donne discriminanti e potenziali cadetti da gruppi socioeconomici inferiori.

Il fattore più importante che è preoccupato per i difensori dei diritti umani sono i rischi delle vittime tra i civili, che possono apparire a causa delle soluzioni sbagliate degli strumenti di intelligenza artificiale. L'esercito israeliano è giustificato dal fatto che le reti neurali sono uno strumento molto accurato e che gli algoritmi di analisi possono superare le capacità umane e possono aiutare i militari a ridurre al minimo le perdite.

Ma alcuni analisti non si adattano a questa risposta, prestano attenzione al fatto rapido e quasi incontrollato dello sviluppo e dell'uso di sistemi basati sull'intelligenza artificiale. Inoltre, secondo alcuni esperti-avvocati, oggi il confine tra sistemi semi-autonomi e completamente autonomi è così sfocato che è spesso impossibile capire chi alla fine prende una decisione militare: una persona o un'auto.

"Se c'è un errore nei calcoli della CI, allora chi diamo la colpa a questo errore?", - chiede Tal Mimran, un insegnante di diritto internazionale presso la Jewish University di Gerusalemme e un ex consigliere legale dell'esercito. "Puoi distruggere la famiglia innocente o metà della città a causa dell'errore della rete neurale o dell'analisi sbagliata e chi sarà colpevole?" Aggiunge. In precedenza, Focus ha affermato che in future guerre con robot e SI potrebbero iniziare.