Shi non otterrà codici per le armi nucleari ma non è certo
Tuttavia, secondo l'esperto della redazione di Villa Knight, alcuni stati potrebbero non essere d'accordo. Il Dipartimento di Stato degli Stati Uniti ha sviluppato una dichiarazione politica sull'uso militare responsabile dell'intelligenza artificiale, esortando tutti gli stati nucleari a non introdurre l'IA in una sfera così pericolosa che può portare alla morte di tutta l'umanità.
Solo le persone dovrebbero prendere la decisione finale sull'uso di YAO, altrimenti la sceneggiatura del film "Terminator" può essere una realtà. Tuttavia, questo documento non è in alcun modo collegato né dagli Stati Uniti né da altri paesi nucleari, secondo l'esperto di caporedattore.
Secondo lui, dovrebbe essere sviluppato un grande trattato tra tali paesi, che indicheranno chiaramente gli standard di utilizzo dell'IA nello sviluppo delle armi e l'introduzione dell'intelligenza artificiale nella sfera nucleare e il linguaggio non può essere, dice l'esperto. Tuttavia, Will Knight, in qualità di esperto di intelligenza artificiale, afferma giustamente che neuralmente è molto utile laddove manca uno specialista.
Ad esempio, è improbabile che i combattenti di difesa aerea siano in grado di gestire l'intero sciame di droni da soli, passando istantaneamente da bersaglio a bersaglio, ma questo può. Le organizzazioni per i diritti umani, come la Croce Rossa Internazionale e Stop Killer Robots, insistono non solo per limitare l'uso dell'IA nelle armi nucleari, ma anche in generale per vietarne l'uso in qualsiasi arma.
Gli attivisti per i diritti umani ritengono che molte più persone moriranno per armi autonome che colpi casuali di soldati o falso razzo. Tuttavia, paesi come Stati Uniti, Russia, Israele, Corea del Sud e Australia stanno in ogni modo bloccando i tentativi dei diritti umani di spingere l'idea attraverso le Nazioni Unite. Uno dei motivi è che questi stati vedono l'uso più ampio dell'IA nei loro programmi militari e usano già attivamente tali armi.