Incidenti

Umanità o efficienza: quali modelli di grandi lingue dovrebbero essere invocati dall'esercito americano

Distribuire: mentre gli Stati Uniti entrano nella nuova era della rivalità delle grandi potenze, in particolare con la Cina tecnologicamente ambiziosa, la questione di come e quando fidarsi dei sistemi di intelligenza artificiale, come i grandi modelli linguistici, diventa non solo tecnica, ma è strategica. Questi strumenti saranno cruciali nel modo in cui gli Stati Uniti distribuiscono risorse e determinano la priorità degli investimenti della difesa.

Ciò è indicato nell'articolo dell'interesse nazionale sotto il nome "Durante la valutazione degli Stati Uniti, gli Stati Uniti dovrebbero fare affidamento sull'efficienza, non sulla spiegazione", che è stata tradotta dal focus. Gli Stati Uniti dovrebbero imparare a valutare gli strumenti dell'intelligenza artificiale, come i modelli di grandi dimensioni, nella loro produttività, non la capacità di spiegare le sue decisioni.

La fiducia dovrebbe basarsi sui risultati, non sulle aspettative non realistiche del pensiero antropomorfo. Da quando gli Stati Uniti entrano nella nuova era della rivalità delle grandi potenze, in particolare con la Cina tecnologicamente ambiziosa, la questione di come e quando fidarsi dei sistemi di AI, come i modelli di grandi dimensioni (VMM), diventa non solo tecnica. È strategico.

Questi strumenti saranno cruciali nel modo in cui gli Stati Uniti distribuiscono risorse, determinano la priorità degli investimenti della difesa e detengono posizioni nell'Indo-Pacifico e oltre. Non ha intelligenza. Questi sono riconoscimenti di immagini addestrate su enormi intervalli di dati e hanno lo scopo di prevedere la parola successiva in sequenza. Simile a un graffio di scacchi, che fa una mossa brillante ma intuitiva, spesso non può spiegare perché generano un risultato.

Tuttavia, il Ministero della Difesa, attraverso organizzazioni come la direzione generale per le tecnologie digitali e l'IA, ha definito la chiarezza delle decisioni dell'IA come requisito per il suo uso rapido. Questa buona intenzione può portare alle migliori conseguenze. La spiegazione delle gemme può essere tecnicamente irraggiungibile e la sua ricerca può essere un fattore di distrazione. Questi modelli non "comprendono" in senso umano.

I loro risultati sono associazioni statistiche, non causa ed effetto. Le spiegazioni post -factum, sebbene portino piacere, possono fuorviare e infine prevenire l'introduzione di strumenti in grado di migliorare la previsione strategica, analizzare l'intelligence e la pianificazione operativa. Il vero pericolo è eccessivamente attenzione al danno dell'efficienza.

Molte decisioni di sicurezza nazionale dalla scelta degli obiettivi per l'approvvigionamento di pianificazione comprendono i processi opachi ma comprovati, come Varheiming o valutazione di esperti. Può essere integrato da questi approcci all'elaborazione della quantità di informazioni a una velocità che le persone di analisi non possono confrontare.

Invece di provare a renderlo più "umano", dobbiamo valutarli con i criteri che soddisfano il modo in cui funzionano effettivamente: coerenza, accuratezza e chiarezza per le restrizioni. Dovrebbe essere chiesto: nuovi metodi, come i fatti automatici, hanno un aumento significativo di allucinazioni, dal 9 % allo 0,3 % in alcuni modelli.

I sistemi basati sulla produttività, come Trustllm, promettono di valutare l'affidabilità del modello in modo più completo di quanto non siano mai stati fatti attraverso le spiegazioni. Al fine di garantire un'integrazione efficace e sicura dei modelli linguistici di grandi dimensioni in contesti militari e difensivi, i politici dovrebbero essere preferiti dai test operativi piuttosto che dalla chiarezza.

Invece di concentrarsi sull'interpretazione artificiale, i sistemi dovrebbero essere valutati dalla soglia della produttività prima della distribuzione. Questo approccio si basa sull'affidabilità empirica e garantisce che gli strumenti AI produrranno risultati coerenti in condizioni reali. I politici dovrebbero mantenere il comando militare in natura e restrizioni.

La fiducia in questi modelli dovrebbe basarsi sui risultati misurati, non sull'illusione della comprensione o delle qualità antropomorfe. Essendo strumenti irragionevoli, si basa sul riconoscimento delle immagini, non sulla conoscenza, e non ci si dovrebbe aspettare che simuleranno il pensiero umano o l'autocoscienza. Infine, è necessario sviluppare raccomandazioni per l'introduzione dell'IA, tenendo conto di casi di utilizzo specifici.

Diversi scenari operativi richiedono diversi livelli di controllo e affidabilità. Ad esempio, quando si generalizza i dati di intelligence, la priorità può essere fortemente coerenza, mentre l'uso del combattimento richiede un sistema restrittivo e un costante controllo umano per ridurre i rischi e la responsabilità.

In generale, la fiducia nelle gemme non dovrebbe basarsi sulla loro capacità di sembrare umanamente, ma sulla loro costante capacità di emettere risultati accurati, ricorrenti e comprovati. Non è realistico e controproducente considerarli come oracoli digitali. La valutazione dei sistemi AI basati sulla produttività, non sull'interpretazione o nell'attrattiva antropomorfa, è un approccio molto più pragmatico ed efficace.

Michael "Sparky" perry-lieutenant colonnello dell'Aeronautica e il principale pilota MC-130 con un master in economia aziendale e affari militari. National Defense Research Fellow presso la SEM International Relations School presso il Georgia's Technology Institute.