USD
41.2 UAH ▼0.06%
EUR
45.22 UAH ▼2.06%
GBP
53.89 UAH ▼2.5%
PLN
10.46 UAH ▼3.07%
CZK
1.78 UAH ▼2.74%
I ricercatori sono giunti alla conclusione che in alcuni casi

"Great" SI non aiuterà gli Stati Uniti in guerra con la Cina: perché la maschera per le escursioni è pericolosa per l'esercito

I ricercatori sono giunti alla conclusione che in alcuni casi "piccoli" AI è più utile per i militari rispetto ai grandi modelli ad alta intensità di energia. Oggi, nel campo dell'intelligenza artificiale (AI), prevale il principio di "più, meglio", ma un nuovo studio mostra che una tale escursione può minare lo sviluppo delle tecnologie sciistiche necessarie ai militari americani ora e in futuro. Questo è dichiarato in difesa.

I ricercatori Gael Varoko dell'Università di Paris-Sakle, Alexander Sasha Luchni dell'Istituto del Quebek e Meredith Wittcker della Signal Foundation nel suo articolo "La stabilità, la stabilità e il prezzo del paradigma" più e meglio "nell'intelligenza artificiale" hanno studiato la storia della storia di formare il suddetto principio sul campo. Hanno scoperto che questa idea è stata formulata nel 2012 nell'articolo del professore dell'Università di Toronto Alex Kryzhevskaya.

Nel suo lavoro, Alex Kryzhevsk ha sostenuto che grandi quantità di dati e reti neurali su larga scala producono risultati molto migliori per classificare le immagini rispetto a quelle più piccole. Questa idea è stata supportata da altri ricercatori e in seguito questo approccio è diventato dominante tra le grandi aziende di intelligenza artificiale.

"La conseguenza è sia un'esplosione di investimenti in modelli di intelligenza artificiale su larga scala sia un salto di accompagnamento nelle dimensioni di modelli evidenti (altamente citati).

L'intelligenza artificiale generativa, sia per immagini che per il testo, o per il testo, hanno portato questa ipotesi a un nuovo Livello, come all'interno della disciplina della disciplina di ricerca dell'IA, nonché una componente della narrativa popolare "di più - significa meglio" che circonda l'IA ", lo studio recita. Il materiale afferma che la produttività dei grandi modelli di intelligenza artificiale non giustifica sempre le risorse necessarie per il loro funzionamento.

Inoltre, la concentrazione di sforzi nel campo dell'IA in un numero relativamente piccolo di grandi aziende tecnologiche comporta rischi geopolitici. Nonostante il fatto che il Dipartimento della Difesa degli Stati Uniti presta attenzione sia ai grandi modelli di intelligenza artificiale che ai minori di meno su larga scala, gli esperti temono che studi futuri nel campo di "piccoli" IA possano essere limitati a causa della crescente influenza delle grandi aziende sciistiche.

Un esempio è la dichiarazione dell'ex presidente di Google Eric Schmidt, che ha dichiarato che le aziende e i governi dovrebbero continuare a impegnarsi in grandi modelli di intelligenza artificiale intensivi energetici indipendentemente dal costo dell'energia, poiché "non raggiungeremo ancora gli obiettivi climatici".

Allo stesso tempo, i costi ambientali, in particolare il consumo di energia, stanno aumentando molto più velocemente del miglioramento della produttività dei modelli di intelligenza artificiale. Gli esperti sottolineano che gli studi nel campo dell'IA sul principio di "più - significa meglio" portano a restringimento e perdita di diversità in questo settore. Secondo la difesa, questo restringimento può avere conseguenze negative per lo sviluppo dell'esercito AI.

Il fatto è che i modelli di intelligenza artificiale più piccoli possono essere importanti in luoghi in cui le risorse del computer sono piccole e intermittenti, rare o addirittura assenti. "È spesso il caso che più piccolo e più focalizzato sui compiti del modello funzioni meglio dei modelli di profilo di grandi dimensioni, quando si risolvono compiti specifici sotto il flusso", si legge in un articolo separato pubblicato da un gruppo di ricercatori di Berkeley .

Ad esempio, gli UAV hanno operato sotto l'azione delle HR e piccole basi in posizioni avanzate in cui l'energia è bassa e il legame è debole. Gli operatori possono incontrare una serie di situazioni in cui un modello di intelligenza artificiale che funziona su una serie relativamente piccola di dati e non richiede una grande fattoria di server o un gran numero di processori grafici.

Queste possono essere applicazioni per immagini UAV e satellitari, nonché tecnologie per l'elaborazione di dati economici, meteorologici, demografici e altri per la pianificazione di operazioni più efficienti e sicure nelle città. "Ma se il settore della ricerca AI dà la priorità al grande esperto sul piccolo, può significare meno ricerche e meno esperti insegnare agli operatori come creare bene i propri piccoli modelli di intelligenza artificiale", ha affermato la pubblicazione.

Un'altra potenziale conseguenza dello sviluppo prioritario dell'IA "grande" è la concentrazione del potere. Solo alcune aziende hanno risorse per creare e distribuire grandi modelli. Un esempio è menzionato da Ilon Musk, che è uno degli appaltatori difensivi più ricchi del mondo. Ilon Musk diventa anche uno dei principali attori finanziari nello sviluppo della futura AI.

"Il potere privato concentrato sugli AI crea un piccolo e finanziariamente motivato segmento di persone che prendono decisioni nel campo dell'IA. Dobbiamo considerare come tale potere concentrato con l'agenzia sull'intelligenza artificiale centralizzata possa formare una società in condizioni più autoritarie", hanno detto i ricercatori .

Secondo Defense One, una nuova classe di esperti di intelligenza artificiale condivide anche l'opinione che la concentrazione sull'intelligenza artificiale "grande" sia soppressa da approcci che potrebbero essere più utili per gruppi specifici.

Sì, l'amministratore delegato di The Startup Shi utili sensori Pete Worden ha affermato alla pubblicazione che l'ossessione del settore e dei circoli accademici da parte di AI più grande manca ciò che la maggior parte delle persone desidera effettivamente dall'IA. "I benchmark accademici non sono d'accordo con i requisiti del mondo reale.

Ad esempio, molti clienti vogliono semplicemente essere in grado di estrarre i risultati dalle informazioni disponibili (ad esempio, guide degli utenti), non generando un nuovo testo in risposta alla domanda, ma i ricercatori lo fanno Non lo consideri interessante ", ha detto Pit. Worden.

Da parte sua, Drew Breunig, esclusiva di dati sui dati e sui clienti strategici in Placeiq, che ora lavora con precisione, ha aggiunto che è improbabile che le alte aspettative di molte persone su grandi modelli AI siano giustificati. Drew Breunig divide l'IA in tre gruppi. Il primo sono gli "dei", che definisce come "superamenti di AI" e "sostituire le persone che fanno molte cose diverse senza supervisione".

Sotto la gerarchia ci sono "tirocinanti", che descrive come "specifiche specifiche per l'area tematica che aiutano gli esperti con un lavoro duro e stancante, facendo ciò che il tirocinante potrebbe fare". Questi modelli sono sotto la supervisione di esperti. Il terzo, la forma più locale dell'IA, Drew Breunig ha chiamato "Gears". Questi sono modelli per lo stesso compito, con una resistenza agli errori molto bassa che funziona senza supervisione in applicazioni o trasportatori.

Secondo l'esperto, questo è il tipo più comune di intelligenza artificiale utilizzata dalle aziende: tutte le piattaforme di grandi dimensioni sono passate all'aiuto delle aziende nel scaricare i propri dati per impostare modelli di intelligenza artificiale, che possono fare bene.

"Una cosa interessante nel concentrarsi sugli ingranaggi è che puoi fare così tanti con piccoli modelli! Un modello minuscolo, configurato per una cosa, può superare il modello generale gigante quando si svolge lo stesso compito", ha riassunto l'esperto.