USD
39.53 UAH ▼0.34%
EUR
42.31 UAH ▼0.5%
GBP
49.47 UAH ▼0.32%
PLN
9.78 UAH ▼0.84%
CZK
1.68 UAH ▼0.39%

Ilon Musk ha dichiarato una guerra WI: invidia o gioca ai concorrenti?

"Questa persona vendeva fiamme e ora parla della sicurezza", ridono di una maschera di critiche. Lo scandaloso magnate richiede persino un divieto del governo per lo sviluppo dei neurotrani. Ilon Musk e un gruppo di esperti che sostengono, firmavano e pubblicavano oggi una lettera aperta per l'intera comunità IT con una chiamata per fermare temporaneamente lo sviluppo dell'IA.

Nel loro messaggio, chiedono sviluppatori di intelligenza artificiale per almeno un anno e mezzo per fermare lo sviluppo e la formazione dei neurotromi, che possono superare le loro capacità di oggi Chatgpt-4, poiché minacciano l'umanità con quasi Apocalypse. L'attenzione ha cercato di affrontare ciò che è accaduto.

I firmatari che hanno già fatto rumore, il messaggio è convinto che ora sia necessario mettere in pausa nello sviluppo dell'IA per sviluppare regole e restrizioni concettuali sul suo lavoro. Il gruppo di iniziativa teme che i moderni sistemi di intelligenza artificiale stiano diventando più competitivi quando si tratta di compiti semplici.

Ma poiché questo argomento non è troppo efficace, gli esperti sottolineano in particolare la loro attenzione sulle questioni dolorose dei falsi e della propaganda. "Dobbiamo chiederci: possiamo consentire alle macchine di intasare i nostri canali di informazione per propaganda e sbagliati?" - Gli autori della lettera nota.

Inoltre, i firmatari ritengono che con lo sviluppo di neurotroup, l'IA diventerà più intelligente di una persona, che causerà il rischio di perdita di controllo sulla civiltà e la transizione del potere sulle persone all'IA. Gli esperti sono pronti per eventi estremi se la lettera non dà ai destinatari.

"Se le società che sviluppano l'IA non accettano di sospendere i loro sviluppi per almeno mezzo anno, il governo dovrebbe intervenire e vietare tutte queste ricerche", ha detto nel documento firmato da Ilon Musk. Il gruppo di esperti desidera "creare speciali protocolli di sicurezza per l'IA e, durante questo periodo, i governi dei paesi devono avere organi di regolamentazione e leggi speciali entro un mezzo anno.

Musk e il suo team respingono immediatamente tutte le accuse che saranno stagnanti e sottolineano che vogliono solo mettere lo sviluppo dell'IA su una pausa. A proposito, tra i firmatari c'è una persona che, nonostante tutti i dubbi e le avvertenze, una volta spostava Wozniak, uno dei fondatori di Apple.

È interessante notare che la lettera è stata creata con il supporto dell'organizzazione non profit Future of Life Institute, che è impegnata nella promozione dello sviluppo responsabile ed etico dell'IA. L'Istituto ha precedentemente raggiunto che le seguenti cifre come Musk e Labo Google DeepMind non sono mai state promesse di sviluppare sistemi di armi autonomi mortali.

A proposito, ilone stesso è diventato un "consulente freelance" onorario di questo istituto, insieme a stelle della scienza come Sol Perlmutter, il premio Nobel in fisica nel 2011 e Morgan Fryman, attore e direttore. Naturalmente, questa lettera aperta ha causato una vera tempesta di emozioni su Twitter e i commentatori non si vergognano nelle dichiarazioni. Alcuni di loro credono che una persona che ha scambiato i lanciafiamme non dovrebbe parlare di sicurezza.

Altri commentatori sospettavano che Ilon Musk voglia semplicemente inserirsi nella gara dell'IA e, poiché non ha tempo per i leader, questa lettera e chiama al governo di intervenire semplicemente con i concorrenti di sabotaggio. Qualcuno sospettava persino una maschera che interpreta la Cina o Google.

Dopotutto, i firmatari includono DeepMind, che appartiene al gigante della ricerca, ed è noto per perdere posizioni rapidamente contro il modo in cui Microsoft ha integrato con successo CHATGPT-4 in tutti i loro prodotti e in crescita degli utenti. Qualcuno ricordava la maschera e la sua difficile relazione con AI Open (sviluppatori di CHATGPT), con i quali Ilon cooperava, ma divorziava, afferrando i miliardi promessi che avrebbero investito nella società.

I critici ora rimproverano le maschere per l'invidia banale ai suoi ex colleghi, che, nonostante nulla, hanno portato al successo e sono diventati legislatori nel segmento di intelligenza artificiale. Hanno ricordato la maschera e la sua capacità di gestire l'IA, perché la rete neurale è stata utilizzata nello sviluppo di autopiloti in Tesla e le auto sono ancora arrivate nell'incidente.

Molti hanno notato che i firmatari includono aziende AI, come la stabilità AI (Drawing Generation), che compete seriamente con la rete neurale generativa Dall-E-A di Openai. A proposito, grazie all'enorme investimento nell'intelligenza artificiale aperta, Dall-E è disponibile gratuitamente per tutti gli utenti dell'azienda. I più strappati non possono credere nella logica di tale proposta.

Non capiscono davvero come mezzo anno sia possibile svolgere una quantità così grande di lavoro: sviluppare regole normative, leggi governative sul controllo dell'IA, per raccogliere un gruppo di "esperti indipendenti sul controllo" ("indipendenza" che che non saranno soggetti a dubbi e i candidati stessi saranno tutti).

E c'è anche una domanda importante: chi controlla la moratoria sul divieto temporaneo per lo sviluppo di AI Cina e Russia? E se più sanzioni possono essere imposte alla Federazione Russa, la Cina è molto attivamente coinvolta nella negoziazione dei neurotromi e non è così facile uscire dalla sella.

E, soprattutto, dov'è la garanzia che altri paesi seguiranno questa "pausa"? E chi farà del male alla pausa per continuare lo stesso che giganti, come si suol dire, per continuare a lavorare su SI, in modo che non tengano il passo con i concorrenti? L'argomento principale a favore del "pericolo AF per gli umani" i commentatori si sono anche diffusi nella lanugine e nella polvere da sparo, citando dati specifici delle indagini sui ricercatori di apprendimento della macchina condotti da Impact AI.

Secondo questi dati, solo il 24% degli esperti è stimato come capacità "molto buone" dei neurotromi moderni e il resto delle valutazioni varia a livello "buono" (26% degli intervistati), "neutro" (18% degli specialisti ) e "molto male" (14% di esperti). Alcune persone nei commenti sottolineano che i moderni chatbot sulla base dell'IA sono lontani dalla prima volta che possono rispondere a loro una domanda apparentemente semplice.

In generale, la proposta di maschera e un gruppo dei suoi sostenitori, che include anche Steve Wozniak, i commentatori sono valutati come evoluzione isterica e mantenuta. Uno dei critici ha fatto una vivida analogia tra i "panici" dei termini e l'opinione di un funzionario che ha espresso durante la pandemia di Covid-19: "Questa quarantena è solo 2 settimane. Dobbiamo solo abbattere l'onda".