USD
41.35 UAH ▲0.07%
EUR
46.15 UAH ▲0.76%
GBP
54.98 UAH ▲1.41%
PLN
10.79 UAH ▲1.08%
CZK
1.84 UAH ▲1.04%
Gli scienziati hanno sviluppato un metodo per testare i modelli SHI per la prese...

L'IA sarà in grado di creare un'arma che asciuga le persone dal volto della terra: come prevenirla

Gli scienziati hanno sviluppato un metodo per testare i modelli SHI per la presenza di "conoscenze" che possono essere usate a danno. L'intelligenza artificiale (AI), come altre tecnologie, può essere utilizzata sia per scopi buoni che buoni. Gli scienziati dell'Università di Cornel hanno deciso di ottenere l'intelligenza artificiale dalla "conoscenza" dannosa in modo che nessuno potesse usarlo per creare uno strumento di distruzione di massa.

Hanno pubblicato i risultati dello studio sul sito ufficiale. Dato che molti soldi e sforzi sono investiti nello sviluppo dell'IA, ci sono preoccupazioni sull'uso di grandi modelli linguistici (VMM) a danno, ad esempio, per lo sviluppo delle armi.

Per ridurre i rischi, le organizzazioni governative e i laboratori di intelligenza artificiale hanno creato un nuovo set di dati di riferimento chiamato Armi di proxy di distruzione di massa (WMDP), che non solo offre un metodo per verificare la disponibilità. I ricercatori hanno iniziato con esperti nel campo della biosicurezza, delle armi chimiche e della sicurezza informatica. Hanno creato un elenco di 4.

000 domande con diverse risposte per vedere se una persona può utilizzare questi dati per causare danni. Si sono anche assicurati che le domande non rivelassero alcuna informazione riservata e che possano essere condivise apertamente. Ai test sono stati frequentati dagli studenti. Il set di WMDP ha servito due obiettivi principali: valutare quanto bene gli studenti comprendano argomenti pericolosi e per sviluppare i metodi di "reclutamento" di intelligenza artificiale da questa conoscenza.

Di conseguenza, è stato sviluppato un metodo chiamato Cut, che, come suggerisce il nome, rimuove pericolose conoscenze con VMM, pur mantenendo le capacità generali dell'IA in altri campi, come la biologia e l'informatica. La Casa Bianca teme che gli aggressori usino l'IA per sviluppare armi pericolose, quindi chiedono ricerche per comprendere meglio questo rischio.

Nell'ottobre 2023, il presidente degli Stati Uniti Joe Biden ha firmato un decreto che obbliga la comunità scientifica a eliminare i rischi associati all'IA. La legge stabilisce otto principi di base e priorità dell'uso responsabile dell'IA, tra cui sicurezza, sicurezza, privacy, giustizia, diritti civili, protezione dei consumatori, espansione dei diritti e opportunità dei dipendenti, innovazione, concorrenza e leadership globale.

"La mia amministrazione attribuisce un'importanza primaria alla gestione e all'uso sicuro e responsabile dell'IA e quindi promuove un approccio coordinato sulla scala dell'intero governo federale prima. Lo sviluppo fugace dell'intelligenza artificiale fa sì che gli Stati Uniti conducano in questo momento Sicurezza, economia e società ", nel decreto. Ma ora, i metodi che si occupano di neurotrani sono usati per controllare i sistemi e sono facili da bypassare.

Inoltre, i test che ti consentono di verificare se il modello AI può comportarsi costosi e richiedere molto tempo. "Speriamo che i nostri test diventeranno uno dei criteri principali per i quali tutti gli sviluppatori valuteranno i loro modelli SHI", ha affermato Time Dan Gandrix, direttore esecutivo del centro di intelligenza artificiale di sicurezza e uno dei coautori dello studio. - "Questo darà una buona base per ridurre al minimo i problemi di sicurezza".