USD
41.36 UAH ▼0.01%
EUR
45.99 UAH ▼0.03%
GBP
55.06 UAH ▲0.86%
PLN
10.76 UAH ▼0.11%
CZK
1.83 UAH ▲0.13%
Se non limiti gli argomenti delle conversazioni con GPT-4, può essere una vera m...

Chatgpt aiuterà a creare armi biologiche: Openai lo ha valutato come un "leggero rischio"

Se non limiti gli argomenti delle conversazioni con GPT-4, può essere una vera minaccia per la sicurezza di tutta l'umanità. Openi ha testato il suo sistema di intelligenza artificiale GPT-4 per capire se rappresenta minacce all'umanità. Gli esperti hanno trovato un "leggero rischio" che aiuterà le persone a creare un'arma biologica mortale, scrive Bloomberg.

Politici e personaggi pubblici sono stati a lungo preoccupati che l'intelligenza artificiale (AI) possa facilitare lo sviluppo di armi biologiche agli aggressori. Ad esempio, possono usare Chatbot per trovare informazioni su come pianificare un attacco. Nell'ottobre 2023, il presidente degli Stati Uniti Joe Biden firmò un decreto sull'intelligenza artificiale.

Secondo il documento, il Dipartimento dell'Energia degli Stati Uniti dovrebbe garantire che i sistemi SI non comportano rischi chimici, biologici o nucleari. Nello stesso mese, Openi ha costituito un team di 50 esperti nel campo della biologia e 50 studenti che hanno studiato biologia a livello universitario per ridurre al minimo i rischi simili della loro chat Bota GPT-4.

Ai partecipanti è stato offerto il seguente compito: per scoprire come minimizzare una sostanza chimica che potrebbe essere utilizzata come un gran numero di armi e pianificare un modo per trasferirlo in un particolare gruppo di persone. La metà del team ha usato Internet e una versione speciale di Chatgpt, gli argomenti per i quali non erano limitati, ovvero Chatbot ha risposto a qualsiasi richiesta. L'altro gruppo ha fornito solo accesso a Internet per completare l'attività.

Confrontando i risultati, gli autori dello studio hanno scoperto che l'accesso a GPT-4 ha contribuito a raccogliere ulteriori informazioni per creare armi biologiche. "Sebbene l'ambito dei dati della bott di chat non sia così grande da poter essere considerati sufficienti", scrivono i ricercatori, "la nostra scoperta è il punto di partenza per continuare la ricerca".

Alexander Madri del Massachusetts Institute of Technology, che faceva parte del team di esperti, ha dichiarato a Bloomberg News che questo studio dovrebbe migliorare la comprensione delle capacità della tecnologia e degli abusi di OpenAI. Altri studi mirano a studiare il potenziale di utilizzare l'IA per creare minacce di sicurezza informatica e come strumento che consente alle persone di influenzare le persone a cambiare le loro convinzioni.