Tecnologia

"Può rompere improvvisamente": la Russia ha usato l'IA da Openi v. Ucraina - FT

Durante le operazioni, doppelhanger e cattiva grammatica, i russi hanno cercato di privare l'Ucraina di partner di supporto, creando contenuti con i neurotromi. Le strutture relative a Russia, Cina, Iran e Israele usano gli strumenti di intelligenza artificiale di Openiai, che hanno creato un chatbot chatgpt per creare e diffondere disinformazione, in particolare sulla guerra in Ucraina. Financial Times ne scrive.

Secondo l'azienda, i modelli di intelligenza artificiale aperta per generare testo e immagini sono stati utilizzati in grandi volumi in cinque operazioni di influenza nascosta e per creare commenti. Il contenuto di cui sopra riguardava la guerra in Ucraina, un conflitto nel settore di Gaza, elezioni in India, nonché politiche in Europa, Stati Uniti e Cina. L'intelligenza artificiale è stata anche utilizzata per aumentare la produttività, tra cui l'adeguamento del codice e i social network.

Secondo il rapporto Openai, gli strumenti dell'azienda sono stati utilizzati, in particolare, nel funzionamento della Russia "dopplganger" volto a minare il sostegno dell'Ucraina. Viene anche menzionata l'operazione di grammatica russa. Secondo l'azienda, gli aggressori hanno utilizzato modelli Openai per avviare il codice per eseguire il bot di Telegram, nonché per creare brevi commenti su argomenti politici in russo e inglese per la distribuzione in Telegram.

Inoltre, secondo la pubblicazione, gli strumenti AI di Openai hanno utilizzato la rete di spamflage cinese che promuove gli interessi di Pechino all'estero. Si tratta di creare testo e commenti su diversi per la pubblicazione sul social network X. Realizzare anche la prevenzione della campagna israeliana, probabilmente organizzata da Stoic, che ha utilizzato AI per creare articoli e commenti su Instagram, Facebook e X. Openi.

Uso dei suoi modelli per i suoi modelli per i suoi modelli inganno o fuorviando gli altri. La società ha dichiarato di lavorare per rilevare campagne di disinformazione e creano anche strumenti basati sull'intelligenza artificiale per farlo in modo più efficiente. I rappresentanti di Openi assicurano di aver già complicato il lavoro degli aggressori e i loro modelli hanno ripetutamente rifiutato di generare il contenuto richiesto.

Openi Ben Nimmo, capo ricercatore del dipartimento di intelligence e indagine, ha dichiarato in una conversazione con i giornalisti che l'uso di modelli OpenAI nelle campagne è leggermente aumentato. "Ora non è il momento dell'autostima. La storia mostra che le operazioni di influenza che non hanno prodotto risultati per anni possono improvvisamente lampeggiare se nessuno li sta cercando", ha sottolineato Ben Nimmo.

Ricordiamo che Openai ha testato il suo sistema di intelligenza artificiale GPT-4 per capire se rappresenta minacce all'umanità. Gli esperti hanno trovato un "leggero rischio" che aiuterà le persone a creare un'arma biologica mortale. Openai ha anche riferito che Openai ha annunciato una partnership con Axel Springer's Media.