Tecnologia

Gli stati avanzati sono in grado di creare un cyberscriture che aggirerà qualsiasi protezione: ciò che è minaccioso

Il software dannoso creato dall'intelligenza artificiale ti consentirà di eseguire cavoli rapidi e impercettibili, colpendo computer e altre vittime. Attraverso l'addestramento di intelligenza artificiale su grandi database, gli stati tecnologicamente avanzati possono già creare una difesa informatica elusione. Ciò è avvertito dal National Cyber ​​Security Center del Regno Unito (NCSC).

Al fine di creare software così potenti, le materie di minaccia devono insegnare il modello AI usando database di espressione di alta qualità: programmi per computer dannosi, frammenti di codici o comandi di comandi che utilizzano la vulnerabilità dei sistemi. Il sistema risultante creerà un nuovo codice che aggirerà le attuali misure di sicurezza.

"Esiste una probabilità realistica che gli stati ad alta tecnologia abbiano programmi dannosi abbastanza grandi da insegnare a questo scopo un modello di intelligenza artificiale", ha avvertito NCSC. Questo avvertimento era solo una parte di una serie di segnali di allarme che NCSC ha menzionato nel suo rapporto.

L'agenzia prevede che l'intelligenza artificiale aggraverà la minaccia globale dei guerrieri, migliorerà la ricerca e il monitoraggio delle vittime e ridurrà la barriera per penetrare in criminali informatici. L'intelligenza artificiale generativa aggrava anche le minacce nel campo dell'ingegneria sociale, come le interazioni convincenti con le vittime e la creazione di documenti seducenti.

L'AIS complicherà il rilevamento di richieste di phishing, esaurimento e dannose tramite e -mail o reimpostazione della password. Per questo motivo, Nation -State riceveranno le armi più potenti. "Le entità statali molto capaci hanno quasi certamente il massimo potenziale come fonte di minacce informatiche per utilizzare il potenziale dell'intelligenza artificiale nell'operazione informatica estesa.

" Tuttavia, nel prossimo futuro, si prevede che l'intelligenza artificiale aggraverà le minacce disponibili, non creerà rischi qualitativamente nuovi. Gli esperti sono particolarmente preoccupati che ciò aggraverà la minaccia globale dei guerrieri. "I Warriors continuano a essere minacciati dalla sicurezza nazionale", afferma James Babbage, CEO dell'agenzia.