Secondo l'azienda, l'intelligenza artificiale generativa ha permesso di utilizzare tattiche senza software dannoso, automatizzare il movimento laterale e ingegneria sociale in scala. "I cattivi ora operano alla velocità delle macchine in diversi settori, il che rende molti rimedi tradizionali obsoleti. Questa è una rivoluzione nella chirurgia dei malfattori e richiede un nuovo approccio alla sicurezza", ha sottolineato Crowdstrike.
Il rapporto menziona separatamente il famus collima correlato alla DPRK, che ha penetrato più di 320 aziende durante questo periodo, utilizzando servizi con grandi modelli linguistici (LLM) per creare curriculum, identificazione falsa e persino risposte a interviste reali.
Dopo l'occupazione, l'autostima si è basata su assistenti di codifica artificiale e strumenti di traduzione per svolgere contemporaneamente diversi compiti remoti per gli sviluppatori, rubando contemporaneamente la proprietà intellettuale.
Al fine di evitare tali situazioni, Crowdstrike raccomanda le procedure di controllo avanzate di persone durante il reclutamento, i test in tempo reale per i falsi durante le interviste, il monitoraggio più attento delle attività di accesso remoto, nonché una costante verifica di dati di identificazione, endpoint e telemetria cloud.
Tutti i diritti sono protetti IN-Ukraine.info - 2022