Trend Micro ha pubblicato la nuova edizione del suo rinomato studio annuale “Critical Scalability” dedicato all’analisi del panorama della sicurezza informatica e alla previsione delle minacce iche imperverseranno nel corso dell’anno. Il report mette in luce il ruolo trasformativo dell’intelligenza artificiale generativa (GenAI) nel contesto delle minacce cyber, anticipando un’imminente ondata di tattiche sofisticate di social engineering e furti di identità, potenziate dall’utilizzo di strumenti basati su GenAI.
Secondo i dati raccolti e analizzati nel report, il 2024 sarà segnato dagli attacchi GenAI. L’ampia diffusione e la crescente qualità dell’intelligenza artificiale generativa saranno identificate come la principale causa di un cambiamento radicale nelle modalità di attacco e nelle tattiche di phishing.
“I LLM, ossia i Large Language Model, sono una tecnologia AI avanzata, incentrata sulla comprensione e sull’analisi del testo. Questi modelli, presenti in qualsiasi lingua, sono una reale e seria minaccia per la sicurezza perché eliminano tutti gli indicatori tipici del phishing, come ad esempio gli errori di formattazione o quelli grammaticali. Questo rende gli attacchi estremamente difficili da individuare”, ha affermato Alessio Agnello, Technical Director di Trend Micro Italia. “Le imprese e le organizzazioni devono superare le tradizionali misure anti-phishing e adottare controlli di sicurezza moderni. Gli strumenti di difesa avanzati affiancano la capacità umana nel rilevare i pericoli e assicurano resilienza contro le tattiche cybercriminali di oggi”.
L’ampia disponibilità e l’incessante miglioramento della qualità della GenAI, insieme all’utilizzo delle Generative Adversarial Networks (GAN), saranno la causa di un cambiamento epocale negli attacchi e nelle tattiche di phishing. Questa evoluzione consentirà la creazione di audio e video iper-realistici a basso costo, dando vita a una nuova ondata di truffe come le business email compromise (BEC), rapimenti virtuali e altro ancora.
Considerando il potenziale guadagno significativo di questi attacchi, i cybercriminali saranno incentivati a sviluppare strumenti GenAI malevoli per lanciare campagne o utilizzare tool legittimi ma con credenziali rubate, mascherando le proprie identità all’interno di VPN.
Anche i modelli di intelligenza artificiale potrebbero essere soggetti ad attacchi. Mentre i modelli generici come GenAI e LLM sono generalmente difficili da influenzare grazie ai loro ampi e variegati set di dati, i modelli di machine learning basati su cloud potrebbero essere un bersaglio più attraente. I dataset più specializzati su cui si basano potrebbero essere attaccati per inquinare le informazioni attraverso diverse tecniche, dall’esfiltrazione di dati sensibili al sabotaggio dei filtri anti-frodi, per esempio.
Anche i veicoli connessi potrebbero essere nel mirino di questi attacchi. In generale, i cybercriminali potrebbero compromettere i database da cui i modelli GenAI traggono le informazioni. Sorprendentemente, compiere un attacco di questo tipo potrebbe costare meno di 100 dollari.
Queste tendenze potrebbero richiamare un maggiore controllo normativo e un rafforzamento dell’impegno dell’intero settore della cybersecurity.
“L’intero settore della cybersecurity deve collaborare attivamente con i governi e le istituzioni per sviluppare policy e regolamentazioni specifiche relative all’AI e alla sicurezza”, ha commentato Alessandro Fontana, Country Manager di Trend Micro Italia. “Come Trend Micro sosteniamo ogni giorno la Pubblica Amministrazione Italiana e le Forze dell’Ordine nella lotta al cybercrime e ribadiamo il nostro impegno e la nostra disponibilità per favorire la sicurezza dell’intero sistema Paese”.
Previsioni di Trend Micro per il 2024, gli highlight:
- Le lacune di sicurezza negli ambienti cloud consentiranno ad attacchi worm cloud-native di avere successo. Gli attacchi colpiranno vulnerabilità ed errori di configurazione, utilizzando un livello alto di automazione, per centrare con il minimo sforzo il maggior numero di container, account e servizi
- I dati saranno trasformati in armi e verranno utilizzati per colpire i nuovi modelli cloud-based di machine learning. I dataset più specializzati su cui si basano i modelli di machine learning saranno presi di mira per inquinare le informazioni attraverso diverse tecniche, dall’esfiltrazione di dati sensibili al boicottaggio dei filtri anti-frodi, per esempio
- L’intelligenza artificiale generativa permetterà ai truffatori di far evolvere le trappole di social engineering in attacchi mirati. L’ampia disponibilità e la qualità migliorata dell’intelligenza artificiale generativa, insieme all’utilizzo di Generative Adversarial Networks (GAN), saranno la causa di un cambiamento epocale negli attacchi e nelle tattiche di phishing
- Gli attacchi ai software della supply chain saranno il campanello di allarme per una maggior protezione dei sistemi CI/CD dei fornitori. Questi attacchi potrebbero colpire sia i software open-source sia gli strumenti per la gestione delle identità, come le SIM dei telefoni, cruciali nella gestione flotte
- I cybercriminali prenderanno di mira le blockchain, terreni di caccia ancora poco esplorati, per escogitare piani di estorsioni. Le azioni potrebbero consistere nel modificare, sovrascrivere o cancellare le voci e chiedere un riscatto. In alternativa, i cybercriminali potrebbero provare a crittografare l’intera blockchain attraverso il controllo di un numero sufficiente di nodi
Ulteriori informazioni sono disponibili a questo link
Il white paper è disponibile a questo link