Diversi ricercatori hanno scoperto che ChatGPT è stato utilizzato per creare malware di tipo polimorfico che elude le avanzate tecniche di rilevamento EDR.
I malware rappresentano una grave minaccia per la sicurezza e la privacy degli utenti e delle aziende: possono rubare dati, danneggiare i file, criptare i sistemi, spiare le attività ed eseguire altre azioni dannose. Spesso vengono impiegate tecniche come EDR (Endpoint Detection and Response) per proteggersi dalle minacce informatiche. Gli strumenti di sicurezza EDR monitorano e analizzano il comportamento delle applicazioni e dei processi su un dispositivo. Tuttavia, non sono perfetti: possono non notare alcuni campioni di malware che utilizzano tecniche sofisticate per eludere il rilevamento, come la crittografia, l’offuscamento, il polimorfismo o il metamorfismo. Queste tecniche rendono il codice del malware difficile da leggere e analizzare, modificandone l’aspetto o la struttura senza intaccarne la funzionalità.
Jeff Sims, un ingegnere della sicurezza di HYAS InfoSec, a marzo ha pubblicato un white paper che illustra un progetto proof-of-concept chiamato BlackMamba. Questa applicazione è un tipo di keylogger polimorfico che invia richieste a ChatGPT utilizzando un’API ogni volta che viene eseguito.
“Utilizzando queste nuove tecniche, un attore delle minacce può combinare una serie di comportamenti tipicamente altamente rilevabili in una combinazione insolita ed eludere il rilevamento sfruttando l’incapacità del modello di riconoscerlo come modello dannoso”, spiega Sims.
CyberArk, azienda specializzata in sicurezza informatica, ha recentemente dimostrato la capacità di ChatGPT nel creare malware polimorfico. L’exploit di questa tecnologia è stato presentato in un articolo del blog scritto da Eran Shimony e Omer Tsarfati i quali spiegano dettagliatamente come l’inserimento di codice tramite ChatGPT consenta di modificare gli script una volta attivati, eludendo così le più avanzate tecniche di rilevamento di comportamenti malevoli adottate attualmente.
Al momento, questi esempi sono da considerarsi solo come una dimostrazione teorica. Tuttavia, l’Ai nelle mani sbagliate potrebbe creare gravi danni. Si auspica che questa consapevolezza porti a ulteriori sviluppi nei sistemi di sicurezza volti a prevenire i danni che un codice mutante di questo genere potrebbe causare in un contesto reale.
https://www.tomshw.it/hardware/chatgpt-crea-malware-mutanti-che-fregano-gli-antivirus/