Sophos ha pubblicato due report dedicati all’utilizzo dell’intelligenza artificiale (IA) nel contesto del cybercrimine. I risultati emersi indicano che, al momento, i cybercriminali mostrano una certa dose di scetticismo nei confronti dell’adozione dell’IA per le proprie attività illecite.
Il primo studio, intitolato “The Dark Side of AI: Large-Scale Scam Campaigns Made Possible by Generative AI”, proietta uno sguardo nel futuro, dimostrando come tecnologie come ChatGPT potranno essere sfruttate per perpetrare frodi su vasta scala con un livello di competenze tecniche minime. Questo solleva preoccupazioni significative riguardo alla possibilità di future campagne di truffa che sfruttano l’IA per aumentare la loro portata e sofisticazione.
Tuttavia, il secondo report, denominato “Cybercriminals Can’t Agree on GPTs,” offre un’analisi sorprendente. Nonostante le notevoli potenzialità dell’IA, alcuni cybercriminali mostrano di essere ben lontani dall’adozione di Large Language Models (LLM) come ChatGPT. Alcuni di loro si dimostrano scettici e addirittura preoccupati riguardo all’impiego dell’IA nei loro attacchi. Questa discrepanza nell’accettazione delle tecnologie emergenti suggerisce che, nonostante l’evoluzione rapida dell’IA, alcuni settori del mondo del crimine informatico rimangano cauti e riflettano sulle implicazioni dell’adozione di tali strumenti avanzati.
Il lato oscuro della AI
Utilizzando un semplice template per e-commerce e tool LLM come GPT-4, gli specialisti di Sophos X-Ops sono stati in grado di costruire un sito web completamente funzionante dotato di immagini, contributi audio e descrizioni di prodotto generati da AI, il tutto completato da un finto login Facebook e una finta pagina di checkout con cui è possibile sottrarre le credenziali di login e i numeri di carta di credito di utenti inconsapevoli. Questo sito è stato creato con pochissime conoscenze tecniche e, utilizzando lo stesso strumento, Sophos X-Ops è riuscita in pochi minuti a replicare centinaia di siti simili semplicemente premendo un pulsante.
Ben Gelman, senior data scientist di Sophos, ha sottolineato che i criminali utilizzano le nuove tecnologie per automatizzare le loro attività, e le nuove IA sono destinate a fare lo stesso. Tuttavia, la ricerca di Sophos mira a restare un passo avanti rispetto ai cybercriminali, creando un sistema avanzato per la generazione di siti fraudolenti su vasta scala. Questo approccio consente di analizzare la minaccia e prepararsi ad affrontarla prima che si diffonda.
“È naturale – e prevedibile – che i criminali sfruttino le nuove tecnologie per automatizzare le loro attività. Le e-mail di spam sono state un importante passo avanti nella tecnologia al servizio delle truffe perché ha cambiato la scala delle relative attività. Le nuove AI sono destinate a fare lo stesso: dovesse esistere una tecnologia AI capace di creare minacce automatizzate complete, prima o poi le persone la utilizzerebbero. Abbiamo già assistito all’integrazione di elementi di AI generativa nelle truffe classiche, come testi o fotografie prodotti da AI, per adescare vittime. Tuttavia, uno dei motivi che ci hanno spinto a effettuare questa ricerca è quello di restare un passo avanti rispetto ai cybercriminali. Creando un sistema per la generazione di siti fraudolenti su vasta scala ben più avanzato dei tool attualmente impiegati dai criminali, abbiamo la particolare opportunità di analizzare la minaccia e prepararci ad affrontarla prima che possa proliferare”.
GPT, opinioni discordanti tra i cybercriminali
Per comprendere le opinioni dei cybercriminali della AI, Sophos X-Ops ha esaminato quattro importanti forum del dark web alla ricerca di conversazioni sui modelli LLM. Sebbene il ricorso alla IA da parte dei cybercriminali sia ancora in fase embrionale, nel dark web si discute sulle potenzialità di questa tecnologia ai fini del social engineering, con Sophos X-Ops che ha già verificato l’impiego di IA nelle criptotruffe a sfondo romantico.
La ricerca ha anche rivelato che la maggioranza dei post riguardava la vendita di account ChatGPT compromessi e dei cosiddetti “jailbreak” – sistemi che consentono di aggirare le protezioni integrate negli LLM al fine di sfruttarli per obiettivi illeciti. Sophos X-Ops ha individuato anche dieci derivati da ChatGPT che, secondo i relativi autori, possono essere usati per lanciare cyberattacchi e sviluppare malware. Le reazioni a questi strumenti e ad altre applicazioni illecite degli LLM non sono univoche, con molti criminali che temono addirittura che gli autori di queste imitazioni di ChatGPT stiano tentando di truffarli.
Christopher Budd, director di X-Ops research di Sophos, ha sottolineato che, nonostante le preoccupazioni sul possibile abuso dell’IA da parte dei cybercriminali, la ricerca ha rilevato più scetticismo che entusiasmo nell’underground. Tuttavia, alcuni cybercriminali hanno tentato di creare malware o tool di attacco mediante LLM, ma i risultati sono stati rudimentali e spesso accolti con scetticismo dagli altri utenti. La ricerca evidenzia che, almeno per ora, i dibattiti sugli LLM tra i cybercriminali sono simili a quelli di chiunque altro.
“Per quanto dal lancio di ChatGPT vi siano state notevoli preoccupazioni sul possibile abuso della AI da parte dei cybercriminali, la nostra ricerca ha rilevato che per ora nell’underground circola più scetticismo che entusiasmo. In due dei quattro forum del dark web che abbiamo analizzato c’erano solo 100 post dedicati alla AI. Per confronto, nello stesso periodo sono stati pubblicati ben 1.000 post sul tema delle criptovalute.
Abbiamo visto che alcuni cybercriminali hanno provato a creare malware o tool di attacco mediante LLM, ma i risultati sono stati alquanto rudimentali e spesso accolti con scetticismo dagli altri utenti. In un caso, un cybercriminale deciso a dimostrare le potenzialità di ChatGPT ha rivelato inavvertitamente informazioni significative sulla sua reale identità. Abbiamo persino trovato numerosi articoli d’opinione relativi ai possibili effetti negativi della AI sulla società e alle implicazioni etiche del suo utilizzo. In altre parole, almeno per ora, pare che i dibattiti sugli LLM in corso tra cybercriminali siano gli stessi di chiunque altro”.
Entrambi i report offrono uno sguardo approfondito sull’interazione in corso tra il cybercrimine e l’IA, sottolineando l’importanza di comprendere e monitorare le dinamiche emergenti in questo contesto in continua evoluzione.
Leggi The Dark Side of AI: Large-Scale Scam Campaigns Made Possible by Generative AI e Cybercriminals Can’t Agree on GPTs