Frodi, disinformazione, social engineering e cybercrime: sono queste le aree di preoccupazione individuate da Europol in relazione all’utilizzo di ChatGPT, il prototipo di chatbot basato sull’intelligenza artificiale e l’apprendimento automatico sviluppato da OpenAI e specializzato nella conversazione con un utente umano.
In risposta alla crescente attenzione del pubblico verso ChatGPT, l’Europol Innovation Lab ha organizzato una serie di workshop con esperti in materia provenienti da tutta Europol per esplorare come i criminali possono abusare di modelli linguistici di grandi dimensioni (LLM) come ChatGPT e pubblicato il primo report Tech Watch Flash di Europol che fornisce una panoramica sul potenziale uso improprio di ChatGPT e offre una prospettiva su ciò che potrebbe ancora accadere.
Il report, intitolato “ChatGPT – the impact of Large Language Models on Law Enforcement” mira a sensibilizzare sul potenziale uso improprio degli LLM, aprire un dialogo con le aziende di intelligenza artificiale (IA) per aiutarle a costruire migliori tutele e promuovere lo sviluppo di sistemi di intelligenza artificiale sicuri e affidabili.
Una versione più lunga e più approfondita di questo report è stata prodotta solo per le forze dell’ordine.
Cosa sono i grandi modelli linguistici?
Un modello di linguaggio di grandi dimensioni è un tipo di sistema di intelligenza artificiale in grado di elaborare, manipolare e generare testo.
La formazione di un LLM comporta l’alimentazione di grandi quantità di dati, come libri, articoli e siti Web, in modo che possa apprendere i modelli e le connessioni tra le parole per generare nuovi contenuti.
ChatGPT è un LLM sviluppato da OpenAI e rilasciato al grande pubblico come parte di un’anteprima di ricerca nel novembre 2022.
L’attuale modello pubblicamente accessibile alla base di ChatGPT è in grado di elaborare e generare testo simile a quello umano in risposta alle richieste dell’utente. Nello specifico, il modello può rispondere a domande su una varietà di argomenti, tradurre testi, impegnarsi in scambi conversazionali (“chat”), generare nuovi contenuti e produrre codice funzionale.
Il lato oscuro dei Large Language Models
Poiché le capacità di LLM come ChatGPT vengono attivamente migliorate, il potenziale sfruttamento di questi tipi di sistemi di intelligenza artificiale da parte dei criminali fornisce una prospettiva cupa.
Le seguenti tre aree di criminalità sono tra le molte aree di preoccupazione identificate dagli esperti di Europol:
- Frode e social engineering: la capacità di ChatGPT di redigere testi altamente realistici lo rende uno strumento utile per scopi di phishing. La capacità dei LLM di riprodurre modelli linguistici può essere utilizzata per impersonare lo stile del discorso di individui o gruppi specifici. Questa capacità può essere abusata su larga scala per indurre le potenziali vittime a riporre la loro fiducia nelle mani di attori criminali.
- Disinformazione: ChatGPT eccelle nella produzione di testi dal suono autentico a velocità e scala. Ciò rende il modello ideale per scopi di propaganda e disinformazione, in quanto consente agli utenti di generare e diffondere messaggi che riflettono una narrativa specifica con uno sforzo relativamente ridotto.
- Cybercrime: oltre a generare un linguaggio simile a quello umano, ChatGPT è in grado di produrre codice in diversi linguaggi di programmazione. Per un potenziale criminale con scarse conoscenze tecniche, questa è una risorsa inestimabile per produrre codice dannoso.
Con il progredire della tecnologia e la disponibilità di nuovi modelli, diventerà sempre più importante per le forze dell’ordine rimanere in prima linea in questi sviluppi per anticipare e prevenire gli abusi.
Leggi qui le raccomandazioni di Europol e le conclusioni complete del rapporto.