La crescente adozione dell’Intelligenza Artificiale (IA) sta portando significative opportunità all’industria, ai consumatori e alla società nel suo complesso. Tuttavia, l’avanzamento di questa tecnologia introduce anche una serie di rischi che devono essere attentamente gestiti per garantirne un utilizzo responsabile e sicuro e per sfruttarne appieno il potenziale.
In particolare, nell’ambito della cybersecurity, l’IA rappresenta un’opportunità straordinaria per rafforzare le difese contro attacchi informatici e potenziare la protezione dei sistemi critici. L’intelligenza artificiale può migliorare gli strumenti di rilevamento delle minacce, rendendo i sistemi più resilienti alle incursioni. Parallelamente, sul fronte della privacy, l’IA potrebbe essere sfruttata per proteggere meglio i dati personali, ad esempio attraverso lo sviluppo di assistenti virtuali capaci di aiutare gli utenti nella gestione delle loro preferenze sulla privacy durante la navigazione online.
Tuttavia, la stessa tecnologia che offre questi vantaggi può anche essere usata da attori malevoli per compiere attacchi più sofisticati. Phishing basato sull’IA, per esempio, può includere l’uso di simulazioni vocali altamente credibili, rendendo più difficile individuare le frodi. Inoltre, nonostante l’IA migliori la capacità di individuare le minacce, esiste il rischio di un aumento di falsi positivi, che potrebbero compromettere l’efficacia delle misure di sicurezza. Inoltre, l’IA ha già generato nuovi rischi per la privacy, in particolare legati alla re-identificazione. Grazie alle capacità di analisi e incrocio di dati eterogenei, l’IA può ricollegare informazioni teoricamente anonime a individui reali, esponendo a rischi di monitoraggio e sorveglianza comportamentale. Durante l’addestramento dei modelli, inoltre, c’è il pericolo che informazioni private vengano rivelate inavvertitamente.
Per rispondere a queste criticità e sfide, il National Institute of Standards and Technology (NIST) ha lanciato un nuovo programma dedicato alla gestione dei rischi legati all’uso dell’IA in cybersecurity e privacy. Questa iniziativa mira colmare queste lacune offrendo linee guida e strumenti che aiutino le organizzazioni a sfruttare al meglio le potenzialità dell’IA e gestire i rischi emergenti associati alla sua adozione.
Il nuovo programma del NIST si basa su una serie di linee guida, standard e strumenti già sviluppati dal NIST, come il Cybersecurity Framework, il Privacy Framework, e l’AI Risk Management Framework (AI RMF) e si concentra su tre aree principali:
- Protezione dei sistemi IA: garantire che i sistemi, le infrastrutture e i dati utilizzati nei modelli di IA siano protetti da minacce sia esistenti che emergenti.
- Difesa contro attacchi IA: sviluppare strategie per difendersi dagli attacchi informatici potenziati dall’intelligenza artificiale, come quelli che utilizzano IA per ingannare sistemi di sicurezza.
- Uso dell’IA nella difesa informatica: supportare le organizzazioni nell’impiego dell’IA per migliorare le loro difese e proteggere la privacy.
Per realizzare questi obiettivi, il programma coinvolgerà stakeholder del settore privato, del governo e del mondo accademico, creando un ecosistema di collaborazione incentrato sull’uso responsabile dell’intelligenza artificiale. Sarà fondamentale adattare i framework esistenti, tenendo conto delle nuove minacce e delle opportunità create dall’IA. Attraverso il NCCOE (National Cybersecurity Center of Excellence), il programma promuoverà lo sviluppo di profili di comunità specifici per i diversi contesti di applicazione dell’IA, partendo dal Cybersecurity Framework e integrando raccomandazioni per la protezione della privacy. Il NIST collaborerà anche con altre agenzie federali, enti commerciali e comunità di ricerca per garantire un approccio olistico e coordinato alla gestione della sicurezza e della privacy nell’era dell’IA.