In una mossa significativa verso il miglioramento della sicurezza, protezione e affidabilità dell’intelligenza artificiale (IA), il National Institute of Standards and Technology (NIST) ha rilasciato la nuova risorsa dedicata all’IA generativa. Questo documento, noto come “Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile,” serve come risorsa supplementare al già esistente AI Risk Management Framework (AI RMF 1.0), in linea con l’Ordine Esecutivo 14110 del Presidente Biden sull’intelligenza artificiale sicura, protetta e affidabile.

L’AI RMF è stato progettato per un uso volontario e mira a migliorare la capacità delle organizzazioni di integrare considerazioni di affidabilità nella progettazione, sviluppo, implementazione e valutazione di prodotti, servizi e sistemi di IA.

Questo documento è pensato per essere una risorsa complementare per gli utenti dell’AI RMF del NIST. Si concentra su un elenco di 12 rischi e poco più di 200 azioni che gli sviluppatori possono intraprendere per gestirli.

I 12 rischi includono attacchi alla sicurezza informatica, la produzione di informazioni errate e disinformative o discorsi d’odio e altri contenuti dannosi, e sistemi di intelligenza artificiale generativa che confabulano l’output. Dopo aver descritto ogni rischio, il documento presenta una matrice di azioni che gli sviluppatori possono intraprendere per mitigarlo, mappate sull’AI RMF.

Questa guida rappresenta un passo importante per le organizzazioni che cercano di implementare e gestire sistemi di IA generativa in modo sicuro e responsabile, contribuendo a proteggere utenti e infrastrutture dagli eventuali rischi associati a queste tecnologie avanzate.

Scarica il documento https://doi.org/10.6028/NIST.AI.600-1

https://www.nist.gov/publications/artificial-intelligence-risk-management-framework-generative-artificial-intelligence

 

Twitter
Visit Us
LinkedIn
Share
YOUTUBE