Il National Institute of Standards and Technology (NIST) ha lanciato un programma innovativo di test, valutazione, validazione e verifica (TEVV) per migliorare la comprensione delle capacità e degli impatti dell’intelligenza artificiale.
Denominato Assessing Risks and Impacts of AI (ARIA), il nuovo programma del NIST si concentrerà sulla valutazione dei rischi sociali e degli impatti derivanti dall’interazione regolare delle persone con sistemi di intelligenza artificiale in contesti realistici. ARIA svilupperà metodi per quantificare il funzionamento dei sistemi AI all’interno di tali contesti sociali, contribuendo così a stabilire basi per sistemi di IA affidabili.
I risultati del programma ARIA supporteranno i test dell’AI Safety Institute statunitense, facilitando la costruzione di sistemi di intelligenza artificiale sicuri e affidabili. L’obiettivo principale del programma è assistere organizzazioni e individui nel determinare la validità, affidabilità, sicurezza, protezione, privacy ed equità delle tecnologie di intelligenza artificiale una volta implementate.
Questo lancio arriva poco dopo diversi annunci del NIST riguardanti il traguardo dei 180 giorni dell’Ordine esecutivo sull’intelligenza artificiale affidabile e la presentazione della visione strategica dell’Istituto statunitense per la sicurezza dell’intelligenza artificiale e della sua rete di sicurezza internazionale.
“Per comprendere appieno l’impatto che l’intelligenza artificiale sta avendo e avrà sulla nostra società, dobbiamo testare come funziona l’intelligenza artificiale in scenari realistici – ed è esattamente ciò che stiamo facendo con questo programma”, ha affermato il ministro del Commercio americano Gina Raimondo. “Con il programma ARIA e altri sforzi per sostenere le responsabilità del commercio ai sensi dell’ordine esecutivo del presidente Biden sull’intelligenza artificiale, il NIST e l’istituto statunitense per la sicurezza dell’intelligenza artificiale stanno facendo ogni leva quando si tratta di mitigare i rischi e massimizzare i benefici dell’intelligenza artificiale.”
Laurie E. Locascio, Sottosegretario al Commercio per gli standard e la tecnologia e Direttore del NIST, ha dichiarato: “Il programma ARIA è progettato per soddisfare le esigenze del mondo reale man mano che cresce l’uso della tecnologia AI”. “Questo nuovo impegno sosterrà l’Istituto statunitense per la sicurezza dell’intelligenza artificiale, amplierà il già ampio impegno del NIST con la comunità di ricerca e aiuterà a stabilire metodi affidabili per testare e valutare la funzionalità dell’intelligenza artificiale nel mondo reale”.
ARIA amplia il già esistente AI Risk Management Framework, pubblicato dal NIST nel gennaio 2023, rendendo operativa la funzione di misurazione del rischio del framework. Utilizzando tecniche quantitative e qualitative, ARIA aiuterà a valutare i rischi e gli impatti dell’IA, sviluppando nuove metodologie e parametri per quantificare la capacità di un sistema di mantenere una funzionalità sicura nei contesti sociali.
Reva Schwartz, responsabile del programma ARIA del NIST Information Technology Lab, ha affermato: “Misurare gli impatti non riguarda solo il funzionamento di un modello in un ambiente di laboratorio”. “ARIA considererà l’intelligenza artificiale oltre il modello e valuterà i sistemi nel contesto, compreso ciò che accade quando le persone interagiscono con la tecnologia dell’intelligenza artificiale in contesti realistici durante un uso regolare. Ciò offre una visione più ampia e olistica degli effetti netti di queste tecnologie”.
I risultati di ARIA contribuiranno agli sforzi collettivi del NIST e dell’AI Safety Institute statunitense per costruire sistemi di intelligenza artificiale sicuri, protetti e affidabili.