Legge Valutazione Rischio AI: Sicurezza e Supervisione
Questa legge istituisce un programma per valutare i sistemi avanzati di intelligenza artificiale, con l'obiettivo di proteggere i cittadini da potenziali rischi come la perdita di controllo, le minacce alle infrastrutture critiche o l'erosione delle libertà civili. Le aziende che sviluppano l'IA saranno tenute a partecipare ai test e a fornire dati, con significative sanzioni finanziarie in caso di non conformità. L'obiettivo è garantire uno sviluppo sicuro e controllato dell'IA a beneficio della società.
Punti chiave
Test di sicurezza obbligatori per i sistemi AI avanzati per proteggere i cittadini da rischi imprevisti.
Gli sviluppatori di AI devono fornire codice e dati per i test; la non conformità comporta multe giornaliere di almeno 1.000.000 di dollari.
Il programma svilupperà standard, linee guida e strategie di gestione del rischio per garantire uno sviluppo sicuro dell'AI e prevenire il suo uso improprio contro l'umanità.
La legge prevede un piano per la supervisione federale permanente dell'AI, inclusa la potenziale nazionalizzazione o altre misure strategiche se la superintelligenza dovesse rappresentare una minaccia.
Presentato
Informazioni aggiuntive
Numero di stampa: 119_S_2938
Sponsor: Sen. Hawley, Josh [R-MO]
Data di inizio: 2025-09-29