Sicurezza e Trasparenza dell'IA: Nuove linee guida volontarie per gli sviluppatori.
Questa legge incarica l'Istituto Nazionale di Standard e Tecnologia (NIST) di sviluppare linee guida volontarie per rendere i sistemi di Intelligenza Artificiale più sicuri, trasparenti e meno distorti. L'obiettivo è proteggere i diritti costituzionali dei cittadini, le opportunità economiche e la sicurezza dai potenziali rischi dell'IA. Sebbene le linee guida siano volontarie, mirano a stabilire le migliori pratiche del settore per uno sviluppo affidabile dell'IA.
Punti chiave
Il NIST deve creare standard volontari per valutare i rischi dell'IA, comprese le minacce alla sicurezza, all'economia e alle libertà civili.
Le aziende sono incoraggiate a divulgare dettagli sui dati di addestramento dell'IA, sulle capacità del modello e sui metodi di test di sicurezza (come l'”AI red teaming”).
L'attenzione è focalizzata sul miglioramento dell'equità, della privacy e dell'affidabilità dei sistemi di IA utilizzati dal pubblico.
Scaduto
Informazioni aggiuntive
Numero di stampa: 118_HR_9466
Sponsor: Rep. Baird, James R. [R-IN-4]
Data di inizio: 2024-09-06