Protezione dalla Discriminazione Algoritmica: Nuove Regole per l'Intelligenza Artificiale
Questa legge mira a garantire che i sistemi di intelligenza artificiale non vengano utilizzati per discriminare i cittadini. Le aziende e le istituzioni che utilizzano l'IA per prendere decisioni che influenzano le persone saranno ritenute responsabili di qualsiasi discriminazione, come se le decisioni fossero state prese da un essere umano. Inoltre, la legge impone al National Institute of Standards and Technology di testare i sistemi di IA per individuare pregiudizi e discriminazioni.
Punti chiave
Aziende e istituzioni sono pienamente responsabili per la discriminazione derivante da decisioni guidate dall'IA.
Il National Institute of Standards and Technology testerà i sistemi di IA per rilevare e ridurre pregiudizi e discriminazioni.
La legge mira a proteggere i cittadini da trattamenti ingiusti in settori come l'occupazione, l'accesso a programmi o servizi, quando le decisioni sono assistite dall'IA.
Scaduto
Informazioni aggiuntive
Numero di stampa: 117_S_5351
Sponsor: Sen. Portman, Rob [R-OH]
Data di inizio: 2022-12-21