Legge sulla Responsabilità Algoritmica: Supervisione dei Sistemi Decisionali AI
Questa legge mira ad aumentare la trasparenza e la responsabilità delle aziende che utilizzano sistemi di intelligenza artificiale per prendere decisioni critiche che influenzano la vita dei cittadini. Le aziende saranno tenute a valutare i rischi e l'impatto di questi sistemi per proteggere i consumatori da conseguenze negative come la discriminazione o le violazioni della privacy. Ciò darà ai cittadini un maggiore controllo e la possibilità di appellarsi alle decisioni prese dagli algoritmi.
Punti chiave
Le aziende che utilizzano sistemi di IA per decisioni critiche (ad esempio, in istruzione, occupazione, finanza, assistenza sanitaria) saranno tenute a condurre valutazioni d'impatto sui consumatori.
Queste valutazioni mirano a identificare e mitigare potenziali impatti negativi, come la discriminazione basata su razza, genere, età o status socioeconomico.
La Federal Trade Commission (FTC) supervisionerà queste attività, creerà linee guida e manterrà un archivio pubblico di informazioni sui sistemi di IA, consentendo ai cittadini di capire come funzionano e dove cercare ricorso.
I cittadini acquisiranno il diritto di essere informati sull'uso dei sistemi di IA, la possibilità di contestare le decisioni e presentare reclami, migliorando la loro protezione contro gli errori algoritmici.
Scaduto
Informazioni aggiuntive
Numero di stampa: 117_S_3572
Sponsor: Sen. Wyden, Ron [D-OR]
Data di inizio: 2022-02-03