Loi sur la Responsabilité Algorithmique: Surveillance des Systèmes de Décision IA
Cette loi vise à accroître la transparence et la responsabilité des entreprises utilisant des systèmes d'intelligence artificielle pour prendre des décisions critiques affectant la vie des citoyens. Les entreprises devront évaluer les risques et l'impact de ces systèmes afin de protéger les consommateurs contre les conséquences négatives telles que la discrimination ou les atteintes à la vie privée. Cela donnera aux citoyens un plus grand contrôle et la possibilité de faire appel des décisions prises par les algorithmes.
Points clés
Les entreprises utilisant des systèmes d'IA pour des décisions critiques (par exemple, dans l'éducation, l'emploi, la finance, les soins de santé) devront effectuer des évaluations d'impact sur les consommateurs.
Ces évaluations visent à identifier et à atténuer les impacts négatifs potentiels, tels que la discrimination fondée sur la race, le sexe, l'âge ou le statut socio-économique.
La Federal Trade Commission (FTC) supervisera ces activités, élaborera des lignes directrices et tiendra un répertoire public d'informations sur les systèmes d'IA, permettant aux citoyens de comprendre leur fonctionnement et où chercher des recours.
Les citoyens obtiendront le droit d'être informés de l'utilisation des systèmes d'IA, la possibilité de contester les décisions et de déposer des plaintes, renforçant ainsi leur protection contre les erreurs algorithmiques.
Expiré
Informations supplémentaires
Numéro d'impression : 117_S_3572
Parrain : Sen. Wyden, Ron [D-OR]
Date de début : 2022-02-03