Loi sur la Responsabilité Algorithmique 2025 : Surveillance accrue des décisions de l'IA
Cette loi vise à accroître la transparence et la responsabilité des entreprises utilisant des algorithmes qui influencent des décisions importantes dans la vie des citoyens, telles que l'accès à l'éducation, à l'emploi ou aux services financiers. Les entreprises devront évaluer l'impact de ces algorithmes et signaler les conséquences négatives potentielles, protégeant ainsi les consommateurs contre les décisions injustes ou nuisibles prises par les systèmes d'IA.
Points clés
Les entreprises déployant des algorithmes avancés pour des décisions critiques (par exemple, crédit, emploi, soins de santé) devront effectuer des évaluations d'impact sur les consommateurs.
Les évaluations d'impact des algorithmes visent à identifier et à atténuer les effets négatifs potentiels, y compris la discrimination.
La Federal Trade Commission (FTC) supervisera ces activités, établira un répertoire public des algorithmes et publiera des rapports pour informer les citoyens de l'impact des algorithmes sur leur vie.
La loi crée un nouveau Bureau de la Technologie au sein de la FTC et renforce ses capacités d'application des réglementations relatives aux algorithmes.
Introduit
Informations supplémentaires
Numéro d'impression : 119_HR_5511
Parrain : Rep. Clarke, Yvette D. [D-NY-9]
Date de début : 2025-09-19