Ley de Responsabilidad Algorítmica: Supervisión de Sistemas de Decisión de IA
Esta ley busca aumentar la transparencia y la rendición de cuentas de las empresas que utilizan sistemas de inteligencia artificial para tomar decisiones críticas que afectan la vida de los ciudadanos. Las empresas deberán evaluar el impacto de estos sistemas en los consumidores e informar sobre posibles efectos negativos, protegiendo a los ciudadanos de decisiones algorítmicas injustas o perjudiciales en áreas clave de la vida.
Puntos clave
Las empresas que utilicen IA para decisiones críticas (por ejemplo, en educación, empleo, finanzas, atención médica, vivienda) deberán evaluar su impacto en los consumidores.
Se exigirán informes obligatorios a la Comisión Federal de Comercio (FTC) que detallen el funcionamiento y los posibles impactos negativos de los sistemas de IA.
La FTC establecerá un repositorio de acceso público con información sobre los sistemas de IA, permitiendo a los ciudadanos comprender su uso y cómo apelar decisiones.
La ley busca proteger los derechos de los ciudadanos, proporcionando recursos para las decisiones tomadas por algoritmos y aumentando la conciencia sobre las operaciones de IA.
Expirado
Información adicional
Número de impresión: 117_HR_6580
Patrocinador: Rep. Clarke, Yvette D. [D-NY-9]
Fecha de inicio: 2022-02-03