Ley de Responsabilidad Algorítmica: Supervisión de Sistemas de Decisión de IA
Esta ley busca aumentar la transparencia y la rendición de cuentas de las empresas que utilizan sistemas de inteligencia artificial para tomar decisiones críticas que afectan la vida de los ciudadanos. Las empresas deberán evaluar los riesgos y el impacto de estos sistemas para proteger a los consumidores de consecuencias negativas como la discriminación o las violaciones de la privacidad. Esto otorgará a los ciudadanos un mayor control y la capacidad de apelar las decisiones tomadas por los algoritmos.
Puntos clave
Las empresas que utilicen sistemas de IA para decisiones críticas (por ejemplo, en educación, empleo, finanzas, atención médica) deberán realizar evaluaciones de impacto en los consumidores.
Estas evaluaciones tienen como objetivo identificar y mitigar posibles impactos negativos, como la discriminación por raza, género, edad o estatus socioeconómico.
La Comisión Federal de Comercio (FTC) supervisará estas actividades, creará directrices y mantendrá un repositorio público de información sobre los sistemas de IA, permitiendo a los ciudadanos comprender cómo funcionan y dónde buscar recursos.
Los ciudadanos obtendrán el derecho a ser notificados sobre el uso de sistemas de IA, la capacidad de impugnar decisiones y presentar quejas, mejorando su protección contra errores algorítmicos.
Expirado
Información adicional
Número de impresión: 117_S_3572
Patrocinador: Sen. Wyden, Ron [D-OR]
Fecha de inicio: 2022-02-03