arrow_back Volver a la aplicación

Ley de Evaluación de Riesgos de IA: Garantizando Seguridad y Supervisión

Esta ley establece un programa para evaluar sistemas avanzados de inteligencia artificial, con el objetivo de proteger a los ciudadanos de riesgos potenciales como la pérdida de control, amenazas a infraestructuras críticas o la erosión de libertades civiles. Las empresas que desarrollen IA deberán participar en pruebas y proporcionar datos, con sanciones económicas significativas por incumplimiento. El objetivo es asegurar un desarrollo seguro y controlado de la IA en beneficio de la sociedad.
Puntos clave
Pruebas de seguridad obligatorias para sistemas avanzados de IA para proteger a los ciudadanos de riesgos imprevistos.
Los desarrolladores de IA deben proporcionar código y datos para las pruebas; el incumplimiento conlleva multas diarias de al menos 1.000.000 de dólares.
El programa desarrollará estándares, directrices y estrategias de gestión de riesgos para garantizar un desarrollo seguro de la IA y prevenir su uso indebido contra la humanidad.
La ley exige un plan para la supervisión federal permanente de la IA, incluyendo una posible nacionalización u otras medidas estratégicas si la superinteligencia representa una amenaza.
article Texto oficial account_balance Página del proceso
Presentado
Encuesta ciudadana
Sin votos emitidos
Información adicional
Número de impresión: 119_S_2938
Patrocinador: Sen. Hawley, Josh [R-MO]
Fecha de inicio: 2025-09-29