arrow_back Volver a la aplicación

Prohibición de que la IA autónoma lance armas nucleares sin control humano.

Esta ley asegura que la decisión de usar armas nucleares debe ser siempre tomada por un ser humano, no por sistemas autónomos de inteligencia artificial. Prohíbe el uso de fondos federales para desarrollar o desplegar sistemas que puedan seleccionar objetivos e iniciar un ataque nuclear de forma independiente. Esta medida busca proteger a los ciudadanos al reducir el riesgo de una guerra nuclear accidental causada por fallos de la máquina.
Puntos clave
Exige un "control humano significativo" sobre la selección de objetivos y el momento del uso de cualquier arma nuclear.
Prohíbe el gasto de fondos públicos en sistemas de armas autónomos que puedan lanzar armas nucleares sin intervención humana.
article Texto oficial account_balance Página del proceso
Expirado
Encuesta ciudadana
Sin votos emitidos
Información adicional
Número de impresión: 118_S_1394
Patrocinador: Sen. Markey, Edward J. [D-MA]
Fecha de inicio: 2023-05-01