arrow_back Volver a la aplicación

Evaluación de Riesgos de IA y Bioseguridad: Protección contra Armas Biológicas y Químicas.

Esta ley exige que el gobierno evalúe cómo los avances en inteligencia artificial (IA) podrían utilizarse para crear nuevos patógenos peligrosos o armas químicas. El objetivo es proteger la salud pública y la seguridad nacional de posibles catástrofes biológicas. Esto significa que el gobierno supervisará activamente las amenazas globales para prevenir escenarios que puedan provocar pérdidas masivas de vidas y desestabilización.
Puntos clave
El gobierno debe investigar si la IA (como los grandes modelos de lenguaje) puede usarse, intencional o no intencionalmente, para desarrollar armas biológicas o químicas.
Se exige la vigilancia regular de los riesgos catastróficos biológicos globales que podrían causar una pérdida de vidas extraordinaria y daños económicos.
article Texto oficial account_balance Página del proceso
Expirado
Encuesta ciudadana
Sin votos emitidos
Información adicional
Número de impresión: 118_S_2399
Patrocinador: Sen. Markey, Edward J. [D-MA]
Fecha de inicio: 2023-07-19