Loi sur l'Évaluation des Risques de l'IA: Sécurité et Surveillance
Cette loi établit un programme d'évaluation des systèmes d'intelligence artificielle avancés, visant à protéger les citoyens contre les risques potentiels tels que la perte de contrôle, les menaces pour les infrastructures critiques ou l'érosion des libertés civiles. Les entreprises développant l'IA devront participer aux tests et fournir des données, avec des pénalités financières importantes en cas de non-conformité. L'objectif est d'assurer un développement sûr et contrôlé de l'IA au bénéfice de la société.
Points clés
Tests de sécurité obligatoires pour les systèmes d'IA avancés afin de protéger les citoyens contre les risques imprévus.
Les développeurs d'IA doivent fournir le code et les données pour les tests; la non-conformité entraîne des amendes quotidiennes d'au moins 1 000 000 $.
Le programme élaborera des normes, des lignes directrices et des stratégies de gestion des risques pour assurer un développement sûr de l'IA et prévenir son utilisation abusive contre l'humanité.
La loi prévoit un plan de surveillance fédérale permanente de l'IA, y compris une éventuelle nationalisation ou d'autres mesures stratégiques si la superintelligence représente une menace.
Introduit
Informations supplémentaires
Numéro d'impression : 119_S_2938
Parrain : Sen. Hawley, Josh [R-MO]
Date de début : 2025-09-29