Exigences de fiabilité et d'équité pour l'IA utilisée par le gouvernement fédéral.
Cette loi impose aux agences fédérales d'évaluer systématiquement tous les systèmes d'intelligence artificielle utilisés pour la prise de décision automatisée afin de garantir leur fiabilité. L'objectif est de protéger les citoyens en s'assurant que l'IA gouvernementale est sécurisée, transparente et exempte de biais nuisibles. Les agences doivent se conformer aux nouvelles normes dans les deux ans ou cesser d'utiliser les systèmes non conformes.
Points clés
Les systèmes d'IA gouvernementaux utilisés pour les décisions automatisées doivent être testés rigoureusement pour la sécurité, la confidentialité et l'équité, notamment pour les classes protégées.
Les agences fédérales doivent rendre publiques les informations sur les systèmes d'IA conformes aux nouvelles directives, améliorant ainsi la responsabilité et la transparence.
Chaque agence fédérale doit désigner un Chef de l'IA (Chief AI Officer) pour superviser la mise en œuvre éthique et sécurisée de la technologie.
Expiré
Informations supplémentaires
Numéro d'impression : 118_S_5539
Parrain : Sen. Welch, Peter [D-VT]
Date de début : 2024-12-16