arrow_back Auditoria cívica
Partilhar share

Gestão de Risco de IA Federal: Garantindo Segurança e Responsabilidade Governamental

Esta Lei obriga as agências federais dos EUA a usar a Estrutura de Gestão de Risco de Inteligência Artificial desenvolvida pelo Instituto Nacional de Padrões e Tecnologia. O objetivo é garantir que os sistemas de IA usados pelo governo sejam seguros, confiáveis e não representem riscos para os cidadãos ou o meio ambiente. Os cidadãos podem esperar maior transparência e responsabilidade na forma como o governo utiliza a IA, potencialmente aumentando sua confiança na tecnologia pública.
Pontos-chave
Todas as agências federais serão obrigadas a seguir diretrizes específicas para gerenciar os riscos associados ao uso da IA.
Fornecedores de IA para o governo devem atender a padrões definidos de segurança e qualidade, o que pode afetar a qualidade dos serviços públicos.
Serão introduzidos treinamentos para o pessoal das agências e novas regras para o teste e avaliação de sistemas de IA, excluindo os sistemas de segurança nacional.
Será estabelecida uma iniciativa para recrutar especialistas em IA para auxiliar as agências no desenvolvimento e avaliação de ferramentas de IA.
article Texto oficial account_balance Página do processo notifications_active Seguir projeto
gavel
Estado:
Expirado
Registe a sua posição para a auditoria.
Por que o seu voto importa?
Cria uma prova crua e inegável. A Vontade Cívica fornece dados permanentes para verificar a lealdade do Governo para com os seus cidadãos (explicado aqui). Comece a registá-lo agora.
Informações Adicionais
Número de impressão: 118_HR_6936
Patrocinador: Rep. Lieu, Ted [D-CA-36]
Data de início: 2024-01-10