Wytyczne dla sztucznej inteligencji: testowanie, bezpieczeństwo i zaufanie
Ustawa ma na celu zwiększenie zaufania do systemów sztucznej inteligencji (AI) poprzez stworzenie dobrowolnych wytycznych dotyczących ich testowania i oceny. Oznacza to, że systemy AI używane w usługach publicznych i prywatnych będą mogły być oceniane pod kątem bezpieczeństwa, ochrony prywatności i unikania błędów zgodnie z jednolitymi standardami. Celem jest wspieranie bardziej niezawodnych decyzji podejmowanych przez systemy AI.
Kluczowe punkty
Wprowadzenie dobrowolnych wytycznych technicznych dla wewnętrznej i zewnętrznej oceny systemów AI, aby zapewnić ich wiarygodność.
Wytyczne skupią się na ochronie prywatności konsumentów, jakości danych, minimalizowaniu szkód dla jednostek oraz dokumentacji działania systemów AI.
Powołanie komitetu doradczego, który ma rekomendować kwalifikacje i standardy dla niezależnych podmiotów oceniających systemy AI.
Wymóg przeprowadzenia badań nad zdolnościami rynku do przeprowadzania tych ocen, w tym dostępności wykwalifikowanych ekspertów.
Wniesiono
Dodatkowe Informacje
Numer druku: 119_S_2615
Wnioskodawca: Sen. Hickenlooper, John W. [D-CO]
Data rozpoczęcia: 2025-07-31