Bezpieczeństwo sztucznej inteligencji: obowiązkowe standardy dla agencji federalnych.
Ustawa nakłada na wszystkie agencje federalne obowiązek stosowania jednolitych standardów zarządzania ryzykiem związanym ze sztuczną inteligencją (AI). Celem jest zapewnienie, że systemy AI używane przez rząd są bezpieczne, wolne od błędów i nie stwarzają zagrożeń dla obywateli ani środowiska. W praktyce oznacza to, że usługi publiczne oparte na AI powinny być bardziej niezawodne i sprawiedliwe, minimalizując ryzyko stronniczości i błędów.
Kluczowe punkty
Wszystkie agencje federalne muszą używać ram zarządzania ryzykiem AI (NIST AI RMF) przy tworzeniu, kupowaniu i wdrażaniu systemów sztucznej inteligencji.
Wprowadzone zostaną nowe, obowiązkowe standardy bezpieczeństwa, testowania i walidacji dla dostawców AI współpracujących z rządem.
Rząd federalny musi zatrudnić ekspertów, aby pomóc agencjom we wdrażaniu bezpiecznej i odpowiedzialnej sztucznej inteligencji oraz zapewnić odpowiednie szkolenia.
Wygasło
Dodatkowe Informacje
Numer druku: 118_S_3205
Wnioskodawca: Sen. Moran, Jerry [R-KS]
Data rozpoczęcia: 2023-11-02