arrow_back Audyt obywatelski
Udostępnij share

Zarządzanie ryzykiem AI w agencjach federalnych: bezpieczeństwo i odpowiedzialność

Ustawa wprowadza obowiązek dla agencji federalnych w USA stosowania ram zarządzania ryzykiem związanym ze sztuczną inteligencją (AI), opracowanych przez Narodowy Instytut Standardów i Technologii. Ma to na celu zapewnienie, że systemy AI używane przez rząd są bezpieczne, niezawodne i nie stwarzają zagrożeń dla obywateli ani środowiska. Obywatele mogą oczekiwać większej przejrzystości i odpowiedzialności w sposobie, w jaki rząd wykorzystuje AI, co potencjalnie zwiększy ich zaufanie do technologii publicznych.
Kluczowe punkty
Wszystkie agencje federalne będą musiały stosować specjalne wytyczne do zarządzania ryzykiem związanym z użyciem sztucznej inteligencji.
Dostawcy AI dla rządu będą musieli spełniać określone standardy bezpieczeństwa i jakości, co może wpłynąć na jakość usług publicznych.
Wprowadzone zostaną szkolenia dla pracowników agencji oraz nowe zasady dotyczące testowania i oceny systemów AI, z wyłączeniem systemów bezpieczeństwa narodowego.
Powstanie inicjatywa mająca na celu rekrutację ekspertów AI do pomocy agencjom w rozwoju i ocenie narzędzi AI.
article Oficjalny tekst account_balance Strona procesu notifications_active Obserwuj ustawę
gavel
Status:
Wygasło
Zapisz swoje stanowisko do audytu.
Dlaczego Twój głos ma znaczenie?
Tworzy surowy, niezaprzeczalny dowód. Wola Obywatelska dostarcza trwałych danych do weryfikacji lojalności rządu wobec obywateli (wyjaśnione tutaj). Zacznij rejestrować go teraz.
Dodatkowe Informacje
Numer druku: 118_HR_6936
Wnioskodawca: Rep. Lieu, Ted [D-CA-36]
Data rozpoczęcia: 2024-01-10