arrow_back Audyt obywatelski
Udostępnij share

Bezpieczeństwo i przejrzystość AI w rządzie USA: Nowe zasady oceny systemów.

Ustawa wprowadza obowiązek systematycznej oceny systemów sztucznej inteligencji używanych przez agencje federalne do podejmowania automatycznych decyzji. Ma to zapewnić, że rządowe systemy AI są bezpieczne, niezawodne, wolne od uprzedzeń i transparentne, chroniąc tym samym obywateli przed błędnymi lub niesprawiedliwymi decyzjami. Agencje będą musiały albo dostosować istniejące systemy do nowych standardów w ciągu dwóch lat, albo zaprzestać ich używania.
Kluczowe punkty
Rządowe systemy AI (np. te podejmujące decyzje o świadczeniach) muszą być testowane pod kątem bezpieczeństwa, prywatności i braku uprzedzeń, zwłaszcza wobec grup chronionych.
Agencje federalne muszą publicznie informować, które systemy AI spełniają nowe standardy, zwiększając przejrzystość działań rządu i odpowiedzialność za automatyczne decyzje.
W każdej agencji federalnej zostanie wyznaczony Główny Oficer ds. AI, odpowiedzialny za nadzór nad wdrażaniem bezpiecznej i etycznej sztucznej inteligencji.
article Oficjalny tekst account_balance Strona procesu notifications_active Obserwuj ustawę
Status: Wygasło
Wola Obywatelska
Sprawdzanie głosów...
Popieram
Odrzucam
Dlaczego Twój głos ma znaczenie?
Tworzy surowy, niezaprzeczalny dowód. Wola Obywatelska dostarcza trwałych danych do weryfikacji lojalności rządu wobec obywateli (wyjaśnione tutaj). Zacznij rejestrować go teraz.
Dodatkowe Informacje
Numer druku: 118_S_5539
Wnioskodawca: Sen. Welch, Peter [D-VT]
Data rozpoczęcia: 2024-12-16