arrow_back Wróć do aplikacji

Bezpieczeństwo i przejrzystość AI w rządzie USA: Nowe zasady oceny systemów.

Ustawa wprowadza obowiązek systematycznej oceny systemów sztucznej inteligencji używanych przez agencje federalne do podejmowania automatycznych decyzji. Ma to zapewnić, że rządowe systemy AI są bezpieczne, niezawodne, wolne od uprzedzeń i transparentne, chroniąc tym samym obywateli przed błędnymi lub niesprawiedliwymi decyzjami. Agencje będą musiały albo dostosować istniejące systemy do nowych standardów w ciągu dwóch lat, albo zaprzestać ich używania.
Kluczowe punkty
Rządowe systemy AI (np. te podejmujące decyzje o świadczeniach) muszą być testowane pod kątem bezpieczeństwa, prywatności i braku uprzedzeń, zwłaszcza wobec grup chronionych.
Agencje federalne muszą publicznie informować, które systemy AI spełniają nowe standardy, zwiększając przejrzystość działań rządu i odpowiedzialność za automatyczne decyzje.
W każdej agencji federalnej zostanie wyznaczony Główny Oficer ds. AI, odpowiedzialny za nadzór nad wdrażaniem bezpiecznej i etycznej sztucznej inteligencji.
article Oficjalny tekst account_balance Strona procesu
Wygasło
Głosowanie Obywatelskie
Brak głosów
Dodatkowe Informacje
Numer druku: 118_S_5539
Wnioskodawca: Sen. Welch, Peter [D-VT]
Data rozpoczęcia: 2024-12-16