arrow_back Audyt obywatelski
Udostępnij share

Bezpieczeństwo Sztucznej Inteligencji: Śledzenie Ryzyk i Ochrona Informatorów

Ustawa ma na celu zwiększenie bezpieczeństwa systemów Sztucznej Inteligencji (AI) używanych w życiu codziennym i infrastrukturze krytycznej. Wprowadza dobrowolną, publiczną bazę danych do śledzenia incydentów bezpieczeństwa i zagrożeń dla życia lub zdrowia spowodowanych przez AI. Kluczowym elementem jest ochrona pracowników, którzy zgłaszają wady systemów AI, co ma zapewnić szybsze wykrywanie i naprawianie potencjalnie niebezpiecznych błędów.
Kluczowe punkty
Powstanie publicznej bazy danych do anonimowego zgłaszania i śledzenia incydentów związanych z bezpieczeństwem i awariami AI (np. zagrożenie dla zdrowia lub mienia).
Wzmocnienie ochrony prawnej dla pracowników i kontraktorów (informatorów), którzy zgłaszają wady systemów AI, chroniąc ich przed zwolnieniem lub dyskryminacją.
Utworzenie Centrum Bezpieczeństwa AI w ramach Agencji Bezpieczeństwa Narodowego (NSA), które będzie prowadzić badania i opracowywać wytyczne dotyczące ochrony przed manipulacją systemami AI.
article Oficjalny tekst account_balance Strona procesu notifications_active Obserwuj ustawę
gavel
Status:
Wygasło
Zapisz swoje stanowisko do audytu.
Dlaczego Twój głos ma znaczenie?
Tworzy surowy, niezaprzeczalny dowód. Wola Obywatelska dostarcza trwałych danych do weryfikacji lojalności rządu wobec obywateli (wyjaśnione tutaj). Zacznij rejestrować go teraz.
Dodatkowe Informacje
Numer druku: 118_HR_9737
Wnioskodawca: Rep. Ross, Deborah K. [D-NC-2]
Data rozpoczęcia: 2024-09-20