Bezpieczeństwo Sztucznej Inteligencji: Śledzenie Ryzyk i Ochrona Informatorów
Ustawa ma na celu zwiększenie bezpieczeństwa systemów Sztucznej Inteligencji (AI) używanych w życiu codziennym i infrastrukturze krytycznej. Wprowadza dobrowolną, publiczną bazę danych do śledzenia incydentów bezpieczeństwa i zagrożeń dla życia lub zdrowia spowodowanych przez AI. Kluczowym elementem jest ochrona pracowników, którzy zgłaszają wady systemów AI, co ma zapewnić szybsze wykrywanie i naprawianie potencjalnie niebezpiecznych błędów.
Kluczowe punkty
Powstanie publicznej bazy danych do anonimowego zgłaszania i śledzenia incydentów związanych z bezpieczeństwem i awariami AI (np. zagrożenie dla zdrowia lub mienia).
Wzmocnienie ochrony prawnej dla pracowników i kontraktorów (informatorów), którzy zgłaszają wady systemów AI, chroniąc ich przed zwolnieniem lub dyskryminacją.
Utworzenie Centrum Bezpieczeństwa AI w ramach Agencji Bezpieczeństwa Narodowego (NSA), które będzie prowadzić badania i opracowywać wytyczne dotyczące ochrony przed manipulacją systemami AI.
Wygasło
Dodatkowe Informacje
Numer druku: 118_HR_9737
Wnioskodawca: Rep. Ross, Deborah K. [D-NC-2]
Data rozpoczęcia: 2024-09-20