Bezpieczeństwo zaawansowanej sztucznej inteligencji: Nowe biuro i kontrola ryzyka
Ustawa tworzy Biuro ds. Bezpieczeństwa Sztucznej Inteligencji w Departamencie Handlu, którego zadaniem jest nadzór nad najpotężniejszymi modelami AI. Celem jest ochrona obywateli i bezpieczeństwa narodowego przed ekstremalnymi zagrożeniami, takimi jak możliwość wykorzystania AI do tworzenia broni chemicznej, biologicznej lub cyberataków. Wprowadza obowiązkowe testy bezpieczeństwa dla twórców zaawansowanej AI oraz kary finansowe i więzienia za wdrożenie zakazanego modelu.
Kluczowe punkty
Powołanie nowego Biura w celu monitorowania i ograniczania ryzyka związanego z zaawansowaną sztuczną inteligencją (AI), zwłaszcza w kontekście zagrożeń chemicznych, biologicznych i cybernetycznych.
Wprowadzenie obowiązkowych testów bezpieczeństwa (red-teaming) dla twórców najpotężniejszych modeli AI przed ich udostępnieniem, aby zapobiec ich niewłaściwemu użyciu.
Rząd zyskuje prawo do zakazania wdrożenia modelu AI, jeśli uzna, że stwarza on zbyt duże, niezażegnane ryzyko dla bezpieczeństwa narodowego.
Dostawcy usług chmurowych i sprzedawcy zaawansowanych chipów muszą wdrożyć standardy "Poznaj swojego klienta" (KYC) przy transakcjach z obcokrajowcami, aby zapobiec wykorzystaniu infrastruktury przez wrogie podmioty.
Wygasło
Dodatkowe Informacje
Numer druku: 118_S_5616
Wnioskodawca: Sen. Romney, Mitt [R-UT]
Data rozpoczęcia: 2024-12-19