Ocena Ryzyka Sztucznej Inteligencji: Bezpieczeństwo i Nadzór
Ustawa wprowadza program oceny zaawansowanych systemów sztucznej inteligencji, aby chronić obywateli przed potencjalnymi zagrożeniami, takimi jak utrata kontroli, zagrożenia dla infrastruktury czy naruszenia wolności obywatelskich. Firmy rozwijające AI będą musiały uczestniczyć w testach i udostępniać dane, a za nieprzestrzeganie przepisów grożą wysokie kary finansowe. Celem jest zapewnienie, że rozwój AI będzie bezpieczny i kontrolowany, z korzyścią dla społeczeństwa.
Kluczowe punkty
Obowiązkowe testy bezpieczeństwa dla zaawansowanych systemów sztucznej inteligencji, aby chronić obywateli przed nieprzewidzianymi zagrożeniami.
Firmy tworzące zaawansowaną AI muszą udostępniać kod i dane do testów, a za brak współpracy grożą kary finansowe w wysokości co najmniej 1 000 000 dolarów dziennie.
Program ma na celu opracowanie standardów, wytycznych i strategii zarządzania ryzykiem, aby zapewnić bezpieczny rozwój sztucznej inteligencji i zapobiec jej wykorzystaniu przeciwko ludziom.
Ustawa przewiduje opracowanie planu stałego nadzoru federalnego nad AI, w tym możliwości nacjonalizacji lub innych strategicznych środków w przypadku zagrożenia ze strony superinteligencji.
Wniesiono
Dodatkowe Informacje
Numer druku: 119_S_2938
Wnioskodawca: Sen. Hawley, Josh [R-MO]
Data rozpoczęcia: 2025-09-29