arrow_back Wróć do aplikacji

Ocena Ryzyka Sztucznej Inteligencji: Bezpieczeństwo i Nadzór

Ustawa wprowadza program oceny zaawansowanych systemów sztucznej inteligencji, aby chronić obywateli przed potencjalnymi zagrożeniami, takimi jak utrata kontroli, zagrożenia dla infrastruktury czy naruszenia wolności obywatelskich. Firmy rozwijające AI będą musiały uczestniczyć w testach i udostępniać dane, a za nieprzestrzeganie przepisów grożą wysokie kary finansowe. Celem jest zapewnienie, że rozwój AI będzie bezpieczny i kontrolowany, z korzyścią dla społeczeństwa.
Kluczowe punkty
Obowiązkowe testy bezpieczeństwa dla zaawansowanych systemów sztucznej inteligencji, aby chronić obywateli przed nieprzewidzianymi zagrożeniami.
Firmy tworzące zaawansowaną AI muszą udostępniać kod i dane do testów, a za brak współpracy grożą kary finansowe w wysokości co najmniej 1 000 000 dolarów dziennie.
Program ma na celu opracowanie standardów, wytycznych i strategii zarządzania ryzykiem, aby zapewnić bezpieczny rozwój sztucznej inteligencji i zapobiec jej wykorzystaniu przeciwko ludziom.
Ustawa przewiduje opracowanie planu stałego nadzoru federalnego nad AI, w tym możliwości nacjonalizacji lub innych strategicznych środków w przypadku zagrożenia ze strony superinteligencji.
article Oficjalny tekst account_balance Strona procesu
Wniesiono
Głosowanie Obywatelskie
Brak głosów
Dodatkowe Informacje
Numer druku: 119_S_2938
Wnioskodawca: Sen. Hawley, Josh [R-MO]
Data rozpoczęcia: 2025-09-29