arrow_back Popularne projekty
Udostępnij share

Ocena Ryzyka AI i Biosecurity: Ochrona przed Bronią Biologiczną i Chemiczną.

Ustawa nakłada na rząd obowiązek oceny, jak rozwój sztucznej inteligencji (AI) może być wykorzystany do tworzenia nowych, niebezpiecznych wirusów, patogenów lub broni chemicznej. Celem jest ochrona zdrowia publicznego i bezpieczeństwa narodowego przed katastrofami biologicznymi. Oznacza to, że rząd będzie aktywnie monitorował globalne zagrożenia, aby zapobiegać sytuacjom, które mogłyby prowadzić do masowej utraty życia i destabilizacji.
Kluczowe punkty
Rząd musi badać, czy AI (np. duże modele językowe) może być użyta do przypadkowego lub celowego tworzenia broni biologicznej i chemicznej.
Wprowadzenie regularnego monitorowania globalnych zagrożeń biologicznych, które mogłyby spowodować nagłą, ogromną utratę życia i zniszczenia gospodarcze.
Wyniki oceny ryzyka AI zostaną włączone do krajowej strategii bezpieczeństwa zdrowotnego, zwiększając gotowość państwa na przyszłe zagrożenia.
article Oficjalny tekst account_balance Strona procesu notifications_active Obserwuj ustawę
gavel
Status:
Wygasło
Zapisz swoje stanowisko do audytu.
Dlaczego Twój głos ma znaczenie?
Tworzy surowy, niezaprzeczalny dowód. Wola Obywatelska dostarcza trwałych danych do weryfikacji lojalności rządu wobec obywateli (wyjaśnione tutaj). Zacznij rejestrować go teraz.
Dodatkowe Informacje
Artificial Intelligence and Biosecurity Risk Assessment Act
Numer druku: S 2399
Wnioskodawca: Sen. Markey, Edward J. [D-MA]
Data rozpoczęcia: 2023-07-19