Ocena Ryzyka AI i Biosecurity: Ochrona przed Bronią Biologiczną i Chemiczną.
Ustawa nakłada na rząd obowiązek oceny, jak rozwój sztucznej inteligencji (AI) może być wykorzystany do tworzenia nowych, niebezpiecznych wirusów, patogenów lub broni chemicznej. Celem jest ochrona zdrowia publicznego i bezpieczeństwa narodowego przed katastrofami biologicznymi. Oznacza to, że rząd będzie aktywnie monitorował globalne zagrożenia, aby zapobiegać sytuacjom, które mogłyby prowadzić do masowej utraty życia i destabilizacji.
Kluczowe punkty
Rząd musi badać, czy AI (np. duże modele językowe) może być użyta do przypadkowego lub celowego tworzenia broni biologicznej i chemicznej.
Wprowadzenie regularnego monitorowania globalnych zagrożeń biologicznych, które mogłyby spowodować nagłą, ogromną utratę życia i zniszczenia gospodarcze.
Wyniki oceny ryzyka AI zostaną włączone do krajowej strategii bezpieczeństwa zdrowotnego, zwiększając gotowość państwa na przyszłe zagrożenia.
Wygasło
Dodatkowe Informacje
Numer druku: 118_S_2399
Wnioskodawca: Sen. Markey, Edward J. [D-MA]
Data rozpoczęcia: 2023-07-19