Utworzenie Centrum Bezpieczeństwa AI: Testowanie i standardy niezawodności systemów.
Ustawa powołuje nowe Centrum ds. Rozwoju i Niezawodności Sztucznej Inteligencji (AI) pod nadzorem Departamentu Handlu. Jego głównym celem jest opracowanie standardów i metod testowania (w tym symulacji ataków) w celu zapewnienia, że systemy AI są bezpieczne, niezawodne i odporne na błędy. Choć ustawa nie wprowadza nowych regulacji, ma sprawić, że technologie AI używane w życiu codziennym będą dokładniej sprawdzane pod kątem potencjalnych zagrożeń i wad, co zwiększy bezpieczeństwo obywateli.
Kluczowe punkty
Powołanie Centrum Bezpieczeństwa AI w celu prowadzenia badań nad niezawodnością, bezpieczeństwem i odpornością systemów sztucznej inteligencji.
Wprowadzenie rygorystycznych metod testowania AI (tzw. 'red teaming'), aby wykrywać luki, błędy i ryzyko niewłaściwego użycia systemów, zanim trafią do powszechnego użytku.
Opracowanie dobrowolnych standardów technicznych i najlepszych praktyk dla przemysłu, mających zwiększyć zaufanie do technologii AI.
Informacje udostępnione Centrum przez firmy nie mogą być wykorzystane przez organy rządowe do celów regulacyjnych, co chroni dane przedsiębiorstw.
Wygasło
Dodatkowe Informacje
Numer druku: 118_HR_9497
Wnioskodawca: Rep. Obernolte, Jay [R-CA-23]
Data rozpoczęcia: 2024-09-09