arrow_back Audyt obywatelski
Udostępnij share

Bezpieczeństwo i przejrzystość AI: nowe wytyczne dla twórców technologii.

Ustawa nakłada na rządową agencję (NIST) obowiązek opracowania dobrowolnych standardów bezpieczeństwa i przejrzystości dla systemów sztucznej inteligencji. Celem jest zapewnienie, że AI jest bezpieczniejsza, bardziej odporna na błędy i nie narusza praw obywatelskich, np. poprzez eliminację uprzedzeń. Choć wytyczne są dobrowolne, mają pomóc firmom w tworzeniu technologii, które są bardziej godne zaufania w życiu codziennym.
Kluczowe punkty
Rząd stworzy wytyczne dotyczące oceny ryzyka związanego z AI, w tym zagrożeń dla bezpieczeństwa, gospodarki i praw konstytucyjnych.
Firmy będą zachęcane do ujawniania informacji o tym, jak trenowano ich systemy AI i jakie testy bezpieczeństwa (np. "red teaming") zostały przeprowadzone.
Celem jest zwiększenie uczciwości, prywatności i niezawodności systemów AI, z którymi obywatele mają kontakt.
article Oficjalny tekst account_balance Strona procesu notifications_active Obserwuj ustawę
gavel
Status:
Wygasło
Zapisz swoje stanowisko do audytu.
Dlaczego Twój głos ma znaczenie?
Tworzy surowy, niezaprzeczalny dowód. Wola Obywatelska dostarcza trwałych danych do weryfikacji lojalności rządu wobec obywateli (wyjaśnione tutaj). Zacznij rejestrować go teraz.
Dodatkowe Informacje
Numer druku: 118_HR_9466
Wnioskodawca: Rep. Baird, James R. [R-IN-4]
Data rozpoczęcia: 2024-09-06