arrow_back Wróć do aplikacji

Bezpieczeństwo i przejrzystość AI: nowe wytyczne dla twórców technologii.

Ustawa nakłada na rządową agencję (NIST) obowiązek opracowania dobrowolnych standardów bezpieczeństwa i przejrzystości dla systemów sztucznej inteligencji. Celem jest zapewnienie, że AI jest bezpieczniejsza, bardziej odporna na błędy i nie narusza praw obywatelskich, np. poprzez eliminację uprzedzeń. Choć wytyczne są dobrowolne, mają pomóc firmom w tworzeniu technologii, które są bardziej godne zaufania w życiu codziennym.
Kluczowe punkty
Rząd stworzy wytyczne dotyczące oceny ryzyka związanego z AI, w tym zagrożeń dla bezpieczeństwa, gospodarki i praw konstytucyjnych.
Firmy będą zachęcane do ujawniania informacji o tym, jak trenowano ich systemy AI i jakie testy bezpieczeństwa (np. "red teaming") zostały przeprowadzone.
Celem jest zwiększenie uczciwości, prywatności i niezawodności systemów AI, z którymi obywatele mają kontakt.
article Oficjalny tekst account_balance Strona procesu
Wygasło
Głosowanie Obywatelskie
Brak głosów
Dodatkowe Informacje
Numer druku: 118_HR_9466
Wnioskodawca: Rep. Baird, James R. [R-IN-4]
Data rozpoczęcia: 2024-09-06