arrow_back Wróć do aplikacji

Odpowiedzialność i ocena ryzyka broni wojskowej opartej na sztucznej inteligencji

Ustawa wymaga od Departamentu Obrony USA stworzenia publicznego rejestru użycia systemów uzbrojenia, celowania i wsparcia decyzji opartych na sztucznej inteligencji. Wprowadza to obowiązek regularnej oceny ryzyka związanego z tymi technologiami, w tym ryzyka dla cywilów i potencjału eskalacji konfliktów. Celem jest zwiększenie przejrzystości i odpowiedzialności w użyciu AI przez wojsko, co pośrednio wpływa na bezpieczeństwo publiczne i międzynarodowe.
Kluczowe punkty
Obowiązek stworzenia rejestru (ledger) wszystkich systemów uzbrojenia, celowania i wsparcia decyzji opartych na AI używanych przez Departament Obrony.
Wprowadzenie procesu oceny ryzyka dla każdego systemu AI, obejmującego m.in. niezawodność, cyberbezpieczeństwo, prywatność, stronniczość (bias) oraz ryzyko szkód cywilnych.
Coroczne raporty dla Kongresu i publiczne udostępnianie niejawnych części tych raportów, co zwiększa nadzór publiczny nad wojskowym użyciem AI.
Wymóg oznaczania w rejestrze systemów AI udostępnianych lub eksportowanych do innych krajów, jeśli wiąże się to z dodatkowym ryzykiem.
article Oficjalny tekst account_balance Strona procesu
Wygasło
Głosowanie Obywatelskie
Brak głosów
Dodatkowe Informacje
Numer druku: 118_S_5239
Wnioskodawca: Sen. Welch, Peter [D-VT]
Data rozpoczęcia: 2024-09-25