arrow_back Audyt obywatelski
Udostępnij share

Odpowiedzialność i ocena ryzyka broni wojskowej opartej na sztucznej inteligencji

Ustawa wymaga od Departamentu Obrony USA stworzenia publicznego rejestru użycia systemów uzbrojenia, celowania i wsparcia decyzji opartych na sztucznej inteligencji. Wprowadza to obowiązek regularnej oceny ryzyka związanego z tymi technologiami, w tym ryzyka dla cywilów i potencjału eskalacji konfliktów. Celem jest zwiększenie przejrzystości i odpowiedzialności w użyciu AI przez wojsko, co pośrednio wpływa na bezpieczeństwo publiczne i międzynarodowe.
Kluczowe punkty
Obowiązek stworzenia rejestru (ledger) wszystkich systemów uzbrojenia, celowania i wsparcia decyzji opartych na AI używanych przez Departament Obrony.
Wprowadzenie procesu oceny ryzyka dla każdego systemu AI, obejmującego m.in. niezawodność, cyberbezpieczeństwo, prywatność, stronniczość (bias) oraz ryzyko szkód cywilnych.
Coroczne raporty dla Kongresu i publiczne udostępnianie niejawnych części tych raportów, co zwiększa nadzór publiczny nad wojskowym użyciem AI.
Wymóg oznaczania w rejestrze systemów AI udostępnianych lub eksportowanych do innych krajów, jeśli wiąże się to z dodatkowym ryzykiem.
article Oficjalny tekst account_balance Strona procesu notifications_active Obserwuj ustawę
gavel
Status:
Wygasło
Zapisz swoje stanowisko do audytu.
Dlaczego Twój głos ma znaczenie?
Tworzy surowy, niezaprzeczalny dowód. Wola Obywatelska dostarcza trwałych danych do weryfikacji lojalności rządu wobec obywateli (wyjaśnione tutaj). Zacznij rejestrować go teraz.
Dodatkowe Informacje
Numer druku: 118_S_5239
Wnioskodawca: Sen. Welch, Peter [D-VT]
Data rozpoczęcia: 2024-09-25