arrow_back Audyt obywatelski
Udostępnij share

Ochrona przed dyskryminacją algorytmiczną: nowe zasady dla sztucznej inteligencji

Ta ustawa ma na celu zapewnienie, że systemy sztucznej inteligencji nie będą używane do dyskryminacji obywateli. Firmy i instytucje, które korzystają z AI do podejmowania decyzji wpływających na ludzi, będą odpowiedzialne za wszelkie przypadki dyskryminacji, tak jakby decyzje były podejmowane przez człowieka. Dodatkowo, ustawa nakłada na Narodowy Instytut Standardów i Technologii obowiązek testowania systemów AI pod kątem stronniczości i dyskryminacji.
Kluczowe punkty
Firmy i instytucje ponoszą pełną odpowiedzialność za dyskryminację wynikającą z decyzji podjętych przez sztuczną inteligencję.
Narodowy Instytut Standardów i Technologii będzie testować systemy AI, aby wykrywać i zmniejszać ryzyko stronniczości i dyskryminacji.
Ustawa ma na celu ochronę obywateli przed niesprawiedliwym traktowaniem w obszarach takich jak zatrudnienie, dostęp do programów czy usług, gdy decyzje są wspomagane przez AI.
article Oficjalny tekst account_balance Strona procesu notifications_active Obserwuj ustawę
Status: Wygasło
Wola Obywatelska
Sprawdzanie głosów...
Popieram
Odrzucam
Dlaczego Twój głos ma znaczenie?
Tworzy surowy, niezaprzeczalny dowód. Wola Obywatelska dostarcza trwałych danych do weryfikacji lojalności rządu wobec obywateli (wyjaśnione tutaj). Zacznij rejestrować go teraz.
Dodatkowe Informacje
Numer druku: 117_S_5351
Wnioskodawca: Sen. Portman, Rob [R-OH]
Data rozpoczęcia: 2022-12-21