arrow_back Audyt obywatelski
Udostępnij share

Odpowiedzialność sztucznej inteligencji: Badanie i przejrzystość

Ta ustawa ma na celu zbadanie, jak systemy sztucznej inteligencji (AI) mogą być bardziej odpowiedzialne i godne zaufania. Oznacza to, że rząd będzie szukał sposobów, aby AI była bezpieczniejsza, bardziej sprawiedliwa i zrozumiała dla każdego. Celem jest zapewnienie, że AI służy obywatelom, a nie stwarza dla nich zagrożeń.
Kluczowe punkty
Rząd zbada, jak AI jest używana w sieciach komunikacyjnych i mediach społecznościowych, aby upewnić się, że jest ona odpowiedzialna.
Ustawa ma na celu zmniejszenie ryzyka związanego z AI, w tym zagrożeń cybernetycznych, co zwiększy bezpieczeństwo danych i prywatności obywateli.
Będą organizowane publiczne spotkania, aby zebrać opinie od obywateli, firm i ekspertów na temat tego, jakie informacje o AI powinny być dostępne i jak je udostępniać.
Celem jest zapewnienie, że obywatele będą mieli dostęp do jasnych informacji o tym, jak AI wpływa na ich życie, co pozwoli im lepiej zrozumieć i ocenić jej działanie.
article Oficjalny tekst account_balance Strona procesu notifications_active Obserwuj ustawę
Status: Wniesiono
Wola Obywatelska
Sprawdzanie głosów...
Popieram
Odrzucam
Dlaczego Twój głos ma znaczenie?
Tworzy surowy, niezaprzeczalny dowód. Wola Obywatelska dostarcza trwałych danych do weryfikacji lojalności rządu wobec obywateli (wyjaśnione tutaj). Zacznij rejestrować go teraz.
Dodatkowe Informacje
Numer druku: 119_HR_1694
Wnioskodawca: Rep. Harder, Josh [D-CA-9]
Data rozpoczęcia: 2025-02-27