Odpowiedzialność sztucznej inteligencji: Badanie i przejrzystość
Ta ustawa ma na celu zbadanie, jak systemy sztucznej inteligencji (AI) mogą być bardziej odpowiedzialne i godne zaufania. Oznacza to, że rząd będzie szukał sposobów, aby AI była bezpieczniejsza, bardziej sprawiedliwa i zrozumiała dla każdego. Celem jest zapewnienie, że AI służy obywatelom, a nie stwarza dla nich zagrożeń.
Kluczowe punkty
Rząd zbada, jak AI jest używana w sieciach komunikacyjnych i mediach społecznościowych, aby upewnić się, że jest ona odpowiedzialna.
Ustawa ma na celu zmniejszenie ryzyka związanego z AI, w tym zagrożeń cybernetycznych, co zwiększy bezpieczeństwo danych i prywatności obywateli.
Będą organizowane publiczne spotkania, aby zebrać opinie od obywateli, firm i ekspertów na temat tego, jakie informacje o AI powinny być dostępne i jak je udostępniać.
Celem jest zapewnienie, że obywatele będą mieli dostęp do jasnych informacji o tym, jak AI wpływa na ich życie, co pozwoli im lepiej zrozumieć i ocenić jej działanie.
Wniesiono
Dodatkowe Informacje
Numer druku: 119_HR_1694
Wnioskodawca: Rep. Harder, Josh [D-CA-9]
Data rozpoczęcia: 2025-02-27