arrow_back Audyt obywatelski
Udostępnij share

Obowiązek oznaczania treści stworzonych przez sztuczną inteligencję w komunikacji rządowej.

Ustawa wymaga, aby urzędnicy federalni wyraźnie oznaczali wszelkie treści (tekst, obrazy, wideo) publikowane publicznie, które zostały stworzone lub zmienione za pomocą generatywnej sztucznej inteligencji. Dzięki temu obywatele będą wiedzieć, kiedy oficjalne informacje pochodzą od AI, co zwiększa przejrzystość i pozwala na bardziej świadomą ocenę wiarygodności rządowych komunikatów. Urzędnicy, którzy złamią te zasady, podlegają karom dyscyplinarnym, a nieoznaczone treści muszą zostać wycofane i poprawione.
Kluczowe punkty
Wszystkie publiczne komunikaty rządowe generowane lub zmieniane przez AI muszą zawierać jasne i zrozumiałe ostrzeżenie.
Ostrzeżenie musi wyjaśniać, jakiego rodzaju technologia AI została użyta do stworzenia lub zmiany treści, zwiększając świadomość obywateli.
Urzędnicy federalni i kontraktorzy łamiący te zasady podlegają karom dyscyplinarnym, w tym możliwości rozwiązania umowy.
W przypadku naruszenia, agencja musi wycofać treść i opublikować komunikat wyjaśniający naruszenie oraz, jeśli to możliwe, poprawioną wersję.
article Oficjalny tekst account_balance Strona procesu notifications_active Obserwuj ustawę
Status: Wniesiono
Wola Obywatelska
Sprawdzanie głosów...
Popieram
Odrzucam
Dlaczego Twój głos ma znaczenie?
Tworzy surowy, niezaprzeczalny dowód. Wola Obywatelska dostarcza trwałych danych do weryfikacji lojalności rządu wobec obywateli (wyjaśnione tutaj). Zacznij rejestrować go teraz.
Dodatkowe Informacje
Numer druku: 119_HR_6571
Wnioskodawca: Rep. Foster, Bill [D-IL-11]