arrow_back Retour à l'application

Étiquetage obligatoire des contenus générés par l'IA dans les communications fédérales.

Cette loi exige que les fonctionnaires fédéraux étiquettent clairement tout contenu publié publiquement (texte, images, vidéo) créé ou manipulé à l'aide de l'intelligence artificielle générative. Cela garantit que les citoyens savent quand les informations officielles proviennent de l'IA, augmentant la transparence et permettant une évaluation plus éclairée de la fiabilité des communications gouvernementales. Les fonctionnaires qui enfreignent ces règles sont passibles de mesures disciplinaires, et le contenu non étiqueté doit être retiré et corrigé.
Points clés
Toutes les communications gouvernementales publiques générées ou modifiées par l'IA doivent inclure une clause de non-responsabilité claire et compréhensible.
La clause de non-responsabilité doit expliquer le type de technologie d'IA utilisé pour créer ou modifier le contenu, sensibilisant le public.
Les fonctionnaires fédéraux et les contractants qui enfreignent ces règles sont passibles de mesures disciplinaires, y compris la résiliation potentielle du contrat.
En cas de violation, l'agence doit retirer le contenu et publier une communication expliquant la violation et, si possible, une version corrigée.
article Texte officiel account_balance Page du processus
Introduit
Sondage citoyen
Aucun vote exprimé
Informations supplémentaires
Numéro d'impression : 119_HR_6571
Parrain : Rep. Foster, Bill [D-IL-11]