Protection des mineurs contre les chatbots : divulgation obligatoire de l'IA et règles de sécurité.
Cette loi impose de nouvelles exigences de sécurité aux fournisseurs de chatbots interagissant avec des utilisateurs de moins de 17 ans. Elle exige une divulgation claire indiquant que le chatbot est un système d'IA et non une personne physique ou un professionnel agréé, assurant ainsi la transparence pour les jeunes. De plus, elle oblige les entreprises à mettre en œuvre des politiques traitant des contenus préjudiciables, de l'utilisation excessive et fournissant des ressources d'urgence immédiates en cas de discussion sur l'automutilation.
Points clés
Les chatbots doivent immédiatement informer les utilisateurs mineurs (moins de 17 ans) qu'ils sont une intelligence artificielle et non des professionnels agréés.
Si un mineur évoque le suicide ou l'automutilation, le chatbot doit fournir les coordonnées d'une ligne d'assistance téléphonique d'intervention en cas de crise.
Les fournisseurs doivent établir des politiques recommandant des pauses après 3 heures d'utilisation continue et traitant des contenus sexuels préjudiciables, des jeux d'argent et des substances illégales.
La Federal Trade Commission (FTC) et les autorités des États appliqueront ces nouvelles normes de sécurité numérique.
Introduit
Informations supplémentaires
Numéro d'impression : 119_HR_6489
Parrain : Rep. Houchin, Erin [R-IN-9]