Protección de menores contra chatbots: divulgación obligatoria de IA y normas de seguridad.
Esta Ley establece nuevos requisitos de seguridad para los proveedores de chatbots que interactúan con usuarios menores de 17 años. Exige la divulgación clara de que el chatbot es un sistema de IA, no una persona o un profesional con licencia, garantizando la transparencia para los jóvenes. Además, obliga a las empresas a implementar políticas que aborden el contenido dañino, el uso excesivo y proporcionen recursos de crisis inmediatos durante las discusiones sobre autolesiones.
Puntos clave
Los chatbots deben informar inmediatamente a los usuarios menores (de 17 años) que son inteligencia artificial, no profesionales con licencia o personas reales.
Si un menor habla de suicidio o autolesiones, el chatbot debe proporcionar información de contacto para una línea directa de intervención en crisis.
Los proveedores deben establecer políticas para recomendar descansos después de 3 horas de uso continuo y abordar material sexual dañino, juegos de azar y sustancias ilegales.
La Comisión Federal de Comercio (FTC) y las autoridades estatales harán cumplir estas nuevas normas de seguridad digital.
Presentado
Información adicional
Número de impresión: 119_HR_6489
Patrocinador: Rep. Houchin, Erin [R-IN-9]