Protezione dei minori dai chatbot: divulgazione obbligatoria dell'IA e regole di sicurezza.
Questa legge impone nuovi requisiti di sicurezza per i fornitori di chatbot che interagiscono con utenti di età inferiore ai 17 anni. Richiede la chiara divulgazione che il chatbot è un sistema di intelligenza artificiale, non una persona fisica o un professionista autorizzato, garantendo trasparenza. Inoltre, obbliga le aziende a implementare politiche che affrontino contenuti dannosi, uso eccessivo e forniscano risorse di crisi immediate durante le discussioni sull'autolesionismo.
Punti chiave
I chatbot devono informare immediatamente gli utenti minorenni (sotto i 17 anni) di essere intelligenza artificiale e non professionisti autorizzati.
Se un minore parla di suicidio o autolesionismo, il chatbot deve fornire i contatti di una linea di assistenza per l'intervento in caso di crisi.
I fornitori devono stabilire politiche per raccomandare pause dopo 3 ore di utilizzo continuo e affrontare materiale sessuale dannoso, gioco d'azzardo e sostanze illegali.
La Federal Trade Commission (FTC) e le autorità statali applicheranno questi nuovi standard di sicurezza digitale.
Presentato
Informazioni aggiuntive
Numero di stampa: 119_HR_6489
Sponsor: Rep. Houchin, Erin [R-IN-9]