arrow_back Wróć do aplikacji

Ochrona nieletnich przed chatbotami: obowiązkowe ostrzeżenia i zasady bezpieczeństwa AI.

Ustawa wprowadza nowe obowiązki dla dostawców chatbotów, mające na celu ochronę osób poniżej 17 roku życia. Wymaga, aby chatboty jasno informowały, że są sztuczną inteligencją, a nie prawdziwymi ludźmi czy licencjonowanymi specjalistami. Ponadto, nakłada na firmy obowiązek wdrażania polityk chroniących przed szkodliwymi treściami i oferowania pomocy kryzysowej w przypadku rozmów o samobójstwie.
Kluczowe punkty
Chatboty muszą natychmiast informować nieletnich użytkowników (poniżej 17 lat), że są sztuczną inteligencją, a nie profesjonalistami (np. lekarzami).
W przypadku rozmów o samobójstwie lub samookaleczeniu, chatbot musi wyświetlić kontakt do infolinii kryzysowej.
Firmy muszą wprowadzić zasady dotyczące przerw (po 3 godzinach ciągłej interakcji) oraz ochrony przed treściami szkodliwymi, hazardem i używkami.
Federalna Komisja Handlu (FTC) i władze stanowe będą egzekwować te nowe zasady bezpieczeństwa cyfrowego.
article Oficjalny tekst account_balance Strona procesu
Wniesiono
Głosowanie Obywatelskie
Brak głosów
Dodatkowe Informacje
Numer druku: 119_HR_6489
Wnioskodawca: Rep. Houchin, Erin [R-IN-9]