arrow_back Auditoría cívica
Compartir share

Responsabilidad de plataformas por algoritmos dañinos

Nuevas reglas podrían hacer que las grandes plataformas en línea sean más responsables por el contenido promovido por algoritmos personalizados si este conduce a daños físicos o emocionales graves. Esto significa que las plataformas podrían ser consideradas responsables si sus sistemas de recomendación contribuyen activamente a lesiones, lo que podría cambiar cómo se muestra y promueve el contenido en línea.
Puntos clave
Las grandes plataformas en línea podrían perder protección legal por contenido de terceros si sus algoritmos personalizados promueven información dañina de forma consciente o imprudente.
Los cambios se aplican solo a recomendaciones personalizadas que contribuyeron materialmente a lesiones físicas o emocionales graves.
Las pequeñas empresas en línea (hasta 5 millones de usuarios mensuales) y los servicios de infraestructura (por ejemplo, alojamiento web, almacenamiento de datos) están exentos de estas nuevas reglas.
Las reglas no cubren los resultados de búsqueda que son una respuesta directa a una consulta del usuario.
article Texto oficial account_balance Página del proceso notifications_active Seguir proyecto
gavel
Estado:
Expirado
Registre su posición para la auditoría.
¿Por qué importa tu voto?
Crea una prueba cruda e innegable. La Voluntad Cívica proporciona datos permanentes para verificar la lealtad del Gobierno hacia sus ciudadanos (explicado aquí). Empieza a registrarlo ahora.
Información adicional
Número de impresión: 117_HR_5596
Patrocinador: Rep. Pallone, Frank, Jr. [D-NJ-6]
Fecha de inicio: 2021-10-15