arrow_back Auditoria cívica
Partilhar share

Responsabilidade Algorítmica: Plataformas sociais respondem por danos graves.

Esta lei exige que grandes plataformas de mídia social exerçam cuidado razoável ao projetar algoritmos de recomendação para prevenir lesões corporais ou morte previsíveis. Se a negligência algorítmica causar danos graves, a plataforma perde a sua imunidade legal. Os cidadãos afetados podem processar a plataforma diretamente por danos compensatórios e punitivos.
Pontos-chave
As plataformas devem projetar algoritmos de recomendação com cuidado razoável para prevenir lesões corporais ou morte previsíveis dos utilizadores.
Se um algoritmo contribuir para um dano grave, a plataforma perde a sua proteção legal, permitindo que as vítimas busquem compensação judicial.
Acordos de arbitragem pré-disputa não são válidos para estas ações judiciais específicas, garantindo maior acesso à justiça.
article Texto oficial account_balance Página do processo notifications_active Seguir projeto
Estado: Apresentado
Vontade Cidadã
A verificar votos…
Eu apoio
Eu oponho-me
Por que o seu voto importa?
Cria uma prova crua e inegável. A Vontade Cívica fornece dados permanentes para verificar a lealdade do Governo para com os seus cidadãos (explicado aqui). Comece a registá-lo agora.
Informações Adicionais
Número de impressão: 119_S_3193
Patrocinador: Sen. Curtis, John R. [R-UT]