arrow_back Terug naar app

AI-Verantwoordelijkheid: Studie en Transparantie voor Publiek Vertrouwen

Deze wet heeft tot doel te onderzoeken hoe kunstmatige intelligentie (AI) systemen verantwoorder en betrouwbaarder kunnen worden gemaakt. Dit betekent dat de overheid manieren zal onderzoeken om AI veiliger, eerlijker en begrijpelijker te maken voor iedereen. Het doel is ervoor te zorgen dat AI burgers dient zonder risico's te creëren.
Belangrijkste punten
De overheid zal onderzoeken hoe AI wordt gebruikt in communicatienetwerken en sociale mediaplatforms om de verantwoordelijkheid ervan te waarborgen.
De wet is gericht op het verminderen van risico's die verband houden met AI, inclusief cyberbeveiligingsrisico's, waardoor de gegevensbeveiliging en privacy voor burgers worden verbeterd.
Er zullen openbare bijeenkomsten worden gehouden om feedback te verzamelen van burgers, bedrijven en experts over welke informatie over AI beschikbaar moet zijn en hoe deze toegankelijk kan worden gemaakt.
Het doel is ervoor te zorgen dat burgers toegang hebben tot duidelijke informatie over hoe AI hun leven beïnvloedt, zodat ze de werking ervan beter kunnen begrijpen en evalueren.
article Officiële tekst account_balance Procespagina
Ingediend
Burgerpeiling
Geen stemmen uitgebracht
Aanvullende informatie
Druknummer: 119_HR_1694
Sponsor: Rep. Harder, Josh [D-CA-9]
Startdatum: 2025-02-27