arrow_back Terug naar app

Verplichte betrouwbaarheidstests voor AI-systemen van de federale overheid.

Deze wet verplicht federale agentschappen om alle AI-systemen die worden gebruikt voor geautomatiseerde besluitvorming systematisch te evalueren op betrouwbaarheid. Het doel is burgers te beschermen door te garanderen dat overheids-AI veilig, transparant en vrij van schadelijke vooroordelen is. Agentschappen moeten binnen twee jaar aan de nieuwe normen voldoen of stoppen met het gebruik van niet-conforme systemen.
Belangrijkste punten
Overheids-AI-systemen die geautomatiseerde beslissingen nemen, moeten streng worden getest op veiligheid, privacy en eerlijkheid, met name met betrekking tot beschermde groepen.
Federale agentschappen moeten openbaar maken welke AI-systemen voldoen aan de nieuwe richtlijnen, wat de transparantie en verantwoording vergroot.
Elk federaal agentschap moet een Chief Artificial Intelligence Officer aanstellen om toezicht te houden op de ethische en veilige implementatie van de AI-technologie.
article Officiële tekst account_balance Procespagina
Verlopen
Burgerpeiling
Geen stemmen uitgebracht
Aanvullende informatie
Druknummer: 118_S_5539
Sponsor: Sen. Welch, Peter [D-VT]
Startdatum: 2024-12-16