
De AI Act, de eerste uitgebreide wetgeving op het gebied van kunstmatige intelligentie (AI) binnen de Europese Unie, is op 1 augustus 2024 in werking getreden. Deze verordening introduceert regels voor het ontwikkelen en gebruiken van AI-systemen, met als doel de veiligheid te waarborgen en fundamentele rechten te beschermen. De implementatie verloopt in fasen, waarbij de eerste verplichtingen ingaan op 2 februari 2025.
Wat verandert er per februari 2025?
Vanaf 2 februari 2025 worden AI-systemen die als onaanvaardbaar risico worden beschouwd, verboden. Dit omvat toepassingen die manipulatief zijn, kwetsbare groepen exploiteren, of gebruikmaken van social scoring en real-time biometrische identificatie in openbare ruimtes. Organisaties die dergelijke systemen ontwikkelen of gebruiken, moeten deze vóór deze datum uit de handel nemen of het gebruik staken.
Wat betekent dit voor organisaties?
Organisaties dienen een grondige inventarisatie te maken van de AI-systemen die zij ontwikkelen of inzetten. Het is essentieel te bepalen in welke risicocategorie een systeem valt: onaanvaardbaar, hoog, beperkt of minimaal risico. Voor systemen met een hoog risico gelden vanaf augustus 2026 strengere eisen op het gebied van risicobeheer, datakwaliteit, technische documentatie en menselijk toezicht. Het is daarom raadzaam om nu al voorbereidingen te treffen om aan deze toekomstige verplichtingen te voldoen.
Hoe kunnen organisaties zich voorbereiden?
- Inventariseer AI-systemen: Breng in kaart welke AI-toepassingen binnen de organisatie worden gebruikt en bepaal de bijbehorende risicocategorie.
- Stop verboden AI: Beëindig het gebruik van AI-systemen die onder de categorie ‘onaanvaardbaar risico’ vallen vóór 2 februari 2025.
- Bereid voor op hoog risico AI: Ontwikkel een strategie om te voldoen aan de eisen voor hoogrisico AI-systemen die vanaf augustus 2026 van kracht worden.
- Verhoog AI-kennis: Zorg dat medewerkers voldoende kennis hebben over AI, passend bij hun rol en de context waarin AI wordt gebruikt.
Conclusie
De AI Act markeert een belangrijke stap richting veilige en verantwoorde inzet van AI binnen de EU. Door tijdig te anticiperen op de aankomende veranderingen kunnen organisaties niet alleen voldoen aan de nieuwe regelgeving, maar ook bijdragen aan het bevorderen van betrouwbare en ethische AI-toepassingen.