AI-wet
Wet op Kunstmatige Intelligentie
Overzicht
De EU AI-wet is de eerste uitgebreide horizontale verordening ter wereld over kunstmatige intelligentie. Aangenomen in maart 2024 en in werking tredend op 1 augustus 2024, stelt zij een risicogebaseerd kader vast dat AI-systemen categoriseert op basis van hun potentiële schade en legt daaruit voortvloeiende vereisten op.[1]
De verordening heeft tot doel ervoor te zorgen dat AI-systemen die op de EU-markt worden gebracht veilig zijn, fundamentele rechten respecteren en innovatie bevorderen door juridische zekerheid te bieden.
Gefaseerde toepassingsdata
| Datum | Mijlpaal |
|---|---|
| 1 augustus 2024 | Inwerkingtreding AI-wet |
| 2 februari 2025 | Verboden AI-praktijken verboden; AI-geletterdheid verplichtingen van kracht |
| 2 augustus 2025 | Verplichtingen GPAI-modellen; Governance regels van toepassing |
| 2 augustus 2026 | Volledige toepassing voor hoog-risico AI-systemen |
| 2 augustus 2027 | Vereisten hoog-risico AI (Bijlage I) voor bepaalde productveiligheidswetgeving |
Risicocategorieën
Verboden AI-praktijken (Artikel 5)[2]
De volgende AI-praktijken zijn verboden vanaf 2 februari 2025:
- Subliminale manipulatie: AI die kwetsbaarheden benut buiten het bewuste bewustzijn
- Exploitatie van kwetsbaarheden: Gericht op leeftijd, handicap of sociaaleconomische omstandigheden
- Sociale scoring: Mensen classificeren op basis van gedrag wat leidt tot nadelige behandeling
- Voorspellende politiezorg: Individuele misdaadvoorspelling uitsluitend gebaseerd op profilering
- Niet-gerichte gezichtsafscherming: Creëren van gezichtsherkenningsdatabases uit openbare bronnen
- Emotieherkenning: Op de werkplek en in onderwijsinstellingen (met uitzonderingen)
- Biometrische categorisering: Afleiden van gevoelige kenmerken zoals ras, politiek of religie
- Realtime externe biometrische identificatie: In openbare ruimtes voor wetshandhaving (met uitzonderingen)
Hoog-risico AI-systemen (Artikel 6)[3]
AI-systemen in deze gebieden zijn onderworpen aan strikte vereisten:
- Biometrische identificatie en categorisering
- Beheer van kritieke infrastructuur (energie, transport, water, gas)
- Onderwijs en beroepsopleiding (toelating, beoordelingen)
- Werkgelegenheid (werving, prestatiebeoordeling, ontslag)
- Toegang tot essentiële diensten (kredietbeoordeling, noodhulpdiensten)
- Wetshandhaving (evaluatie van bewijsmateriaal, risicobeoordeling)
- Migratie en grenscontrole
- Justitie en democratische processen
Algemene Doel AI (GPAI) Modellen
Leveranciers van GPAI-modellen moeten:
- Technische documentatie bijhouden
- Informatie verstrekken voor naleving door downstream-leveranciers
- Beleid voor auteursrechten naleving opstellen
- Samenvattingen van trainingsinhoud publiceren
Systemisch risicovolle GPAI (modellen getraind met >10^25 FLOPs) hebben aanvullende verplichtingen, waaronder adversarial testing en incidentrapportage.[4]
Vereisten voor hoog-risico AI
| Vereiste | Beschrijving |
|---|---|
| Risicobeheer | Opzetten, documenteren en onderhouden van een risicobeheersysteem |
| Data Governance | Zorgen dat trainingsdata relevant, representatief en foutloos is |
| Technische documentatie | Gedetailleerde systeemdocumentatie vóór marktintroductie |
| Registratie | Automatische logging van systeemactiviteiten |
| Transparantie | Duidelijke gebruikersinstructies en informatie over mogelijkheden |
| Menselijk toezicht | Mogelijkheid tot menselijke supervisie en interventie |
| Nauwkeurigheid & robuustheid | Consistente prestaties binnen de beoogde gebruikssituaties |
| Cybersecurity | Bescherming tegen ongeautoriseerde toegang en manipulatie |
Verplichting AI-geletterdheid (Artikel 4)
Vanaf 2 februari 2025 moeten alle aanbieders en gebruikers ervoor zorgen:
"Personeel en andere personen die namens hen omgaan met de werking en het gebruik van AI-systemen beschikken over een voldoende niveau van AI-geletterdheid."[5]
Dit geldt breed voor alle AI-toepassingen, niet alleen voor hoog-risicosystemen.
Sancties
- Verboden AI-praktijken: Tot €35 miljoen of 7% van de wereldwijde omzet
- Overtredingen hoog-risico: Tot €15 miljoen of 3% van de wereldwijde omzet
- Onjuiste informatie: Tot €7,5 miljoen of 1% van de wereldwijde omzet[6]
KMO's en startups kunnen profiteren van proportionele plafonds.
Belangrijke acties voor ontwikkelaars
- Classificeer uw AI-systemen op risiconiveau
- Documenteer AI-gebruikscases en beoogde doeleinden
- Implementeer AI-geletterdheidsprogramma's voor alle medewerkers
- Beoordeel hoog-risico verplichtingen indien van toepassing
- Volg GPAI-vereisten voor gebruik van funderingsmodellen
- Bereid u voor op conformiteitsbeoordelingen (hoog-risicosystemen)