AI-wet

Wet op Kunstmatige Intelligentie

Overzicht

De EU AI-wet is de eerste uitgebreide horizontale verordening ter wereld over kunstmatige intelligentie. Aangenomen in maart 2024 en in werking tredend op 1 augustus 2024, stelt zij een risicogebaseerd kader vast dat AI-systemen categoriseert op basis van hun potentiële schade en legt daaruit voortvloeiende vereisten op.[1]

De verordening heeft tot doel ervoor te zorgen dat AI-systemen die op de EU-markt worden gebracht veilig zijn, fundamentele rechten respecteren en innovatie bevorderen door juridische zekerheid te bieden.

Gefaseerde toepassingsdata

DatumMijlpaal
1 augustus 2024Inwerkingtreding AI-wet
2 februari 2025Verboden AI-praktijken verboden; AI-geletterdheid verplichtingen van kracht
2 augustus 2025Verplichtingen GPAI-modellen; Governance regels van toepassing
2 augustus 2026Volledige toepassing voor hoog-risico AI-systemen
2 augustus 2027Vereisten hoog-risico AI (Bijlage I) voor bepaalde productveiligheidswetgeving

Risicocategorieën

Verboden AI-praktijken (Artikel 5)[2]

De volgende AI-praktijken zijn verboden vanaf 2 februari 2025:

  • Subliminale manipulatie: AI die kwetsbaarheden benut buiten het bewuste bewustzijn
  • Exploitatie van kwetsbaarheden: Gericht op leeftijd, handicap of sociaaleconomische omstandigheden
  • Sociale scoring: Mensen classificeren op basis van gedrag wat leidt tot nadelige behandeling
  • Voorspellende politiezorg: Individuele misdaadvoorspelling uitsluitend gebaseerd op profilering
  • Niet-gerichte gezichtsafscherming: Creëren van gezichtsherkenningsdatabases uit openbare bronnen
  • Emotieherkenning: Op de werkplek en in onderwijsinstellingen (met uitzonderingen)
  • Biometrische categorisering: Afleiden van gevoelige kenmerken zoals ras, politiek of religie
  • Realtime externe biometrische identificatie: In openbare ruimtes voor wetshandhaving (met uitzonderingen)

Hoog-risico AI-systemen (Artikel 6)[3]

AI-systemen in deze gebieden zijn onderworpen aan strikte vereisten:

  • Biometrische identificatie en categorisering
  • Beheer van kritieke infrastructuur (energie, transport, water, gas)
  • Onderwijs en beroepsopleiding (toelating, beoordelingen)
  • Werkgelegenheid (werving, prestatiebeoordeling, ontslag)
  • Toegang tot essentiële diensten (kredietbeoordeling, noodhulpdiensten)
  • Wetshandhaving (evaluatie van bewijsmateriaal, risicobeoordeling)
  • Migratie en grenscontrole
  • Justitie en democratische processen

Algemene Doel AI (GPAI) Modellen

Leveranciers van GPAI-modellen moeten:

  • Technische documentatie bijhouden
  • Informatie verstrekken voor naleving door downstream-leveranciers
  • Beleid voor auteursrechten naleving opstellen
  • Samenvattingen van trainingsinhoud publiceren

Systemisch risicovolle GPAI (modellen getraind met >10^25 FLOPs) hebben aanvullende verplichtingen, waaronder adversarial testing en incidentrapportage.[4]

Vereisten voor hoog-risico AI

VereisteBeschrijving
RisicobeheerOpzetten, documenteren en onderhouden van een risicobeheersysteem
Data GovernanceZorgen dat trainingsdata relevant, representatief en foutloos is
Technische documentatieGedetailleerde systeemdocumentatie vóór marktintroductie
RegistratieAutomatische logging van systeemactiviteiten
TransparantieDuidelijke gebruikersinstructies en informatie over mogelijkheden
Menselijk toezichtMogelijkheid tot menselijke supervisie en interventie
Nauwkeurigheid & robuustheidConsistente prestaties binnen de beoogde gebruikssituaties
CybersecurityBescherming tegen ongeautoriseerde toegang en manipulatie

Verplichting AI-geletterdheid (Artikel 4)

Vanaf 2 februari 2025 moeten alle aanbieders en gebruikers ervoor zorgen:

"Personeel en andere personen die namens hen omgaan met de werking en het gebruik van AI-systemen beschikken over een voldoende niveau van AI-geletterdheid."[5]

Dit geldt breed voor alle AI-toepassingen, niet alleen voor hoog-risicosystemen.

Sancties

  • Verboden AI-praktijken: Tot €35 miljoen of 7% van de wereldwijde omzet
  • Overtredingen hoog-risico: Tot €15 miljoen of 3% van de wereldwijde omzet
  • Onjuiste informatie: Tot €7,5 miljoen of 1% van de wereldwijde omzet[6]

KMO's en startups kunnen profiteren van proportionele plafonds.

Belangrijke acties voor ontwikkelaars

  1. Classificeer uw AI-systemen op risiconiveau
  2. Documenteer AI-gebruikscases en beoogde doeleinden
  3. Implementeer AI-geletterdheidsprogramma's voor alle medewerkers
  4. Beoordeel hoog-risico verplichtingen indien van toepassing
  5. Volg GPAI-vereisten voor gebruik van funderingsmodellen
  6. Bereid u voor op conformiteitsbeoordelingen (hoog-risicosystemen)

Bronnen & Referenties

[1]
Verordening (EU) 2024/1689 tot vaststelling van geharmoniseerde regels voor kunstmatige intelligentie. EUR-Lex: Officiële tekst AI-wet
[2]
AI-wet Artikel 5: Verboden AI-praktijken. AI Act Explorer: Artikel 5
[3]
AI-wet Artikel 6: Classificatieregels voor hoog-risico AI-systemen. AI Act Explorer: Artikel 6
[4]
Verplichtingen voor General Purpose AI-modellen. Europese Commissie: GPAI-verplichtingen
[5]
AI-wet Artikel 4: AI-geletterdheid. AI Act Explorer: Artikel 4
[6]
AI-wet Artikel 99: Sancties. AI Act Explorer: Artikel 99