AI-lov
Lov om kunstig intelligens
Oversigt
EU's AI-lov er verdens første omfattende horisontale regulering af kunstig intelligens. Vedtaget i marts 2024 og trådt i kraft den 1. august 2024, etablerer den en risikobaseret ramme, der kategoriserer AI-systemer baseret på deres potentielle skade og pålægger krav i overensstemmelse hermed.[1]
Reguleringen har til formål at sikre, at AI-systemer, der bringes på EU-markedet, er sikre, respekterer grundlæggende rettigheder og fremmer innovation gennem juridisk sikkerhed.
Faserede anvendelsesdatoer
| Dato | Milepæl |
|---|---|
| 1. august 2024 | AI-loven træder i kraft |
| 2. februar 2025 | Forbudte AI-praksisser forbydes; AI-læsefærdighedsforpligtelser gælder |
| 2. august 2025 | GPAI-modelforpligtelser; styringsregler gælder |
| 2. august 2026 | Fuld anvendelse for højrisko AI-systemer |
| 2. august 2027 | Højrisiko AI (bilag I) krav for visse produktsikkerhedslovgivninger |
Risikokategorier
Forbudte AI-praksisser (artikel 5)[2]
Følgende AI-praksisser er forbudt fra 2. februar 2025:
- Subliminal manipulation: AI, der udnytter sårbarheder uden for bevidst opmærksomhed
- Udnyttelse af sårbarheder: Målretning mod alder, handicap eller socioøkonomiske forhold
- Social scoring: Klassificering af personer baseret på adfærd, der fører til skadelig behandling
- Forudsigende politiarbejde: Individuel kriminalitetsforudsigelse baseret udelukkende på profilering
- Utargeteret ansigtsskrabning: Oprettelse af ansigtsgenkendelsesdatabaser fra offentlige kilder
- Følelsesgenkendelse: På arbejdspladser og uddannelsesinstitutioner (med undtagelser)
- Biometrisk kategorisering: Udledning af følsomme attributter som race, politik eller religion
- Biometrisk identifikation i realtid på afstand: I offentlige rum til retshåndhævelse (med undtagelser)
Højrisiko AI-systemer (artikel 6)[3]
AI-systemer inden for disse områder er underlagt strenge krav:
- Biometrisk identifikation og kategorisering
- Styring af kritisk infrastruktur (energi, transport, vand, gas)
- Uddannelse og erhvervsuddannelse (optagelse, vurderinger)
- Besættelse af stillinger (rekruttering, præstationsvurdering, opsigelse)
- Adgang til væsentlige tjenester (kreditscoring, nødtjenester)
- Retshåndhævelse (bevidstevaluering, risikovurdering)
- Migration og grænsekontrol
- Retfærdighed og demokratiske processer
Generelle formål AI (GPAI) modeller
Udbydere af GPAI-modeller skal:
- Vedligeholde teknisk dokumentation
- Give oplysninger til efterfølgende udbyderes overholdelse
- Etablere politikker for ophavsretsoverholdelse
- Offentliggøre resuméer af træningsindhold
Systemisk risikofyldt GPAI (modeller trænet med >10^25 FLOPs) har yderligere forpligtelser, herunder modstandstest og hændelsesrapportering.[4]
Krav til højrisiko AI
| Krav | Beskrivelse |
|---|---|
| Risikostyring | Etabler, dokumenter og vedligehold risikostyringssystem |
| Datastyring | Sikre, at træningsdata er relevante, repræsentative og fejlfri |
| Teknisk dokumentation | Detaljeret systemdokumentation før markedsplacering |
| Registrering | Automatisk logning af systemoperationer |
| Gennemsigtighed | Klare brugervejledninger og kapacitetsinformation |
| Menneskelig overvågning | Muliggør menneskelig supervision og indgriben |
| Nøjagtighed og robusthed | Konsekvent ydeevne på tværs af tilsigtede anvendelsestilfælde |
| Cybersikkerhed | Beskyttelse mod uautoriseret adgang og manipulation |
AI-læsefærdighedsforpligtelse (artikel 4)
Fra 2. februar 2025 skal alle udbydere og brugere sikre:
"Personale og andre personer, der beskæftiger sig med drift og brug af AI-systemer på deres vegne, har et tilstrækkeligt niveau af AI-læsefærdighed."[5]
Dette gælder bredt for alle AI-anvendelsestilfælde, ikke kun højrisikosystemer.
Straffe
- Forbudte AI-praksisser: Op til 35 millioner € eller 7 % af global omsætning
- Højrisikoovertrædelser: Op til 15 millioner € eller 3 % af global omsætning
- Forkerte oplysninger: Op til 7,5 millioner € eller 1 % af global omsætning[6]
SMV'er og startups kan drage fordel af proportionale loftsgrænser.
Nøglehandlinger for udviklere
- Klassificer dine AI-systemer efter risikoniveau
- Dokumenter AI-anvendelsestilfælde og tilsigtede formål
- Implementer AI-læsefærdighedsprogrammer for alt personale
- Vurder højrisikoforpligtelser hvis relevant
- Overvåg GPAI-krav for brug af grundmodeller
- Forbered dig på overensstemmelsesvurderinger (højrisikosystemer)