AI-lov

Lov om kunstig intelligens

Oversigt

EU's AI-lov er verdens første omfattende horisontale regulering af kunstig intelligens. Vedtaget i marts 2024 og trådt i kraft den 1. august 2024, etablerer den en risikobaseret ramme, der kategoriserer AI-systemer baseret på deres potentielle skade og pålægger krav i overensstemmelse hermed.[1]

Reguleringen har til formål at sikre, at AI-systemer, der bringes på EU-markedet, er sikre, respekterer grundlæggende rettigheder og fremmer innovation gennem juridisk sikkerhed.

Faserede anvendelsesdatoer

DatoMilepæl
1. august 2024AI-loven træder i kraft
2. februar 2025Forbudte AI-praksisser forbydes; AI-læsefærdighedsforpligtelser gælder
2. august 2025GPAI-modelforpligtelser; styringsregler gælder
2. august 2026Fuld anvendelse for højrisko AI-systemer
2. august 2027Højrisiko AI (bilag I) krav for visse produktsikkerhedslovgivninger

Risikokategorier

Forbudte AI-praksisser (artikel 5)[2]

Følgende AI-praksisser er forbudt fra 2. februar 2025:

  • Subliminal manipulation: AI, der udnytter sårbarheder uden for bevidst opmærksomhed
  • Udnyttelse af sårbarheder: Målretning mod alder, handicap eller socioøkonomiske forhold
  • Social scoring: Klassificering af personer baseret på adfærd, der fører til skadelig behandling
  • Forudsigende politiarbejde: Individuel kriminalitetsforudsigelse baseret udelukkende på profilering
  • Utargeteret ansigtsskrabning: Oprettelse af ansigtsgenkendelsesdatabaser fra offentlige kilder
  • Følelsesgenkendelse: På arbejdspladser og uddannelsesinstitutioner (med undtagelser)
  • Biometrisk kategorisering: Udledning af følsomme attributter som race, politik eller religion
  • Biometrisk identifikation i realtid på afstand: I offentlige rum til retshåndhævelse (med undtagelser)

Højrisiko AI-systemer (artikel 6)[3]

AI-systemer inden for disse områder er underlagt strenge krav:

  • Biometrisk identifikation og kategorisering
  • Styring af kritisk infrastruktur (energi, transport, vand, gas)
  • Uddannelse og erhvervsuddannelse (optagelse, vurderinger)
  • Besættelse af stillinger (rekruttering, præstationsvurdering, opsigelse)
  • Adgang til væsentlige tjenester (kreditscoring, nødtjenester)
  • Retshåndhævelse (bevidstevaluering, risikovurdering)
  • Migration og grænsekontrol
  • Retfærdighed og demokratiske processer

Generelle formål AI (GPAI) modeller

Udbydere af GPAI-modeller skal:

  • Vedligeholde teknisk dokumentation
  • Give oplysninger til efterfølgende udbyderes overholdelse
  • Etablere politikker for ophavsretsoverholdelse
  • Offentliggøre resuméer af træningsindhold

Systemisk risikofyldt GPAI (modeller trænet med >10^25 FLOPs) har yderligere forpligtelser, herunder modstandstest og hændelsesrapportering.[4]

Krav til højrisiko AI

KravBeskrivelse
RisikostyringEtabler, dokumenter og vedligehold risikostyringssystem
DatastyringSikre, at træningsdata er relevante, repræsentative og fejlfri
Teknisk dokumentationDetaljeret systemdokumentation før markedsplacering
RegistreringAutomatisk logning af systemoperationer
GennemsigtighedKlare brugervejledninger og kapacitetsinformation
Menneskelig overvågningMuliggør menneskelig supervision og indgriben
Nøjagtighed og robusthedKonsekvent ydeevne på tværs af tilsigtede anvendelsestilfælde
CybersikkerhedBeskyttelse mod uautoriseret adgang og manipulation

AI-læsefærdighedsforpligtelse (artikel 4)

Fra 2. februar 2025 skal alle udbydere og brugere sikre:

"Personale og andre personer, der beskæftiger sig med drift og brug af AI-systemer på deres vegne, har et tilstrækkeligt niveau af AI-læsefærdighed."[5]

Dette gælder bredt for alle AI-anvendelsestilfælde, ikke kun højrisikosystemer.

Straffe

  • Forbudte AI-praksisser: Op til 35 millioner € eller 7 % af global omsætning
  • Højrisikoovertrædelser: Op til 15 millioner € eller 3 % af global omsætning
  • Forkerte oplysninger: Op til 7,5 millioner € eller 1 % af global omsætning[6]

SMV'er og startups kan drage fordel af proportionale loftsgrænser.

Nøglehandlinger for udviklere

  1. Klassificer dine AI-systemer efter risikoniveau
  2. Dokumenter AI-anvendelsestilfælde og tilsigtede formål
  3. Implementer AI-læsefærdighedsprogrammer for alt personale
  4. Vurder højrisikoforpligtelser hvis relevant
  5. Overvåg GPAI-krav for brug af grundmodeller
  6. Forbered dig på overensstemmelsesvurderinger (højrisikosystemer)

Kilder og referencer

[1]
Forordning (EU) 2024/1689 om fastlæggelse af harmoniserede regler for kunstig intelligens. EUR-Lex: AI Act Officiel Tekst
[2]
AI-lov artikel 5: Forbudte AI-praksisser. AI Act Explorer: Artikel 5
[3]
AI-lov artikel 6: Klassifikationsregler for højrisiko AI-systemer. AI Act Explorer: Artikel 6
[4]
Forpligtelser for General Purpose AI-modeller. Europa-Kommissionen: GPAI-forpligtelser
[5]
AI-lov artikel 4: AI-læsefærdighed. AI Act Explorer: Artikel 4
[6]
AI-lov artikel 99: Straffe. AI Act Explorer: Artikel 99