AI-lag

Lag om artificiell intelligens

Översikt

EU:s AI-lag är världens första omfattande horisontella förordning om artificiell intelligens. Antagen i mars 2024 och ikraftträdande den 1 augusti 2024, fastställer den en riskbaserad ram som kategoriserar AI-system baserat på deras potentiella skada och ställer krav därefter.[1]

Förordningen syftar till att säkerställa att AI-system som släpps ut på EU-marknaden är säkra, respekterar grundläggande rättigheter och främjar innovation genom rättslig tydlighet.

Fasvisa tillämpningsdatum

DatumMilstolpe
1 augusti 2024AI-lagen träder i kraft
2 februari 2025Förbjudna AI-praktiker förbjuds; skyldigheter för AI-läskunnighet gäller
2 augusti 2025Skyldigheter för GPAI-modeller; styrningsregler gäller
2 augusti 2026Full tillämpning för högrisk-AI-system
2 augusti 2027Högrisk-AI (bilaga I) krav för viss produktsäkerhetslagstiftning

Riskkategorier

Förbjudna AI-praktiker (artikel 5)[2]

Följande AI-praktiker är förbjudna från och med 2 februari 2025:

  • Underliggande manipulation: AI som utnyttjar sårbarheter bortom medveten medvetenhet
  • Utnyttjande av sårbarheter: Riktar sig mot ålder, funktionsnedsättning eller socioekonomiska omständigheter
  • Social poängsättning: Klassificering av människor baserat på beteende som leder till skadlig behandling
  • Prediktiv polisverksamhet: Individuell brottsförebyggande bedömning baserad enbart på profilering
  • Oinriktad ansiktsskrapning: Skapande av databaser för ansiktsigenkänning från offentliga källor
  • Känsloigenkänning: På arbetsplatser och utbildningsinstitutioner (med undantag)
  • Biometrisk kategorisering: Härledning av känsliga attribut som ras, politik eller religion
  • Biometrisk identifiering i realtid på distans: I offentliga utrymmen för brottsbekämpning (med undantag)

Högrisk-AI-system (artikel 6)[3]

AI-system inom dessa områden omfattas av strikta krav:

  • Biometrisk identifiering och kategorisering
  • Hantering av kritisk infrastruktur (energi, transport, vatten, gas)
  • Utbildning och yrkesutbildning (antagning, bedömningar)
  • Anställning (rekrytering, prestationsbedömning, uppsägning)
  • Tillgång till viktiga tjänster (kreditvärdering, nödtjänster)
  • Brottsbekämpning (bevisbedömning, riskbedömning)
  • Migration och gränskontroll
  • Rättvisa och demokratiska processer

Allmänna AI-modeller (GPAI)

Leverantörer av GPAI-modeller måste:

  • Upprätthålla teknisk dokumentation
  • Tillhandahålla information för efterföljande leverantörers efterlevnad
  • Inrätta policyer för upphovsrättsöverensstämmelse
  • Publicera sammanfattningar av träningsinnehåll

Systemrisk GPAI (modeller tränade med >10^25 FLOPs) har ytterligare skyldigheter inklusive adversariell testning och incidentrapportering.[4]

Krav för högrisk-AI

KravBeskrivning
RiskhanteringUpprätta, dokumentera och underhålla ett riskhanteringssystem
DatastyrningSäkerställ att träningsdata är relevant, representativ och felfri
Teknisk dokumentationDetaljerad systemdokumentation före marknadsintroduktion
RegisterföringAutomatisk loggning av systemets funktioner
TransparensTydliga användarinstruktioner och information om kapacitet
Mänsklig övervakningMöjliggör mänsklig övervakning och ingripande
Noggrannhet och robusthetKonsekvent prestanda över avsedda användningsområden
CybersäkerhetSkydd mot obehörig åtkomst och manipulation

Skyldighet för AI-läskunnighet (artikel 4)

Från och med 2 februari 2025 måste alla leverantörer och användare säkerställa:

"Personal och andra personer som hanterar drift och användning av AI-system för deras räkning har en tillräcklig nivå av AI-läskunnighet."[5]

Detta gäller brett över alla AI-användningsområden, inte bara högrisk-system.

Påföljder

  • Förbjudna AI-praktiker: Upp till 35 miljoner euro eller 7 % av den globala omsättningen
  • Högrisköverträdelser: Upp till 15 miljoner euro eller 3 % av den globala omsättningen
  • Felaktig information: Upp till 7,5 miljoner euro eller 1 % av den globala omsättningen[6]

SMF och nystartade företag kan dra nytta av proportionella tak.

Viktiga åtgärder för utvecklare

  1. Klassificera dina AI-system efter risknivå
  2. Dokumentera AI-användningsfall och avsedda syften
  3. Implementera AI-läskunnighetsprogram för all personal
  4. Bedöm högrisk-skyldigheter om tillämpligt
  5. Övervaka GPAI-krav för användning av grundmodeller
  6. Förbered för överensstämmelsebedömningar (högrisk-system)

Källor och referenser

[1]
Förordning (EU) 2024/1689 som fastställer harmoniserade regler för artificiell intelligens. EUR-Lex: AI Act Official Text
[2]
AI-lag artikel 5: Förbjudna AI-praktiker. AI Act Explorer: Article 5
[3]
AI-lag artikel 6: Klassificeringsregler för högrisk-AI-system. AI Act Explorer: Article 6
[4]
Skyldigheter för allmänna AI-modeller. Europeiska kommissionen: GPAI-skyldigheter
[5]
AI-lag artikel 4: AI-läskunnighet. AI Act Explorer: Article 4
[6]
AI-lag artikel 99: Påföljder. AI Act Explorer: Article 99