AI-lag
Lag om artificiell intelligens
Översikt
EU:s AI-lag är världens första omfattande horisontella förordning om artificiell intelligens. Antagen i mars 2024 och ikraftträdande den 1 augusti 2024, fastställer den en riskbaserad ram som kategoriserar AI-system baserat på deras potentiella skada och ställer krav därefter.[1]
Förordningen syftar till att säkerställa att AI-system som släpps ut på EU-marknaden är säkra, respekterar grundläggande rättigheter och främjar innovation genom rättslig tydlighet.
Fasvisa tillämpningsdatum
| Datum | Milstolpe |
|---|---|
| 1 augusti 2024 | AI-lagen träder i kraft |
| 2 februari 2025 | Förbjudna AI-praktiker förbjuds; skyldigheter för AI-läskunnighet gäller |
| 2 augusti 2025 | Skyldigheter för GPAI-modeller; styrningsregler gäller |
| 2 augusti 2026 | Full tillämpning för högrisk-AI-system |
| 2 augusti 2027 | Högrisk-AI (bilaga I) krav för viss produktsäkerhetslagstiftning |
Riskkategorier
Förbjudna AI-praktiker (artikel 5)[2]
Följande AI-praktiker är förbjudna från och med 2 februari 2025:
- Underliggande manipulation: AI som utnyttjar sårbarheter bortom medveten medvetenhet
- Utnyttjande av sårbarheter: Riktar sig mot ålder, funktionsnedsättning eller socioekonomiska omständigheter
- Social poängsättning: Klassificering av människor baserat på beteende som leder till skadlig behandling
- Prediktiv polisverksamhet: Individuell brottsförebyggande bedömning baserad enbart på profilering
- Oinriktad ansiktsskrapning: Skapande av databaser för ansiktsigenkänning från offentliga källor
- Känsloigenkänning: På arbetsplatser och utbildningsinstitutioner (med undantag)
- Biometrisk kategorisering: Härledning av känsliga attribut som ras, politik eller religion
- Biometrisk identifiering i realtid på distans: I offentliga utrymmen för brottsbekämpning (med undantag)
Högrisk-AI-system (artikel 6)[3]
AI-system inom dessa områden omfattas av strikta krav:
- Biometrisk identifiering och kategorisering
- Hantering av kritisk infrastruktur (energi, transport, vatten, gas)
- Utbildning och yrkesutbildning (antagning, bedömningar)
- Anställning (rekrytering, prestationsbedömning, uppsägning)
- Tillgång till viktiga tjänster (kreditvärdering, nödtjänster)
- Brottsbekämpning (bevisbedömning, riskbedömning)
- Migration och gränskontroll
- Rättvisa och demokratiska processer
Allmänna AI-modeller (GPAI)
Leverantörer av GPAI-modeller måste:
- Upprätthålla teknisk dokumentation
- Tillhandahålla information för efterföljande leverantörers efterlevnad
- Inrätta policyer för upphovsrättsöverensstämmelse
- Publicera sammanfattningar av träningsinnehåll
Systemrisk GPAI (modeller tränade med >10^25 FLOPs) har ytterligare skyldigheter inklusive adversariell testning och incidentrapportering.[4]
Krav för högrisk-AI
| Krav | Beskrivning |
|---|---|
| Riskhantering | Upprätta, dokumentera och underhålla ett riskhanteringssystem |
| Datastyrning | Säkerställ att träningsdata är relevant, representativ och felfri |
| Teknisk dokumentation | Detaljerad systemdokumentation före marknadsintroduktion |
| Registerföring | Automatisk loggning av systemets funktioner |
| Transparens | Tydliga användarinstruktioner och information om kapacitet |
| Mänsklig övervakning | Möjliggör mänsklig övervakning och ingripande |
| Noggrannhet och robusthet | Konsekvent prestanda över avsedda användningsområden |
| Cybersäkerhet | Skydd mot obehörig åtkomst och manipulation |
Skyldighet för AI-läskunnighet (artikel 4)
Från och med 2 februari 2025 måste alla leverantörer och användare säkerställa:
"Personal och andra personer som hanterar drift och användning av AI-system för deras räkning har en tillräcklig nivå av AI-läskunnighet."[5]
Detta gäller brett över alla AI-användningsområden, inte bara högrisk-system.
Påföljder
- Förbjudna AI-praktiker: Upp till 35 miljoner euro eller 7 % av den globala omsättningen
- Högrisköverträdelser: Upp till 15 miljoner euro eller 3 % av den globala omsättningen
- Felaktig information: Upp till 7,5 miljoner euro eller 1 % av den globala omsättningen[6]
SMF och nystartade företag kan dra nytta av proportionella tak.
Viktiga åtgärder för utvecklare
- Klassificera dina AI-system efter risknivå
- Dokumentera AI-användningsfall och avsedda syften
- Implementera AI-läskunnighetsprogram för all personal
- Bedöm högrisk-skyldigheter om tillämpligt
- Övervaka GPAI-krav för användning av grundmodeller
- Förbered för överensstämmelsebedömningar (högrisk-system)