AI-laki

Tekoälylaki

Yleiskatsaus

EU:n AI-laki on maailman ensimmäinen kattava horisontaalinen sääntely tekoälylle. Se hyväksyttiin maaliskuussa 2024 ja tulee voimaan 1. elokuuta 2024, ja se luo riskiperusteisen kehyksen, joka luokittelee tekoälyjärjestelmät niiden mahdollisen haitan perusteella ja asettaa vaatimuksia sen mukaisesti.[1]

Sääntelyn tavoitteena on varmistaa, että EU:n markkinoille saatetut tekoälyjärjestelmät ovat turvallisia, kunnioittavat perusoikeuksia ja edistävät innovaatiota oikeudellisen varmuuden kautta.

Vaiheittaiset soveltamispäivät

PäivämääräVirstanpylväs
1. elokuuta 2024AI-laki tulee voimaan
2. helmikuuta 2025Kielletyt tekoälykäytännöt kiellettyjä; tekoälylukutaitovaatimukset astuvat voimaan
2. elokuuta 2025GPAI-mallien velvoitteet; hallintasäännöt astuvat voimaan
2. elokuuta 2026Korkean riskin tekoälyjärjestelmien täysi soveltaminen
2. elokuuta 2027Korkean riskin tekoälyn (liite I) vaatimukset tietyille tuoteturvallisuuslainsäädännöille

Riskiluokat

Kielletyt tekoälykäytännöt (artikla 5)[2]

Seuraavat tekoälykäytännöt ovat kiellettyjä 2. helmikuuta 2025 alkaen:

  • Alitajunnallinen manipulointi: Tekoäly, joka hyödyntää tietoisuuden ulkopuolisia haavoittuvuuksia
  • Haavoittuvuuksien hyväksikäyttö: Kohdistuu ikään, vammaisuuteen tai sosioekonomisiin olosuhteisiin
  • Sosiaalinen pisteytys: Ihmisten luokittelu käyttäytymisen perusteella, mikä johtaa haitalliseen kohteluun
  • Ennakoiva poliisitoiminta: Rikosten ennustaminen pelkästään profiloinnin perusteella
  • Ei-kohdennettu kasvojentunnistus: Kasvojentunnistusrekisterien luominen julkisista lähteistä
  • Tunnepohjainen tunnistus: Työpaikoilla ja oppilaitoksissa (poikkeuksin)
  • Biometrinen luokittelu: Arkaluonteisten ominaisuuksien, kuten rodun, politiikan tai uskonnon, päättelemistä
  • Reaaliaikainen etäbiometrinen tunnistus: Julkisilla paikoilla lainvalvontaa varten (poikkeuksin)

Korkean riskin tekoälyjärjestelmät (artikla 6)[3]

Näihin alueisiin kuuluvat tekoälyjärjestelmät ovat tiukkojen vaatimusten alaisia:

  • Biometrinen tunnistus ja luokittelu
  • Kriittisen infrastruktuurin hallinta (energia, liikenne, vesi, kaasu)
  • Koulutus ja ammatillinen koulutus (pääsy, arvioinnit)
  • Työllisyys (rekrytointi, suorituskyvyn arviointi, irtisanominen)
  • Keskeisten palveluiden saatavuus (luottopisteytys, hätäpalvelut)
  • Lainvalvonta (todisteiden arviointi, riskinarviointi)
  • Maahanmuutto ja rajavalvonta
  • Oikeusjärjestelmä ja demokraattiset prosessit

Yleiskäyttöiset tekoälymallit (GPAI)

GPAI-mallien tarjoajien on:

  • Pidettävä yllä teknistä dokumentaatiota
  • Tarjottava tietoa alihankkijoiden vaatimustenmukaisuuden varmistamiseksi
  • Perustettava tekijänoikeusvaatimustenmukaisuuden politiikat
  • Julkaistava koulutusmateriaalin yhteenvetoja

Systemaattisen riskin GPAI (mallit, joita on koulutettu yli 10^25 FLOPilla) ovat lisävelvoitteiden alaisia, mukaan lukien vastustava testaus ja tapausilmoitukset.[4]

Korkean riskin tekoälyn vaatimukset

VaatimusKuvaus
RiskienhallintaPerustaa, dokumentoida ja ylläpitää riskienhallintajärjestelmä
DatanhallintaVarmistaa, että koulutusdata on relevanttia, edustavaa ja virheetöntä
Tekninen dokumentaatioYksityiskohtainen järjestelmädokumentaatio ennen markkinoille saattamista
Tietueiden pitäminenJärjestelmän toimintojen automaattinen kirjaaminen
LäpinäkyvyysSelkeät käyttäjäohjeet ja tiedot järjestelmän kyvyistä
Ihmisen valvontaMahdollistaa ihmisen valvonta ja puuttuminen
Tarkkuus ja kestävyysJohdonmukainen suorituskyky suunnitelluissa käyttötapauksissa
KyberturvallisuusSuojaus luvattomalta pääsyltä ja manipuloinnilta

Tekoälylukutaitovaatimus (artikla 4)

2. helmikuuta 2025 alkaen kaikkien tarjoajien ja käyttöönottojen on varmistettava:

"Henkilöstöllä ja muilla tekoälyjärjestelmien käytöstä ja toiminnasta vastaavilla henkilöillä on riittävä tekoälylukutaitotaso."[5]

Tämä koskee laajasti kaikkia tekoälyn käyttötapauksia, ei vain korkean riskin järjestelmiä.

Rangaistukset

  • Kielletyt tekoälykäytännöt: Jopa 35 miljoonaa euroa tai 7 % maailmanlaajuisesta liikevaihdosta
  • Korkean riskin rikkomukset: Jopa 15 miljoonaa euroa tai 3 % maailmanlaajuisesta liikevaihdosta
  • Virheelliset tiedot: Jopa 7,5 miljoonaa euroa tai 1 % maailmanlaajuisesta liikevaihdosta[6]

PK-yritykset ja startupit voivat hyötyä suhteellisista enimmäismääristä.

Tärkeimmät kehittäjän toimet

  1. Luokittele tekoälyjärjestelmäsi riskitason mukaan
  2. Dokumentoi tekoälyn käyttötapaukset ja tarkoitukset
  3. Ota käyttöön tekoälylukutaito-ohjelmat kaikelle henkilöstölle
  4. Arvioi korkean riskin velvoitteet, jos sovellettavissa
  5. Seuraa GPAI-vaatimuksia perustamismallien käytössä
  6. Valmistaudu vaatimustenmukaisuuden arviointeihin (korkean riskin järjestelmät)

Lähteet ja viitteet

[1]
Asetus (EU) 2024/1689, joka asettaa harmonisoidut säännöt tekoälylle. EUR-Lex: AI-lain virallinen teksti
[2]
AI-laki artikla 5: Kielletyt tekoälykäytännöt. AI Act Explorer: Artikla 5
[3]
AI-laki artikla 6: Luokittelusäännöt korkean riskin tekoälyjärjestelmille. AI Act Explorer: Artikla 6
[4]
Yleiskäyttöisten tekoälymallien velvoitteet. Euroopan komissio: GPAI-velvoitteet
[5]
AI-laki artikla 4: Tekoälylukutaito. AI Act Explorer: Artikla 4
[6]
AI-laki artikla 99: Rangaistukset. AI Act Explorer: Artikla 99