AI-laki
Tekoälylaki
Yleiskatsaus
EU:n AI-laki on maailman ensimmäinen kattava horisontaalinen sääntely tekoälylle. Se hyväksyttiin maaliskuussa 2024 ja tulee voimaan 1. elokuuta 2024, ja se luo riskiperusteisen kehyksen, joka luokittelee tekoälyjärjestelmät niiden mahdollisen haitan perusteella ja asettaa vaatimuksia sen mukaisesti.[1]
Sääntelyn tavoitteena on varmistaa, että EU:n markkinoille saatetut tekoälyjärjestelmät ovat turvallisia, kunnioittavat perusoikeuksia ja edistävät innovaatiota oikeudellisen varmuuden kautta.
Vaiheittaiset soveltamispäivät
| Päivämäärä | Virstanpylväs |
|---|---|
| 1. elokuuta 2024 | AI-laki tulee voimaan |
| 2. helmikuuta 2025 | Kielletyt tekoälykäytännöt kiellettyjä; tekoälylukutaitovaatimukset astuvat voimaan |
| 2. elokuuta 2025 | GPAI-mallien velvoitteet; hallintasäännöt astuvat voimaan |
| 2. elokuuta 2026 | Korkean riskin tekoälyjärjestelmien täysi soveltaminen |
| 2. elokuuta 2027 | Korkean riskin tekoälyn (liite I) vaatimukset tietyille tuoteturvallisuuslainsäädännöille |
Riskiluokat
Kielletyt tekoälykäytännöt (artikla 5)[2]
Seuraavat tekoälykäytännöt ovat kiellettyjä 2. helmikuuta 2025 alkaen:
- Alitajunnallinen manipulointi: Tekoäly, joka hyödyntää tietoisuuden ulkopuolisia haavoittuvuuksia
- Haavoittuvuuksien hyväksikäyttö: Kohdistuu ikään, vammaisuuteen tai sosioekonomisiin olosuhteisiin
- Sosiaalinen pisteytys: Ihmisten luokittelu käyttäytymisen perusteella, mikä johtaa haitalliseen kohteluun
- Ennakoiva poliisitoiminta: Rikosten ennustaminen pelkästään profiloinnin perusteella
- Ei-kohdennettu kasvojentunnistus: Kasvojentunnistusrekisterien luominen julkisista lähteistä
- Tunnepohjainen tunnistus: Työpaikoilla ja oppilaitoksissa (poikkeuksin)
- Biometrinen luokittelu: Arkaluonteisten ominaisuuksien, kuten rodun, politiikan tai uskonnon, päättelemistä
- Reaaliaikainen etäbiometrinen tunnistus: Julkisilla paikoilla lainvalvontaa varten (poikkeuksin)
Korkean riskin tekoälyjärjestelmät (artikla 6)[3]
Näihin alueisiin kuuluvat tekoälyjärjestelmät ovat tiukkojen vaatimusten alaisia:
- Biometrinen tunnistus ja luokittelu
- Kriittisen infrastruktuurin hallinta (energia, liikenne, vesi, kaasu)
- Koulutus ja ammatillinen koulutus (pääsy, arvioinnit)
- Työllisyys (rekrytointi, suorituskyvyn arviointi, irtisanominen)
- Keskeisten palveluiden saatavuus (luottopisteytys, hätäpalvelut)
- Lainvalvonta (todisteiden arviointi, riskinarviointi)
- Maahanmuutto ja rajavalvonta
- Oikeusjärjestelmä ja demokraattiset prosessit
Yleiskäyttöiset tekoälymallit (GPAI)
GPAI-mallien tarjoajien on:
- Pidettävä yllä teknistä dokumentaatiota
- Tarjottava tietoa alihankkijoiden vaatimustenmukaisuuden varmistamiseksi
- Perustettava tekijänoikeusvaatimustenmukaisuuden politiikat
- Julkaistava koulutusmateriaalin yhteenvetoja
Systemaattisen riskin GPAI (mallit, joita on koulutettu yli 10^25 FLOPilla) ovat lisävelvoitteiden alaisia, mukaan lukien vastustava testaus ja tapausilmoitukset.[4]
Korkean riskin tekoälyn vaatimukset
| Vaatimus | Kuvaus |
|---|---|
| Riskienhallinta | Perustaa, dokumentoida ja ylläpitää riskienhallintajärjestelmä |
| Datanhallinta | Varmistaa, että koulutusdata on relevanttia, edustavaa ja virheetöntä |
| Tekninen dokumentaatio | Yksityiskohtainen järjestelmädokumentaatio ennen markkinoille saattamista |
| Tietueiden pitäminen | Järjestelmän toimintojen automaattinen kirjaaminen |
| Läpinäkyvyys | Selkeät käyttäjäohjeet ja tiedot järjestelmän kyvyistä |
| Ihmisen valvonta | Mahdollistaa ihmisen valvonta ja puuttuminen |
| Tarkkuus ja kestävyys | Johdonmukainen suorituskyky suunnitelluissa käyttötapauksissa |
| Kyberturvallisuus | Suojaus luvattomalta pääsyltä ja manipuloinnilta |
Tekoälylukutaitovaatimus (artikla 4)
2. helmikuuta 2025 alkaen kaikkien tarjoajien ja käyttöönottojen on varmistettava:
"Henkilöstöllä ja muilla tekoälyjärjestelmien käytöstä ja toiminnasta vastaavilla henkilöillä on riittävä tekoälylukutaitotaso."[5]
Tämä koskee laajasti kaikkia tekoälyn käyttötapauksia, ei vain korkean riskin järjestelmiä.
Rangaistukset
- Kielletyt tekoälykäytännöt: Jopa 35 miljoonaa euroa tai 7 % maailmanlaajuisesta liikevaihdosta
- Korkean riskin rikkomukset: Jopa 15 miljoonaa euroa tai 3 % maailmanlaajuisesta liikevaihdosta
- Virheelliset tiedot: Jopa 7,5 miljoonaa euroa tai 1 % maailmanlaajuisesta liikevaihdosta[6]
PK-yritykset ja startupit voivat hyötyä suhteellisista enimmäismääristä.
Tärkeimmät kehittäjän toimet
- Luokittele tekoälyjärjestelmäsi riskitason mukaan
- Dokumentoi tekoälyn käyttötapaukset ja tarkoitukset
- Ota käyttöön tekoälylukutaito-ohjelmat kaikelle henkilöstölle
- Arvioi korkean riskin velvoitteet, jos sovellettavissa
- Seuraa GPAI-vaatimuksia perustamismallien käytössä
- Valmistaudu vaatimustenmukaisuuden arviointeihin (korkean riskin järjestelmät)