Zakon o umetni inteligenci

Zakon o umetni inteligenci

Pregled

EU Zakon o umetni inteligenci je prvi celovit horizontalni predpis na svetu o umetni inteligenci. Sprejet marca 2024 in začel veljati 1. avgusta 2024, vzpostavlja okvir na podlagi tveganja, ki kategorizira sisteme umetne inteligence glede na njihovo potencialno škodo in temu primerno nalaga zahteve.[1]

Uredba si prizadeva zagotoviti, da so sistemi umetne inteligence, ki se plasirajo na trg EU, varni, spoštujejo temeljne pravice in spodbujajo inovacije z zagotavljanjem pravne gotovosti.

Fazični datumi uporabe

DatumMejniki
1. avgust 2024Začetek veljavnosti Zakona o umetni inteligenci
2. februar 2025Prepovedane prakse umetne inteligence prepovedane; veljajo obveznosti glede pismenosti o UI
2. avgust 2025Obveznosti modelov GPAI; veljajo pravila upravljanja
2. avgust 2026Popolna uporaba za sisteme umetne inteligence z visokim tveganjem
2. avgust 2027Zahteve za umetno inteligenco z visokim tveganjem (Priloga I) za določeno zakonodajo o varnosti izdelkov

Kategorije tveganj

Prepovedane prakse umetne inteligence (člen 5)[2]

Naslednje prakse umetne inteligence so prepovedane od 2. februarja 2025:

  • Podzavestna manipulacija: UI, ki izkorišča ranljivosti izven zavestnega zaznavanja
  • Izkoriščanje ranljivosti: Ciljanje na starost, invalidnost ali socialno-ekonomske okoliščine
  • Družbeno ocenjevanje: Razvrščanje ljudi na podlagi vedenja, ki vodi do škodljivega obravnavanja
  • Napovedno policijsko delo: Napovedovanje kaznivih dejanj posameznikov zgolj na podlagi profiliranja
  • Neusmerjeno zbiranje obrazovnih podatkov: Ustvarjanje baz podatkov za prepoznavanje obrazov iz javnih virov
  • Prepoznavanje čustev: Na delovnih mestih in v izobraževalnih ustanovah (z izjemo)
  • Biometrična kategorizacija: Določanje občutljivih atributov, kot so rasa, politika ali vera
  • Biometrična identifikacija v realnem času na daljavo: V javnih prostorih za organe pregona (z izjemo)

Sistemi umetne inteligence z visokim tveganjem (člen 6)[3]

Sistemi umetne inteligence na teh področjih so predmet strogih zahtev:

  • Biometrična identifikacija in kategorizacija
  • Upravljanje kritične infrastrukture (energija, promet, voda, plin)
  • Izobraževanje in poklicno usposabljanje (vpis, ocenjevanje)
  • Zaposlovanje (zaposlovanje, ocenjevanje uspešnosti, odpoved)
  • Dostop do bistvenih storitev (ocenjevanje kreditne sposobnosti, nujne službe)
  • Organi pregona (ocenjevanje dokazov, ocena tveganja)
  • Migracije in nadzor meja
  • Pravosodje in demokratični procesi

Modeli umetne inteligence splošnega namena (GPAI)

Ponudniki modelov GPAI morajo:

  • Vzdrževati tehnično dokumentacijo
  • Posredovati informacije za skladnost ponudnikov v nadaljnjih fazah
  • Vzpostaviti politike skladnosti z avtorskimi pravicami
  • Objavljati povzetke vsebin za usposabljanje

GPAI z sistemskim tveganjem (modeli, usposobljeni z več kot 10^25 FLOP-ov) imajo dodatne obveznosti, vključno z nasprotnim testiranjem in poročanjem o incidentih.[4]

Zahteve za umetno inteligenco z visokim tveganjem

ZahtevaOpis
Upravljanje tveganjVzpostavitev, dokumentiranje in vzdrževanje sistema za upravljanje tveganj
Upravljanje podatkovZagotavljanje, da so podatki za usposabljanje relevantni, reprezentativni in brez napak
Tehnična dokumentacijaPodrobna dokumentacija sistema pred plasiranjem na trg
Vodenje evidencSamodejno beleženje delovanja sistema
PreglednostJasna navodila za uporabnike in informacije o zmogljivostih
Človeški nadzorOmogočanje človeškega nadzora in posega
Natančnost in robustnostDosledna zmogljivost v predvidenih primerih uporabe
Kibernetska varnostZaščita pred nepooblaščenim dostopom in manipulacijo

Obveznost pismenosti o umetni inteligenci (člen 4)

Od 2. februarja 2025 morajo vsi ponudniki in uporabniki zagotoviti:

"Osebje in druge osebe, ki upravljajo in uporabljajo sisteme umetne inteligence v njihovem imenu, imajo zadostno raven pismenosti o umetni inteligenci."[5]

To velja široko za vse primere uporabe umetne inteligence, ne le za sisteme z visokim tveganjem.

Kazni

  • Prepovedane prakse umetne inteligence: do 35 milijonov € ali 7 % globalnega prometa
  • Kršitve pri sistemih z visokim tveganjem: do 15 milijonov € ali 3 % globalnega prometa
  • Napačne informacije: do 7,5 milijona € ali 1 % globalnega prometa[6]

MSP in zagonska podjetja lahko koristijo sorazmerne omejitve.

Ključni ukrepi za razvijalce

  1. Kategorizirajte svoje sisteme umetne inteligence glede na raven tveganja
  2. Dokumentirajte primere uporabe umetne inteligence in namene
  3. Izvedite programe pismenosti o umetni inteligenci za vse zaposlene
  4. Ocenite obveznosti za sisteme z visokim tveganjem, če je primerno
  5. Spremljajte zahteve za modele GPAI pri uporabi osnovnih modelov
  6. Pripravite se na ocene skladnosti (sistemi z visokim tveganjem)

Viri in reference

[1]
Uredba (EU) 2024/1689, ki določa usklajena pravila o umetni inteligenci. EUR-Lex: Uradno besedilo Zakona o umetni inteligenci
[2]
Člen 5 Zakona o umetni inteligenci: Prepovedane prakse umetne inteligence. AI Act Explorer: Člen 5
[3]
Člen 6 Zakona o umetni inteligenci: Pravila klasifikacije za sisteme umetne inteligence z visokim tveganjem. AI Act Explorer: Člen 6
[4]
Obveznosti modelov umetne inteligence splošnega namena. Evropska komisija: Obveznosti GPAI
[5]
Člen 4 Zakona o umetni inteligenci: Pismenost o umetni inteligenci. AI Act Explorer: Člen 4
[6]
Člen 99 Zakona o umetni inteligenci: Kazni. AI Act Explorer: Člen 99