Zakon o umetni inteligenci
Zakon o umetni inteligenci
Pregled
EU Zakon o umetni inteligenci je prvi celovit horizontalni predpis na svetu o umetni inteligenci. Sprejet marca 2024 in začel veljati 1. avgusta 2024, vzpostavlja okvir na podlagi tveganja, ki kategorizira sisteme umetne inteligence glede na njihovo potencialno škodo in temu primerno nalaga zahteve.[1]
Uredba si prizadeva zagotoviti, da so sistemi umetne inteligence, ki se plasirajo na trg EU, varni, spoštujejo temeljne pravice in spodbujajo inovacije z zagotavljanjem pravne gotovosti.
Fazični datumi uporabe
| Datum | Mejniki |
|---|---|
| 1. avgust 2024 | Začetek veljavnosti Zakona o umetni inteligenci |
| 2. februar 2025 | Prepovedane prakse umetne inteligence prepovedane; veljajo obveznosti glede pismenosti o UI |
| 2. avgust 2025 | Obveznosti modelov GPAI; veljajo pravila upravljanja |
| 2. avgust 2026 | Popolna uporaba za sisteme umetne inteligence z visokim tveganjem |
| 2. avgust 2027 | Zahteve za umetno inteligenco z visokim tveganjem (Priloga I) za določeno zakonodajo o varnosti izdelkov |
Kategorije tveganj
Prepovedane prakse umetne inteligence (člen 5)[2]
Naslednje prakse umetne inteligence so prepovedane od 2. februarja 2025:
- Podzavestna manipulacija: UI, ki izkorišča ranljivosti izven zavestnega zaznavanja
- Izkoriščanje ranljivosti: Ciljanje na starost, invalidnost ali socialno-ekonomske okoliščine
- Družbeno ocenjevanje: Razvrščanje ljudi na podlagi vedenja, ki vodi do škodljivega obravnavanja
- Napovedno policijsko delo: Napovedovanje kaznivih dejanj posameznikov zgolj na podlagi profiliranja
- Neusmerjeno zbiranje obrazovnih podatkov: Ustvarjanje baz podatkov za prepoznavanje obrazov iz javnih virov
- Prepoznavanje čustev: Na delovnih mestih in v izobraževalnih ustanovah (z izjemo)
- Biometrična kategorizacija: Določanje občutljivih atributov, kot so rasa, politika ali vera
- Biometrična identifikacija v realnem času na daljavo: V javnih prostorih za organe pregona (z izjemo)
Sistemi umetne inteligence z visokim tveganjem (člen 6)[3]
Sistemi umetne inteligence na teh področjih so predmet strogih zahtev:
- Biometrična identifikacija in kategorizacija
- Upravljanje kritične infrastrukture (energija, promet, voda, plin)
- Izobraževanje in poklicno usposabljanje (vpis, ocenjevanje)
- Zaposlovanje (zaposlovanje, ocenjevanje uspešnosti, odpoved)
- Dostop do bistvenih storitev (ocenjevanje kreditne sposobnosti, nujne službe)
- Organi pregona (ocenjevanje dokazov, ocena tveganja)
- Migracije in nadzor meja
- Pravosodje in demokratični procesi
Modeli umetne inteligence splošnega namena (GPAI)
Ponudniki modelov GPAI morajo:
- Vzdrževati tehnično dokumentacijo
- Posredovati informacije za skladnost ponudnikov v nadaljnjih fazah
- Vzpostaviti politike skladnosti z avtorskimi pravicami
- Objavljati povzetke vsebin za usposabljanje
GPAI z sistemskim tveganjem (modeli, usposobljeni z več kot 10^25 FLOP-ov) imajo dodatne obveznosti, vključno z nasprotnim testiranjem in poročanjem o incidentih.[4]
Zahteve za umetno inteligenco z visokim tveganjem
| Zahteva | Opis |
|---|---|
| Upravljanje tveganj | Vzpostavitev, dokumentiranje in vzdrževanje sistema za upravljanje tveganj |
| Upravljanje podatkov | Zagotavljanje, da so podatki za usposabljanje relevantni, reprezentativni in brez napak |
| Tehnična dokumentacija | Podrobna dokumentacija sistema pred plasiranjem na trg |
| Vodenje evidenc | Samodejno beleženje delovanja sistema |
| Preglednost | Jasna navodila za uporabnike in informacije o zmogljivostih |
| Človeški nadzor | Omogočanje človeškega nadzora in posega |
| Natančnost in robustnost | Dosledna zmogljivost v predvidenih primerih uporabe |
| Kibernetska varnost | Zaščita pred nepooblaščenim dostopom in manipulacijo |
Obveznost pismenosti o umetni inteligenci (člen 4)
Od 2. februarja 2025 morajo vsi ponudniki in uporabniki zagotoviti:
"Osebje in druge osebe, ki upravljajo in uporabljajo sisteme umetne inteligence v njihovem imenu, imajo zadostno raven pismenosti o umetni inteligenci."[5]
To velja široko za vse primere uporabe umetne inteligence, ne le za sisteme z visokim tveganjem.
Kazni
- Prepovedane prakse umetne inteligence: do 35 milijonov € ali 7 % globalnega prometa
- Kršitve pri sistemih z visokim tveganjem: do 15 milijonov € ali 3 % globalnega prometa
- Napačne informacije: do 7,5 milijona € ali 1 % globalnega prometa[6]
MSP in zagonska podjetja lahko koristijo sorazmerne omejitve.
Ključni ukrepi za razvijalce
- Kategorizirajte svoje sisteme umetne inteligence glede na raven tveganja
- Dokumentirajte primere uporabe umetne inteligence in namene
- Izvedite programe pismenosti o umetni inteligenci za vse zaposlene
- Ocenite obveznosti za sisteme z visokim tveganjem, če je primerno
- Spremljajte zahteve za modele GPAI pri uporabi osnovnih modelov
- Pripravite se na ocene skladnosti (sistemi z visokim tveganjem)