Zakon o umjetnoj inteligenciji

Zakon o umjetnoj inteligenciji

Pregled

EU Zakon o umjetnoj inteligenciji je prvi sveobuhvatni horizontalni propis na svijetu o umjetnoj inteligenciji. Usvojen u ožujku 2024. i stupajući na snagu 1. kolovoza 2024., uspostavlja okvir temeljen na riziku koji kategorizira AI sustave prema njihovoj potencijalnoj šteti i nameće zahtjeve u skladu s tim.[1]

Uredba ima za cilj osigurati da AI sustavi stavljeni na tržište EU budu sigurni, poštuju temeljna prava i potiču inovacije kroz pravnu sigurnost.

Datumi fazne primjene

DatumPrekretnica
1. kolovoza 2024.Stupanje na snagu Zakona o umjetnoj inteligenciji
2. veljače 2025.Zabranjene prakse AI zabranjene; primjenjuju se obveze pismenosti o AI
2. kolovoza 2025.Obveze modela GPAI; primjenjuju se pravila upravljanja
2. kolovoza 2026.Potpuna primjena za AI sustave visokog rizika
2. kolovoza 2027.Zahtjevi za AI visokog rizika (Dodatak I) za određene propise o sigurnosti proizvoda

Kategorije rizika

Zabranjene AI prakse (Članak 5)[2]

Sljedeće AI prakse su zabranjene od 2. veljače 2025.:

  • Subliminalna manipulacija: AI koja iskorištava ranjivosti izvan svjesne percepcije
  • Iskorištavanje ranjivosti: Ciljanje dobi, invaliditeta ili socio-ekonomskih okolnosti
  • Društveno bodovanje: Klasificiranje ljudi na temelju ponašanja koje vodi do štetnog tretmana
  • Prediktivno policijsko djelovanje: Predviđanje kaznenih djela pojedinaca isključivo na temelju profiliranja
  • Neciljano prikupljanje lica: Izrada baza podataka za prepoznavanje lica iz javnih izvora
  • Prepoznavanje emocija: Na radnim mjestima i u obrazovnim ustanovama (s iznimkama)
  • Biometrijska kategorizacija: Izvođenje osjetljivih atributa poput rase, politike ili religije
  • Identifikacija u stvarnom vremenu na daljinu: U javnim prostorima za provedbu zakona (s iznimkama)

AI sustavi visokog rizika (Članak 6)[3]

AI sustavi u ovim područjima podliježu strogim zahtjevima:

  • Biometrijska identifikacija i kategorizacija
  • Upravljanje kritičnom infrastrukturom (energija, promet, voda, plin)
  • Obrazovanje i stručna obuka (prijem, ocjenjivanje)
  • Zapošljavanje (zapošljavanje, procjena učinka, otkaz)
  • Pristup osnovnim uslugama (kreditno bodovanje, hitne službe)
  • Provedba zakona (procjena dokaza, procjena rizika)
  • Migracije i kontrola granica
  • Pravosuđe i demokratski procesi

Modeli opće namjene AI (GPAI)

Pružatelji GPAI modela moraju:

  • Održavati tehničku dokumentaciju
  • Osigurati informacije za usklađenost pružatelja niže razine
  • Uspostaviti politike usklađenosti s autorskim pravima
  • Objavljivati sažetke sadržaja za obuku

GPAI modeli sustavnog rizika (modeli trenirani s >10^25 FLOP-ova) imaju dodatne obveze uključujući testiranje protiv napada i izvještavanje o incidentima.[4]

Zahtjevi za AI visokog rizika

ZahtjevOpis
Upravljanje rizicimaUspostaviti, dokumentirati i održavati sustav upravljanja rizicima
Upravljanje podacimaOsigurati da su podaci za obuku relevantni, reprezentativni i bez pogrešaka
Tehnička dokumentacijaDetaljna dokumentacija sustava prije stavljanja na tržište
Vođenje evidencijeAutomatsko bilježenje rada sustava
TransparentnostJasne upute za korisnike i informacije o mogućnostima
Ljudski nadzorOmogućiti ljudski nadzor i intervenciju
Točnost i robusnostDosljedne performanse u predviđenim slučajevima uporabe
Cyber sigurnostZaštita od neovlaštenog pristupa i manipulacije

Obveza pismenosti o AI (Članak 4)

Od 2. veljače 2025. svi pružatelji i korisnici moraju osigurati:

"Osoblje i druge osobe koje upravljaju i koriste AI sustave u njihovo ime imaju dovoljan stupanj pismenosti o AI."[5]

Ovo se široko primjenjuje na sve slučajeve uporabe AI, ne samo na sustave visokog rizika.

Kazne

  • Zabranjene AI prakse: Do 35 milijuna € ili 7% globalnog prometa
  • Prekršaji visokog rizika: Do 15 milijuna € ili 3% globalnog prometa
  • Netočne informacije: Do 7,5 milijuna € ili 1% globalnog prometa[6]

MSP-ovi i startupi mogu imati koristi od proporcionalnih ograničenja.

Ključne radnje za programere

  1. Klasificirajte svoje AI sustave prema razini rizika
  2. Dokumentirajte slučajeve uporabe AI i namjeravane svrhe
  3. Provedite programe pismenosti o AI za sve zaposlenike
  4. Procijenite obveze za AI visokog rizika ako je primjenjivo
  5. Pratite zahtjeve za GPAI za korištenje temeljnih modela
  6. Pripremite se za procjene usklađenosti (sustavi visokog rizika)

Izvori i reference

[1]
Uredba (EU) 2024/1689 kojom se utvrđuju usklađena pravila o umjetnoj inteligenciji. EUR-Lex: Službeni tekst Zakona o umjetnoj inteligenciji
[2]
Članak 5 Zakona o umjetnoj inteligenciji: Zabranjene AI prakse. AI Act Explorer: Članak 5
[3]
Članak 6 Zakona o umjetnoj inteligenciji: Pravila klasifikacije za AI sustave visokog rizika. AI Act Explorer: Članak 6
[4]
Obveze modela opće namjene AI. Europska komisija: Obveze GPAI
[5]
Članak 4 Zakona o umjetnoj inteligenciji: Pismenost o AI. AI Act Explorer: Članak 4
[6]
Članak 99 Zakona o umjetnoj inteligenciji: Kazne. AI Act Explorer: Članak 99