Zakon o umjetnoj inteligenciji
Zakon o umjetnoj inteligenciji
Pregled
EU Zakon o umjetnoj inteligenciji je prvi sveobuhvatni horizontalni propis na svijetu o umjetnoj inteligenciji. Usvojen u ožujku 2024. i stupajući na snagu 1. kolovoza 2024., uspostavlja okvir temeljen na riziku koji kategorizira AI sustave prema njihovoj potencijalnoj šteti i nameće zahtjeve u skladu s tim.[1]
Uredba ima za cilj osigurati da AI sustavi stavljeni na tržište EU budu sigurni, poštuju temeljna prava i potiču inovacije kroz pravnu sigurnost.
Datumi fazne primjene
| Datum | Prekretnica |
|---|---|
| 1. kolovoza 2024. | Stupanje na snagu Zakona o umjetnoj inteligenciji |
| 2. veljače 2025. | Zabranjene prakse AI zabranjene; primjenjuju se obveze pismenosti o AI |
| 2. kolovoza 2025. | Obveze modela GPAI; primjenjuju se pravila upravljanja |
| 2. kolovoza 2026. | Potpuna primjena za AI sustave visokog rizika |
| 2. kolovoza 2027. | Zahtjevi za AI visokog rizika (Dodatak I) za određene propise o sigurnosti proizvoda |
Kategorije rizika
Zabranjene AI prakse (Članak 5)[2]
Sljedeće AI prakse su zabranjene od 2. veljače 2025.:
- Subliminalna manipulacija: AI koja iskorištava ranjivosti izvan svjesne percepcije
- Iskorištavanje ranjivosti: Ciljanje dobi, invaliditeta ili socio-ekonomskih okolnosti
- Društveno bodovanje: Klasificiranje ljudi na temelju ponašanja koje vodi do štetnog tretmana
- Prediktivno policijsko djelovanje: Predviđanje kaznenih djela pojedinaca isključivo na temelju profiliranja
- Neciljano prikupljanje lica: Izrada baza podataka za prepoznavanje lica iz javnih izvora
- Prepoznavanje emocija: Na radnim mjestima i u obrazovnim ustanovama (s iznimkama)
- Biometrijska kategorizacija: Izvođenje osjetljivih atributa poput rase, politike ili religije
- Identifikacija u stvarnom vremenu na daljinu: U javnim prostorima za provedbu zakona (s iznimkama)
AI sustavi visokog rizika (Članak 6)[3]
AI sustavi u ovim područjima podliježu strogim zahtjevima:
- Biometrijska identifikacija i kategorizacija
- Upravljanje kritičnom infrastrukturom (energija, promet, voda, plin)
- Obrazovanje i stručna obuka (prijem, ocjenjivanje)
- Zapošljavanje (zapošljavanje, procjena učinka, otkaz)
- Pristup osnovnim uslugama (kreditno bodovanje, hitne službe)
- Provedba zakona (procjena dokaza, procjena rizika)
- Migracije i kontrola granica
- Pravosuđe i demokratski procesi
Modeli opće namjene AI (GPAI)
Pružatelji GPAI modela moraju:
- Održavati tehničku dokumentaciju
- Osigurati informacije za usklađenost pružatelja niže razine
- Uspostaviti politike usklađenosti s autorskim pravima
- Objavljivati sažetke sadržaja za obuku
GPAI modeli sustavnog rizika (modeli trenirani s >10^25 FLOP-ova) imaju dodatne obveze uključujući testiranje protiv napada i izvještavanje o incidentima.[4]
Zahtjevi za AI visokog rizika
| Zahtjev | Opis |
|---|---|
| Upravljanje rizicima | Uspostaviti, dokumentirati i održavati sustav upravljanja rizicima |
| Upravljanje podacima | Osigurati da su podaci za obuku relevantni, reprezentativni i bez pogrešaka |
| Tehnička dokumentacija | Detaljna dokumentacija sustava prije stavljanja na tržište |
| Vođenje evidencije | Automatsko bilježenje rada sustava |
| Transparentnost | Jasne upute za korisnike i informacije o mogućnostima |
| Ljudski nadzor | Omogućiti ljudski nadzor i intervenciju |
| Točnost i robusnost | Dosljedne performanse u predviđenim slučajevima uporabe |
| Cyber sigurnost | Zaštita od neovlaštenog pristupa i manipulacije |
Obveza pismenosti o AI (Članak 4)
Od 2. veljače 2025. svi pružatelji i korisnici moraju osigurati:
"Osoblje i druge osobe koje upravljaju i koriste AI sustave u njihovo ime imaju dovoljan stupanj pismenosti o AI."[5]
Ovo se široko primjenjuje na sve slučajeve uporabe AI, ne samo na sustave visokog rizika.
Kazne
- Zabranjene AI prakse: Do 35 milijuna € ili 7% globalnog prometa
- Prekršaji visokog rizika: Do 15 milijuna € ili 3% globalnog prometa
- Netočne informacije: Do 7,5 milijuna € ili 1% globalnog prometa[6]
MSP-ovi i startupi mogu imati koristi od proporcionalnih ograničenja.
Ključne radnje za programere
- Klasificirajte svoje AI sustave prema razini rizika
- Dokumentirajte slučajeve uporabe AI i namjeravane svrhe
- Provedite programe pismenosti o AI za sve zaposlenike
- Procijenite obveze za AI visokog rizika ako je primjenjivo
- Pratite zahtjeve za GPAI za korištenje temeljnih modela
- Pripremite se za procjene usklađenosti (sustavi visokog rizika)