Zákon o AI
Zákon o umelej inteligencii
Prehľad
Zákon EÚ o AI je prvým komplexným horizontálnym nariadením na svete o umelej inteligencii. Schválený v marci 2024 a nadobúdajúci účinnosť 1. augusta 2024, ustanovuje rámec založený na riziku, ktorý kategorizuje systémy AI podľa ich potenciálnej škodlivosti a podľa toho ukladá požiadavky.[1]
Cieľom nariadenia je zabezpečiť, aby systémy AI uvádzané na trh EÚ boli bezpečné, rešpektovali základné práva a podporovali inovácie prostredníctvom právnej istoty.
Dátumy fázovaného uplatňovania
| Dátum | Míľnik |
|---|---|
| 1. august 2024 | Zákon o AI nadobúda účinnosť |
| 2. február 2025 | Zákaz zakázaných praktík AI; platia povinnosti v oblasti AI gramotnosti |
| 2. august 2025 | Povinnosti modelov GPAI; platia pravidlá riadenia |
| 2. august 2026 | Plné uplatnenie pre systémy AI s vysokým rizikom |
| 2. august 2027 | Požiadavky na AI s vysokým rizikom (Príloha I) pre určitú legislatívu o bezpečnosti produktov |
Kategórie rizika
Zakázané praktiky AI (článok 5)[2]
Nasledujúce praktiky AI sú zakázané od 2. februára 2025:
- Subliminálna manipulácia: AI využívajúca zraniteľnosti mimo vedomého vnímania
- Využívanie zraniteľností: Zameranie na vek, zdravotné postihnutie alebo socioekonomické okolnosti
- Sociálne skórovanie: Klasifikácia ľudí na základe správania vedúceho k znevýhodňujúcemu zaobchádzaniu
- Prediktívne policajné praktiky: Predpovedanie trestnej činnosti jednotlivcov výlučne na základe profilovania
- Necielen cielené zhromažďovanie tvárí: Vytváranie databáz rozpoznávania tvárí z verejných zdrojov
- Rozpoznávanie emócií: Na pracoviskách a vo vzdelávacích inštitúciách (s výnimkami)
- Biometrická kategorizácia: Odvodenie citlivých atribútov ako rasa, politika alebo náboženstvo
- Vzdialená biometrická identifikácia v reálnom čase: Na verejných priestranstvách pre orgány činné v trestnom konaní (s výnimkami)
Systémy AI s vysokým rizikom (článok 6)[3]
Systémy AI v týchto oblastiach podliehajú prísnym požiadavkám:
- Biometrická identifikácia a kategorizácia
- Správa kritickej infraštruktúry (energia, doprava, voda, plyn)
- Vzdelávanie a odborná príprava (prijímanie, hodnotenia)
- Zamestnanosť (nábor, hodnotenie výkonu, ukončenie pracovného pomeru)
- Prístup k základným službám (kreditné skóre, tiesňové služby)
- Orgány činné v trestnom konaní (hodnotenie dôkazov, hodnotenie rizika)
- Migrácia a kontrola hraníc
- Súdne a demokratické procesy
Modely všeobecného účelu AI (GPAI)
Poskytovatelia modelov GPAI musia:
- Udržiavať technickú dokumentáciu
- Poskytovať informácie pre súlad poskytovateľov nižšej úrovne
- Zaviesť politiky dodržiavania autorských práv
- Zverejňovať súhrny obsahu tréningu
GPAI s systematickým rizikom (modely trénované s >10^25 FLOPs) majú ďalšie povinnosti vrátane adversariálneho testovania a hlásenia incidentov.[4]
Požiadavky na AI s vysokým rizikom
| Požiadavka | Popis |
|---|---|
| Riadenie rizík | Zaviesť, zdokumentovať a udržiavať systém riadenia rizík |
| Správa údajov | Zabezpečiť, aby tréningové údaje boli relevantné, reprezentatívne a bez chýb |
| Technická dokumentácia | Podrobná dokumentácia systému pred uvedením na trh |
| Záznamy | Automatické zaznamenávanie prevádzky systému |
| Transparentnosť | Jasné pokyny pre používateľov a informácie o schopnostiach |
| Ľudský dohľad | Umožniť ľudský dohľad a zásah |
| Presnosť a robustnosť | Konzistentný výkon v rámci zamýšľaných prípadov použitia |
| Kybernetická bezpečnosť | Ochrana pred neoprávneným prístupom a manipuláciou |
Povinnosť AI gramotnosti (článok 4)
Od 2. februára 2025 musia všetci poskytovatelia a prevádzkovatelia zabezpečiť:
„Personál a iné osoby zaoberajúce sa prevádzkou a používaním systémov AI v ich mene majú dostatočnú úroveň AI gramotnosti.“[5]
Toto sa vzťahuje široko na všetky prípady použitia AI, nielen na systémy s vysokým rizikom.
Pokuty
- Zakázané praktiky AI: až 35 miliónov € alebo 7 % celosvetového obratu
- Porušenia vysokého rizika: až 15 miliónov € alebo 3 % celosvetového obratu
- Nesprávne informácie: až 7,5 milióna € alebo 1 % celosvetového obratu[6]
Malé a stredné podniky a startupy môžu mať prospech z proporcionálnych stropov.
Kľúčové kroky pre vývojárov
- Klasifikujte svoje systémy AI podľa úrovne rizika
- Zdokumentujte prípady použitia AI a zamýšľané účely
- Zavádzajte programy AI gramotnosti pre všetkých zamestnancov
- Vyhodnoťte povinnosti pre systémy s vysokým rizikom, ak sú relevantné
- Sledujte požiadavky GPAI pre používanie základných modelov
- Pripravte sa na posudzovanie zhody (systémy s vysokým rizikom)