Zákon o AI

Zákon o umelej inteligencii

Prehľad

Zákon EÚ o AI je prvým komplexným horizontálnym nariadením na svete o umelej inteligencii. Schválený v marci 2024 a nadobúdajúci účinnosť 1. augusta 2024, ustanovuje rámec založený na riziku, ktorý kategorizuje systémy AI podľa ich potenciálnej škodlivosti a podľa toho ukladá požiadavky.[1]

Cieľom nariadenia je zabezpečiť, aby systémy AI uvádzané na trh EÚ boli bezpečné, rešpektovali základné práva a podporovali inovácie prostredníctvom právnej istoty.

Dátumy fázovaného uplatňovania

DátumMíľnik
1. august 2024Zákon o AI nadobúda účinnosť
2. február 2025Zákaz zakázaných praktík AI; platia povinnosti v oblasti AI gramotnosti
2. august 2025Povinnosti modelov GPAI; platia pravidlá riadenia
2. august 2026Plné uplatnenie pre systémy AI s vysokým rizikom
2. august 2027Požiadavky na AI s vysokým rizikom (Príloha I) pre určitú legislatívu o bezpečnosti produktov

Kategórie rizika

Zakázané praktiky AI (článok 5)[2]

Nasledujúce praktiky AI sú zakázané od 2. februára 2025:

  • Subliminálna manipulácia: AI využívajúca zraniteľnosti mimo vedomého vnímania
  • Využívanie zraniteľností: Zameranie na vek, zdravotné postihnutie alebo socioekonomické okolnosti
  • Sociálne skórovanie: Klasifikácia ľudí na základe správania vedúceho k znevýhodňujúcemu zaobchádzaniu
  • Prediktívne policajné praktiky: Predpovedanie trestnej činnosti jednotlivcov výlučne na základe profilovania
  • Necielen cielené zhromažďovanie tvárí: Vytváranie databáz rozpoznávania tvárí z verejných zdrojov
  • Rozpoznávanie emócií: Na pracoviskách a vo vzdelávacích inštitúciách (s výnimkami)
  • Biometrická kategorizácia: Odvodenie citlivých atribútov ako rasa, politika alebo náboženstvo
  • Vzdialená biometrická identifikácia v reálnom čase: Na verejných priestranstvách pre orgány činné v trestnom konaní (s výnimkami)

Systémy AI s vysokým rizikom (článok 6)[3]

Systémy AI v týchto oblastiach podliehajú prísnym požiadavkám:

  • Biometrická identifikácia a kategorizácia
  • Správa kritickej infraštruktúry (energia, doprava, voda, plyn)
  • Vzdelávanie a odborná príprava (prijímanie, hodnotenia)
  • Zamestnanosť (nábor, hodnotenie výkonu, ukončenie pracovného pomeru)
  • Prístup k základným službám (kreditné skóre, tiesňové služby)
  • Orgány činné v trestnom konaní (hodnotenie dôkazov, hodnotenie rizika)
  • Migrácia a kontrola hraníc
  • Súdne a demokratické procesy

Modely všeobecného účelu AI (GPAI)

Poskytovatelia modelov GPAI musia:

  • Udržiavať technickú dokumentáciu
  • Poskytovať informácie pre súlad poskytovateľov nižšej úrovne
  • Zaviesť politiky dodržiavania autorských práv
  • Zverejňovať súhrny obsahu tréningu

GPAI s systematickým rizikom (modely trénované s >10^25 FLOPs) majú ďalšie povinnosti vrátane adversariálneho testovania a hlásenia incidentov.[4]

Požiadavky na AI s vysokým rizikom

PožiadavkaPopis
Riadenie rizíkZaviesť, zdokumentovať a udržiavať systém riadenia rizík
Správa údajovZabezpečiť, aby tréningové údaje boli relevantné, reprezentatívne a bez chýb
Technická dokumentáciaPodrobná dokumentácia systému pred uvedením na trh
ZáznamyAutomatické zaznamenávanie prevádzky systému
TransparentnosťJasné pokyny pre používateľov a informácie o schopnostiach
Ľudský dohľadUmožniť ľudský dohľad a zásah
Presnosť a robustnosťKonzistentný výkon v rámci zamýšľaných prípadov použitia
Kybernetická bezpečnosťOchrana pred neoprávneným prístupom a manipuláciou

Povinnosť AI gramotnosti (článok 4)

Od 2. februára 2025 musia všetci poskytovatelia a prevádzkovatelia zabezpečiť:

„Personál a iné osoby zaoberajúce sa prevádzkou a používaním systémov AI v ich mene majú dostatočnú úroveň AI gramotnosti.“[5]

Toto sa vzťahuje široko na všetky prípady použitia AI, nielen na systémy s vysokým rizikom.

Pokuty

  • Zakázané praktiky AI: až 35 miliónov € alebo 7 % celosvetového obratu
  • Porušenia vysokého rizika: až 15 miliónov € alebo 3 % celosvetového obratu
  • Nesprávne informácie: až 7,5 milióna € alebo 1 % celosvetového obratu[6]

Malé a stredné podniky a startupy môžu mať prospech z proporcionálnych stropov.

Kľúčové kroky pre vývojárov

  1. Klasifikujte svoje systémy AI podľa úrovne rizika
  2. Zdokumentujte prípady použitia AI a zamýšľané účely
  3. Zavádzajte programy AI gramotnosti pre všetkých zamestnancov
  4. Vyhodnoťte povinnosti pre systémy s vysokým rizikom, ak sú relevantné
  5. Sledujte požiadavky GPAI pre používanie základných modelov
  6. Pripravte sa na posudzovanie zhody (systémy s vysokým rizikom)

Zdroje a odkazy

[1]
Nariadenie (EÚ) 2024/1689 ustanovujúce harmonizované pravidlá o umelej inteligencii. EUR-Lex: Oficiálny text zákona o AI
[2]
Zákon o AI článok 5: Zakázané praktiky AI. AI Act Explorer: Článok 5
[3]
Zákon o AI článok 6: Pravidlá klasifikácie pre systémy AI s vysokým rizikom. AI Act Explorer: Článok 6
[4]
Povinnosti modelov všeobecného účelu AI. Európska komisia: Povinnosti GPAI
[5]
Zákon o AI článok 4: AI gramotnosť. AI Act Explorer: Článok 4
[6]
Zákon o AI článok 99: Sankcie. AI Act Explorer: Článok 99