Zákon o umělé inteligenci

Zákon o umělé inteligenci

Přehled

EU AI Act je první komplexní horizontální regulace na světě týkající se umělé inteligence. Přijatý v březnu 2024 a vstupující v platnost 1. srpna 2024, stanovuje rámec založený na riziku, který kategorizuje systémy AI podle jejich potenciální škodlivosti a podle toho ukládá požadavky.[1]

Regulace si klade za cíl zajistit, aby systémy AI uváděné na trh EU byly bezpečné, respektovaly základní práva a podporovaly inovace prostřednictvím právní jistoty.

Fázové termíny uplatnění

DatumMilník
1. srpna 2024Vstup AI Act v platnost
2. února 2025Zákaz zakázaných praktik AI; platí povinnosti v oblasti AI gramotnosti
2. srpna 2025Povinnosti modelů GPAI; platí pravidla správy
2. srpna 2026Plné uplatnění pro systémy AI s vysokým rizikem
2. srpna 2027Požadavky na AI s vysokým rizikem (příloha I) pro určitou legislativu o bezpečnosti produktů

Kategorie rizik

Zakázané praktiky AI (článek 5)[2]

Následující praktiky AI jsou zakázány od 2. února 2025:

  • Subliminální manipulace: AI využívající zranitelnosti mimo vědomé vnímání
  • Využívání zranitelností: Zaměřování na věk, zdravotní postižení nebo socioekonomické okolnosti
  • Sociální skórování: Klasifikace lidí na základě chování vedoucího k nepříznivému zacházení
  • Prediktivní policie: Předpovídání trestné činnosti jednotlivců pouze na základě profilování
  • Necílené sbírání obličejových dat: Vytváření databází rozpoznávání obličejů z veřejných zdrojů
  • Rozpoznávání emocí: Na pracovištích a ve vzdělávacích institucích (s výjimkami)
  • Biometrická kategorizace: Zjišťování citlivých atributů jako rasa, politika nebo náboženství
  • Biometrická identifikace na dálku v reálném čase: Ve veřejných prostorách pro orgány činné v trestním řízení (s výjimkami)

Systémy AI s vysokým rizikem (článek 6)[3]

Systémy AI v těchto oblastech podléhají přísným požadavkům:

  • Biometrická identifikace a kategorizace
  • Správa kritické infrastruktury (energie, doprava, voda, plyn)
  • Vzdělávání a odborná příprava (přijímání, hodnocení)
  • Zaměstnání (nábor, hodnocení výkonu, ukončení pracovního poměru)
  • Přístup k základním službám (kreditní skórování, záchranné služby)
  • Orgány činné v trestním řízení (hodnocení důkazů, posuzování rizik)
  • Migrace a kontrola hranic
  • Spravedlnost a demokratické procesy

Modely obecného účelu AI (GPAI)

Poskytovatelé modelů GPAI musí:

  • Udržovat technickou dokumentaci
  • Poskytovat informace pro dodržování předpisů u následných poskytovatelů
  • Zavést politiky dodržování autorských práv
  • Publikovat souhrny obsahu tréninku

GPAI s systematickým rizikem (modely trénované s >10^25 FLOPs) mají další povinnosti včetně testování proti útokům a hlášení incidentů.[4]

Požadavky na AI s vysokým rizikem

PožadavekPopis
Řízení rizikZavedení, dokumentace a udržování systému řízení rizik
Správa datZajištění, že tréninková data jsou relevantní, reprezentativní a bez chyb
Technická dokumentacePodrobná dokumentace systému před uvedením na trh
Vedení záznamůAutomatické zaznamenávání provozu systému
TransparentnostJasné pokyny pro uživatele a informace o schopnostech
Lidský dohledUmožnění lidského dohledu a zásahu
Přesnost a odolnostKonzistentní výkon v rámci zamýšlených použití
Kybernetická bezpečnostOchrana proti neoprávněnému přístupu a manipulaci

Povinnost AI gramotnosti (článek 4)

Od 2. února 2025 musí všichni poskytovatelé a uživatelé zajistit:

„Personál a další osoby zabývající se provozem a používáním systémů AI za jejich účelem mají dostatečnou úroveň AI gramotnosti.“[5]

Toto se široce vztahuje na všechny případy použití AI, nejen na systémy s vysokým rizikem.

Sankce

  • Zakázané praktiky AI: až 35 milionů EUR nebo 7 % celosvětového obratu
  • Porušení u systémů s vysokým rizikem: až 15 milionů EUR nebo 3 % celosvětového obratu
  • Nesprávné informace: až 7,5 milionu EUR nebo 1 % celosvětového obratu[6]

Malé a střední podniky a startupy mohou mít prospěch z proporcionálních stropů.

Klíčové kroky pro vývojáře

  1. Kategorizujte své systémy AI podle úrovně rizika
  2. Dokumentujte případy použití AI a zamýšlené účely
  3. Zavádějte programy AI gramotnosti pro veškerý personál
  4. Posuzujte povinnosti u systémů s vysokým rizikem, pokud se vztahují
  5. Sledujte požadavky GPAI pro používání základních modelů
  6. Připravte se na posuzování shody (systémy s vysokým rizikem)

Zdroje a odkazy

[1]
Nařízení (EU) 2024/1689 stanovující harmonizovaná pravidla pro umělou inteligenci. EUR-Lex: Oficiální text AI Act
[2]
Článek 5 AI Act: Zakázané praktiky AI. AI Act Explorer: Článek 5
[3]
Článek 6 AI Act: Pravidla klasifikace pro systémy AI s vysokým rizikem. AI Act Explorer: Článek 6
[4]
Povinnosti modelů obecného účelu AI. Evropská komise: Povinnosti GPAI
[5]
Článek 4 AI Act: AI gramotnost. AI Act Explorer: Článek 4
[6]
Článek 99 AI Act: Sankce. AI Act Explorer: Článek 99