Zákon o umělé inteligenci
Zákon o umělé inteligenci
Přehled
EU AI Act je první komplexní horizontální regulace na světě týkající se umělé inteligence. Přijatý v březnu 2024 a vstupující v platnost 1. srpna 2024, stanovuje rámec založený na riziku, který kategorizuje systémy AI podle jejich potenciální škodlivosti a podle toho ukládá požadavky.[1]
Regulace si klade za cíl zajistit, aby systémy AI uváděné na trh EU byly bezpečné, respektovaly základní práva a podporovaly inovace prostřednictvím právní jistoty.
Fázové termíny uplatnění
| Datum | Milník |
|---|---|
| 1. srpna 2024 | Vstup AI Act v platnost |
| 2. února 2025 | Zákaz zakázaných praktik AI; platí povinnosti v oblasti AI gramotnosti |
| 2. srpna 2025 | Povinnosti modelů GPAI; platí pravidla správy |
| 2. srpna 2026 | Plné uplatnění pro systémy AI s vysokým rizikem |
| 2. srpna 2027 | Požadavky na AI s vysokým rizikem (příloha I) pro určitou legislativu o bezpečnosti produktů |
Kategorie rizik
Zakázané praktiky AI (článek 5)[2]
Následující praktiky AI jsou zakázány od 2. února 2025:
- Subliminální manipulace: AI využívající zranitelnosti mimo vědomé vnímání
- Využívání zranitelností: Zaměřování na věk, zdravotní postižení nebo socioekonomické okolnosti
- Sociální skórování: Klasifikace lidí na základě chování vedoucího k nepříznivému zacházení
- Prediktivní policie: Předpovídání trestné činnosti jednotlivců pouze na základě profilování
- Necílené sbírání obličejových dat: Vytváření databází rozpoznávání obličejů z veřejných zdrojů
- Rozpoznávání emocí: Na pracovištích a ve vzdělávacích institucích (s výjimkami)
- Biometrická kategorizace: Zjišťování citlivých atributů jako rasa, politika nebo náboženství
- Biometrická identifikace na dálku v reálném čase: Ve veřejných prostorách pro orgány činné v trestním řízení (s výjimkami)
Systémy AI s vysokým rizikem (článek 6)[3]
Systémy AI v těchto oblastech podléhají přísným požadavkům:
- Biometrická identifikace a kategorizace
- Správa kritické infrastruktury (energie, doprava, voda, plyn)
- Vzdělávání a odborná příprava (přijímání, hodnocení)
- Zaměstnání (nábor, hodnocení výkonu, ukončení pracovního poměru)
- Přístup k základním službám (kreditní skórování, záchranné služby)
- Orgány činné v trestním řízení (hodnocení důkazů, posuzování rizik)
- Migrace a kontrola hranic
- Spravedlnost a demokratické procesy
Modely obecného účelu AI (GPAI)
Poskytovatelé modelů GPAI musí:
- Udržovat technickou dokumentaci
- Poskytovat informace pro dodržování předpisů u následných poskytovatelů
- Zavést politiky dodržování autorských práv
- Publikovat souhrny obsahu tréninku
GPAI s systematickým rizikem (modely trénované s >10^25 FLOPs) mají další povinnosti včetně testování proti útokům a hlášení incidentů.[4]
Požadavky na AI s vysokým rizikem
| Požadavek | Popis |
|---|---|
| Řízení rizik | Zavedení, dokumentace a udržování systému řízení rizik |
| Správa dat | Zajištění, že tréninková data jsou relevantní, reprezentativní a bez chyb |
| Technická dokumentace | Podrobná dokumentace systému před uvedením na trh |
| Vedení záznamů | Automatické zaznamenávání provozu systému |
| Transparentnost | Jasné pokyny pro uživatele a informace o schopnostech |
| Lidský dohled | Umožnění lidského dohledu a zásahu |
| Přesnost a odolnost | Konzistentní výkon v rámci zamýšlených použití |
| Kybernetická bezpečnost | Ochrana proti neoprávněnému přístupu a manipulaci |
Povinnost AI gramotnosti (článek 4)
Od 2. února 2025 musí všichni poskytovatelé a uživatelé zajistit:
„Personál a další osoby zabývající se provozem a používáním systémů AI za jejich účelem mají dostatečnou úroveň AI gramotnosti.“[5]
Toto se široce vztahuje na všechny případy použití AI, nejen na systémy s vysokým rizikem.
Sankce
- Zakázané praktiky AI: až 35 milionů EUR nebo 7 % celosvětového obratu
- Porušení u systémů s vysokým rizikem: až 15 milionů EUR nebo 3 % celosvětového obratu
- Nesprávné informace: až 7,5 milionu EUR nebo 1 % celosvětového obratu[6]
Malé a střední podniky a startupy mohou mít prospěch z proporcionálních stropů.
Klíčové kroky pro vývojáře
- Kategorizujte své systémy AI podle úrovně rizika
- Dokumentujte případy použití AI a zamýšlené účely
- Zavádějte programy AI gramotnosti pro veškerý personál
- Posuzujte povinnosti u systémů s vysokým rizikem, pokud se vztahují
- Sledujte požadavky GPAI pro používání základních modelů
- Připravte se na posuzování shody (systémy s vysokým rizikem)