AI Act
Ustawa o sztucznej inteligencji
Przegląd
Unijna ustawa o AI to pierwsze na świecie kompleksowe, horyzontalne rozporządzenie dotyczące sztucznej inteligencji. Przyjęta w marcu 2024 roku i wchodząca w życie 1 sierpnia 2024 roku, ustanawia ramy oparte na ryzyku, które klasyfikują systemy AI na podstawie potencjalnej szkody i nakładają odpowiednie wymagania.[1]
Rozporządzenie ma na celu zapewnienie, że systemy AI wprowadzane na rynek UE są bezpieczne, szanują prawa podstawowe oraz wspierają innowacje poprzez pewność prawną.
Daty etapowego stosowania
| Data | Kamień milowy |
|---|---|
| 1 sierpnia 2024 | Wejście w życie ustawy o AI |
| 2 lutego 2025 | Zakaz praktyk AI; obowiązki dotyczące alfabetyzacji AI |
| 2 sierpnia 2025 | Obowiązki modeli GPAI; stosowanie zasad zarządzania |
| 2 sierpnia 2026 | Pełne stosowanie dla systemów AI wysokiego ryzyka |
| 2 sierpnia 2027 | Wymagania dla AI wysokiego ryzyka (załącznik I) w odniesieniu do niektórych przepisów dotyczących bezpieczeństwa produktów |
Kategorie ryzyka
Zakazane praktyki AI (artykuł 5)[2]
Następujące praktyki AI są zakazane od 2 lutego 2025 roku:
- Manipulacja podprogowa: AI wykorzystująca podatności poza świadomą percepcją
- Wykorzystywanie podatności: Ukierunkowanie na wiek, niepełnosprawność lub warunki społeczno-ekonomiczne
- Ocena społeczna: Klasyfikowanie osób na podstawie zachowań prowadzących do niekorzystnego traktowania
- Predykcyjne działania policyjne: Przewidywanie przestępstw indywidualnych wyłącznie na podstawie profilowania
- Nieukierunkowane zbieranie danych twarzy: Tworzenie baz danych rozpoznawania twarzy z publicznych źródeł
- Rozpoznawanie emocji: W miejscach pracy i instytucjach edukacyjnych (z wyjątkami)
- Kategoryzacja biometryczna: Wnioskowanie o wrażliwych cechach, takich jak rasa, polityka czy religia
- Identyfikacja biometryczna w czasie rzeczywistym na odległość: W przestrzeni publicznej dla organów ścigania (z wyjątkami)
Systemy AI wysokiego ryzyka (artykuł 6)[3]
Systemy AI w tych obszarach podlegają surowym wymaganiom:
- Identyfikacja i kategoryzacja biometryczna
- Zarządzanie infrastrukturą krytyczną (energia, transport, woda, gaz)
- Edukacja i szkolenia zawodowe (rekrutacja, oceny)
- Zatrudnienie (rekrutacja, ocena wydajności, zwolnienia)
- Dostęp do usług podstawowych (ocena zdolności kredytowej, służby ratunkowe)
- Organy ścigania (ocena dowodów, ocena ryzyka)
- Imigracja i kontrola graniczna
- Wymiar sprawiedliwości i procesy demokratyczne
Modele AI ogólnego przeznaczenia (GPAI)
Dostawcy modeli GPAI muszą:
- Utrzymywać dokumentację techniczną
- Dostarczać informacje dla zgodności dostawców końcowych
- Ustanowić polityki zgodności z prawami autorskimi
- Publikować streszczenia treści szkoleniowych
Systemowe ryzyko GPAI (modele trenowane z >10^25 FLOPs) mają dodatkowe obowiązki, w tym testy przeciwdziałania i raportowanie incydentów.[4]
Wymagania dla AI wysokiego ryzyka
| Wymaganie | Opis |
|---|---|
| Zarządzanie ryzykiem | Ustanowienie, dokumentowanie i utrzymanie systemu zarządzania ryzykiem |
| Governance danych | Zapewnienie, że dane treningowe są istotne, reprezentatywne i wolne od błędów |
| Dokumentacja techniczna | Szczegółowa dokumentacja systemu przed wprowadzeniem na rynek |
| Prowadzenie rejestrów | Automatyczne rejestrowanie operacji systemu |
| Przejrzystość | Jasne instrukcje dla użytkownika i informacje o możliwościach |
| Nadzór człowieka | Umożliwienie nadzoru i interwencji człowieka |
| Dokładność i odporność | Stała wydajność w przewidzianych zastosowaniach |
| Cyberbezpieczeństwo | Ochrona przed nieautoryzowanym dostępem i manipulacją |
Obowiązek alfabetyzacji AI (artykuł 4)
Od 2 lutego 2025 roku wszyscy dostawcy i użytkownicy muszą zapewnić:
„Personel i inne osoby zajmujące się obsługą i użytkowaniem systemów AI w ich imieniu posiadają wystarczający poziom alfabetyzacji AI.”[5]
Obowiązek ten dotyczy szeroko wszystkich zastosowań AI, nie tylko systemów wysokiego ryzyka.
Kary
- Zakazane praktyki AI: do 35 milionów euro lub 7% światowego obrotu
- Naruszenia dotyczące AI wysokiego ryzyka: do 15 milionów euro lub 3% światowego obrotu
- Nieprawidłowe informacje: do 7,5 miliona euro lub 1% światowego obrotu[6]
MŚP i startupy mogą korzystać z proporcjonalnych limitów.
Kluczowe działania dla deweloperów
- Klasyfikuj swoje systemy AI według poziomu ryzyka
- Dokumentuj przypadki użycia AI i zamierzone cele
- Wdrażaj programy alfabetyzacji AI dla całego personelu
- Oceń obowiązki dotyczące AI wysokiego ryzyka, jeśli mają zastosowanie
- Monitoruj wymagania GPAI dotyczące użycia modeli bazowych
- Przygotuj się do ocen zgodności (systemy wysokiego ryzyka)