AI Act

Ustawa o sztucznej inteligencji

Przegląd

Unijna ustawa o AI to pierwsze na świecie kompleksowe, horyzontalne rozporządzenie dotyczące sztucznej inteligencji. Przyjęta w marcu 2024 roku i wchodząca w życie 1 sierpnia 2024 roku, ustanawia ramy oparte na ryzyku, które klasyfikują systemy AI na podstawie potencjalnej szkody i nakładają odpowiednie wymagania.[1]

Rozporządzenie ma na celu zapewnienie, że systemy AI wprowadzane na rynek UE są bezpieczne, szanują prawa podstawowe oraz wspierają innowacje poprzez pewność prawną.

Daty etapowego stosowania

DataKamień milowy
1 sierpnia 2024Wejście w życie ustawy o AI
2 lutego 2025Zakaz praktyk AI; obowiązki dotyczące alfabetyzacji AI
2 sierpnia 2025Obowiązki modeli GPAI; stosowanie zasad zarządzania
2 sierpnia 2026Pełne stosowanie dla systemów AI wysokiego ryzyka
2 sierpnia 2027Wymagania dla AI wysokiego ryzyka (załącznik I) w odniesieniu do niektórych przepisów dotyczących bezpieczeństwa produktów

Kategorie ryzyka

Zakazane praktyki AI (artykuł 5)[2]

Następujące praktyki AI są zakazane od 2 lutego 2025 roku:

  • Manipulacja podprogowa: AI wykorzystująca podatności poza świadomą percepcją
  • Wykorzystywanie podatności: Ukierunkowanie na wiek, niepełnosprawność lub warunki społeczno-ekonomiczne
  • Ocena społeczna: Klasyfikowanie osób na podstawie zachowań prowadzących do niekorzystnego traktowania
  • Predykcyjne działania policyjne: Przewidywanie przestępstw indywidualnych wyłącznie na podstawie profilowania
  • Nieukierunkowane zbieranie danych twarzy: Tworzenie baz danych rozpoznawania twarzy z publicznych źródeł
  • Rozpoznawanie emocji: W miejscach pracy i instytucjach edukacyjnych (z wyjątkami)
  • Kategoryzacja biometryczna: Wnioskowanie o wrażliwych cechach, takich jak rasa, polityka czy religia
  • Identyfikacja biometryczna w czasie rzeczywistym na odległość: W przestrzeni publicznej dla organów ścigania (z wyjątkami)

Systemy AI wysokiego ryzyka (artykuł 6)[3]

Systemy AI w tych obszarach podlegają surowym wymaganiom:

  • Identyfikacja i kategoryzacja biometryczna
  • Zarządzanie infrastrukturą krytyczną (energia, transport, woda, gaz)
  • Edukacja i szkolenia zawodowe (rekrutacja, oceny)
  • Zatrudnienie (rekrutacja, ocena wydajności, zwolnienia)
  • Dostęp do usług podstawowych (ocena zdolności kredytowej, służby ratunkowe)
  • Organy ścigania (ocena dowodów, ocena ryzyka)
  • Imigracja i kontrola graniczna
  • Wymiar sprawiedliwości i procesy demokratyczne

Modele AI ogólnego przeznaczenia (GPAI)

Dostawcy modeli GPAI muszą:

  • Utrzymywać dokumentację techniczną
  • Dostarczać informacje dla zgodności dostawców końcowych
  • Ustanowić polityki zgodności z prawami autorskimi
  • Publikować streszczenia treści szkoleniowych

Systemowe ryzyko GPAI (modele trenowane z >10^25 FLOPs) mają dodatkowe obowiązki, w tym testy przeciwdziałania i raportowanie incydentów.[4]

Wymagania dla AI wysokiego ryzyka

WymaganieOpis
Zarządzanie ryzykiemUstanowienie, dokumentowanie i utrzymanie systemu zarządzania ryzykiem
Governance danychZapewnienie, że dane treningowe są istotne, reprezentatywne i wolne od błędów
Dokumentacja technicznaSzczegółowa dokumentacja systemu przed wprowadzeniem na rynek
Prowadzenie rejestrówAutomatyczne rejestrowanie operacji systemu
PrzejrzystośćJasne instrukcje dla użytkownika i informacje o możliwościach
Nadzór człowiekaUmożliwienie nadzoru i interwencji człowieka
Dokładność i odpornośćStała wydajność w przewidzianych zastosowaniach
CyberbezpieczeństwoOchrona przed nieautoryzowanym dostępem i manipulacją

Obowiązek alfabetyzacji AI (artykuł 4)

Od 2 lutego 2025 roku wszyscy dostawcy i użytkownicy muszą zapewnić:

„Personel i inne osoby zajmujące się obsługą i użytkowaniem systemów AI w ich imieniu posiadają wystarczający poziom alfabetyzacji AI.”[5]

Obowiązek ten dotyczy szeroko wszystkich zastosowań AI, nie tylko systemów wysokiego ryzyka.

Kary

  • Zakazane praktyki AI: do 35 milionów euro lub 7% światowego obrotu
  • Naruszenia dotyczące AI wysokiego ryzyka: do 15 milionów euro lub 3% światowego obrotu
  • Nieprawidłowe informacje: do 7,5 miliona euro lub 1% światowego obrotu[6]

MŚP i startupy mogą korzystać z proporcjonalnych limitów.

Kluczowe działania dla deweloperów

  1. Klasyfikuj swoje systemy AI według poziomu ryzyka
  2. Dokumentuj przypadki użycia AI i zamierzone cele
  3. Wdrażaj programy alfabetyzacji AI dla całego personelu
  4. Oceń obowiązki dotyczące AI wysokiego ryzyka, jeśli mają zastosowanie
  5. Monitoruj wymagania GPAI dotyczące użycia modeli bazowych
  6. Przygotuj się do ocen zgodności (systemy wysokiego ryzyka)

Źródła i odniesienia

[1]
Rozporządzenie (UE) 2024/1689 ustanawiające zharmonizowane zasady dotyczące sztucznej inteligencji. EUR-Lex: Oficjalny tekst AI Act
[2]
Artykuł 5 AI Act: Zakazane praktyki AI. AI Act Explorer: Artykuł 5
[3]
Artykuł 6 AI Act: Zasady klasyfikacji systemów AI wysokiego ryzyka. AI Act Explorer: Artykuł 6
[4]
Obowiązki modeli AI ogólnego przeznaczenia. Komisja Europejska: Obowiązki GPAI
[5]
Artykuł 4 AI Act: Alfabetyzacja AI. AI Act Explorer: Artykuł 4
[6]
Artykuł 99 AI Act: Kary. AI Act Explorer: Artykuł 99