Legea AI

Legea Inteligenței Artificiale

Prezentare generală

Legea AI a UE este primul regulament orizontal cuprinzător din lume privind inteligența artificială. Adoptată în martie 2024 și intrând în vigoare la 1 august 2024, aceasta stabilește un cadru bazat pe risc care clasifică sistemele AI în funcție de potențialul lor de a provoca daune și impune cerințe în consecință.[1]

Regulamentul are ca scop asigurarea faptului că sistemele AI puse pe piața UE sunt sigure, respectă drepturile fundamentale și stimulează inovația prin certitudine juridică.

Termene de aplicare etapizate

DataEtapă
1 august 2024Legea AI intră în vigoare
2 februarie 2025Practicile AI interzise sunt prohibite; se aplică obligațiile privind alfabetizarea AI
2 august 2025Obligații pentru modelele GPAI; se aplică regulile de guvernanță
2 august 2026Aplicare completă pentru sistemele AI cu risc ridicat
2 august 2027Cerințe pentru AI cu risc ridicat (Anexa I) pentru anumite legislații privind siguranța produselor

Categorii de risc

Practici AI interzise (Articolul 5)[2]

Următoarele practici AI sunt interzise începând cu 2 februarie 2025:

  • Manipulare subliminală: AI care exploatează vulnerabilități dincolo de conștientizarea conștientă
  • Exploatarea vulnerabilităților: Țintirea pe baza vârstei, dizabilității sau circumstanțelor socio-economice
  • Scorare socială: Clasificarea persoanelor pe baza comportamentului care conduce la tratament defavorabil
  • Poliție predictivă: Predicția infracțiunilor individuale bazată exclusiv pe profilare
  • Colectare facială netintită: Crearea bazelor de date de recunoaștere facială din surse publice
  • Recunoașterea emoțiilor: În locurile de muncă și instituțiile educaționale (cu excepții)
  • Categorisire biometrică: Inferarea atributelor sensibile precum rasa, politica sau religia
  • Identificare biometrică la distanță în timp real: În spațiile publice pentru aplicarea legii (cu excepții)

Sisteme AI cu risc ridicat (Articolul 6)[3]

Sistemele AI din aceste domenii sunt supuse unor cerințe stricte:

  • Identificare și categorisire biometrică
  • Gestionarea infrastructurii critice (energie, transport, apă, gaze)
  • Educație și formare profesională (admitere, evaluări)
  • Angajare (recrutare, evaluarea performanței, concediere)
  • Acces la servicii esențiale (scorare de credit, servicii de urgență)
  • Aplicarea legii (evaluarea probelor, evaluarea riscurilor)
  • Migrație și controlul frontierelor
  • Justiție și procese democratice

Modele AI cu scop general (GPAI)

Furnizorii de modele GPAI trebuie să:

  • Mențină documentație tehnică
  • Furnizeze informații pentru conformitatea furnizorilor ulteriori
  • Stabilească politici de conformitate cu drepturile de autor
  • Publice rezumate ale conținutului de instruire

GPAI cu risc sistemic (modele antrenate cu >10^25 FLOPs) au obligații suplimentare, inclusiv testare adversarială și raportarea incidentelor.[4]

Cerințe pentru AI cu risc ridicat

CerințăDescriere
Managementul riscurilorStabilirea, documentarea și menținerea unui sistem de management al riscurilor
Guvernanța datelorAsigurarea că datele de instruire sunt relevante, reprezentative și fără erori
Documentație tehnicăDocumentație detaliată a sistemului înainte de punerea pe piață
Înregistrarea operațiunilorÎnregistrare automată a operațiunilor sistemului
TransparențăInstrucțiuni clare pentru utilizatori și informații despre capabilități
Supraveghere umanăPermite supravegherea și intervenția umană
Acuratețe și robustețePerformanță consistentă în cazurile de utilizare intenționate
Securitate ciberneticăProtecție împotriva accesului neautorizat și manipulării

Obligația de alfabetizare AI (Articolul 4)

Începând cu 2 februarie 2025, toți furnizorii și implementatorii trebuie să asigure:

„Personalul și alte persoane care se ocupă de operarea și utilizarea sistemelor AI în numele lor au un nivel suficient de alfabetizare AI.”[5]

Aceasta se aplică pe scară largă tuturor cazurilor de utilizare AI, nu doar sistemelor cu risc ridicat.

Sancțiuni

  • Practici AI interzise: Până la 35 milioane € sau 7% din cifra de afaceri globală
  • Încălcări ale cerințelor pentru risc ridicat: Până la 15 milioane € sau 3% din cifra de afaceri globală
  • Informații incorecte: Până la 7,5 milioane € sau 1% din cifra de afaceri globală[6]

IMM-urile și startup-urile pot beneficia de plafoane proporționale.

Acțiuni cheie pentru dezvoltatori

  1. Clasificați sistemele AI în funcție de nivelul de risc
  2. Documentați cazurile de utilizare AI și scopurile intenționate
  3. Implementați programe de alfabetizare AI pentru tot personalul
  4. Evaluați obligațiile pentru risc ridicat, dacă este cazul
  5. Monitorizați cerințele GPAI pentru utilizarea modelelor fundamentale
  6. Pregătiți-vă pentru evaluările de conformitate (sisteme cu risc ridicat)

Surse și referințe

[1]
Regulamentul (UE) 2024/1689 care stabilește reguli armonizate privind inteligența artificială. EUR-Lex: Textul oficial al Legii AI
[2]
Legea AI Articolul 5: Practici AI interzise. Explorator Legea AI: Articolul 5
[3]
Legea AI Articolul 6: Reguli de clasificare pentru sistemele AI cu risc ridicat. Explorator Legea AI: Articolul 6
[4]
Obligații pentru modelele AI cu scop general. Comisia Europeană: Obligații GPAI
[5]
Legea AI Articolul 4: Alfabetizarea AI. Explorator Legea AI: Articolul 4
[6]
Legea AI Articolul 99: Sancțiuni. Explorator Legea AI: Articolul 99