Legea AI
Legea Inteligenței Artificiale
Prezentare generală
Legea AI a UE este primul regulament orizontal cuprinzător din lume privind inteligența artificială. Adoptată în martie 2024 și intrând în vigoare la 1 august 2024, aceasta stabilește un cadru bazat pe risc care clasifică sistemele AI în funcție de potențialul lor de a provoca daune și impune cerințe în consecință.[1]
Regulamentul are ca scop asigurarea faptului că sistemele AI puse pe piața UE sunt sigure, respectă drepturile fundamentale și stimulează inovația prin certitudine juridică.
Termene de aplicare etapizate
| Data | Etapă |
|---|---|
| 1 august 2024 | Legea AI intră în vigoare |
| 2 februarie 2025 | Practicile AI interzise sunt prohibite; se aplică obligațiile privind alfabetizarea AI |
| 2 august 2025 | Obligații pentru modelele GPAI; se aplică regulile de guvernanță |
| 2 august 2026 | Aplicare completă pentru sistemele AI cu risc ridicat |
| 2 august 2027 | Cerințe pentru AI cu risc ridicat (Anexa I) pentru anumite legislații privind siguranța produselor |
Categorii de risc
Practici AI interzise (Articolul 5)[2]
Următoarele practici AI sunt interzise începând cu 2 februarie 2025:
- Manipulare subliminală: AI care exploatează vulnerabilități dincolo de conștientizarea conștientă
- Exploatarea vulnerabilităților: Țintirea pe baza vârstei, dizabilității sau circumstanțelor socio-economice
- Scorare socială: Clasificarea persoanelor pe baza comportamentului care conduce la tratament defavorabil
- Poliție predictivă: Predicția infracțiunilor individuale bazată exclusiv pe profilare
- Colectare facială netintită: Crearea bazelor de date de recunoaștere facială din surse publice
- Recunoașterea emoțiilor: În locurile de muncă și instituțiile educaționale (cu excepții)
- Categorisire biometrică: Inferarea atributelor sensibile precum rasa, politica sau religia
- Identificare biometrică la distanță în timp real: În spațiile publice pentru aplicarea legii (cu excepții)
Sisteme AI cu risc ridicat (Articolul 6)[3]
Sistemele AI din aceste domenii sunt supuse unor cerințe stricte:
- Identificare și categorisire biometrică
- Gestionarea infrastructurii critice (energie, transport, apă, gaze)
- Educație și formare profesională (admitere, evaluări)
- Angajare (recrutare, evaluarea performanței, concediere)
- Acces la servicii esențiale (scorare de credit, servicii de urgență)
- Aplicarea legii (evaluarea probelor, evaluarea riscurilor)
- Migrație și controlul frontierelor
- Justiție și procese democratice
Modele AI cu scop general (GPAI)
Furnizorii de modele GPAI trebuie să:
- Mențină documentație tehnică
- Furnizeze informații pentru conformitatea furnizorilor ulteriori
- Stabilească politici de conformitate cu drepturile de autor
- Publice rezumate ale conținutului de instruire
GPAI cu risc sistemic (modele antrenate cu >10^25 FLOPs) au obligații suplimentare, inclusiv testare adversarială și raportarea incidentelor.[4]
Cerințe pentru AI cu risc ridicat
| Cerință | Descriere |
|---|---|
| Managementul riscurilor | Stabilirea, documentarea și menținerea unui sistem de management al riscurilor |
| Guvernanța datelor | Asigurarea că datele de instruire sunt relevante, reprezentative și fără erori |
| Documentație tehnică | Documentație detaliată a sistemului înainte de punerea pe piață |
| Înregistrarea operațiunilor | Înregistrare automată a operațiunilor sistemului |
| Transparență | Instrucțiuni clare pentru utilizatori și informații despre capabilități |
| Supraveghere umană | Permite supravegherea și intervenția umană |
| Acuratețe și robustețe | Performanță consistentă în cazurile de utilizare intenționate |
| Securitate cibernetică | Protecție împotriva accesului neautorizat și manipulării |
Obligația de alfabetizare AI (Articolul 4)
Începând cu 2 februarie 2025, toți furnizorii și implementatorii trebuie să asigure:
„Personalul și alte persoane care se ocupă de operarea și utilizarea sistemelor AI în numele lor au un nivel suficient de alfabetizare AI.”[5]
Aceasta se aplică pe scară largă tuturor cazurilor de utilizare AI, nu doar sistemelor cu risc ridicat.
Sancțiuni
- Practici AI interzise: Până la 35 milioane € sau 7% din cifra de afaceri globală
- Încălcări ale cerințelor pentru risc ridicat: Până la 15 milioane € sau 3% din cifra de afaceri globală
- Informații incorecte: Până la 7,5 milioane € sau 1% din cifra de afaceri globală[6]
IMM-urile și startup-urile pot beneficia de plafoane proporționale.
Acțiuni cheie pentru dezvoltatori
- Clasificați sistemele AI în funcție de nivelul de risc
- Documentați cazurile de utilizare AI și scopurile intenționate
- Implementați programe de alfabetizare AI pentru tot personalul
- Evaluați obligațiile pentru risc ridicat, dacă este cazul
- Monitorizați cerințele GPAI pentru utilizarea modelelor fundamentale
- Pregătiți-vă pentru evaluările de conformitate (sisteme cu risc ridicat)