Mākslīgā intelekta likums

Mākslīgā intelekta likums

Pārskats

ES Mākslīgā intelekta likums ir pasaulē pirmais visaptverošais horizontālais regulējums par mākslīgo intelektu. Pieņemts 2024. gada martā un stājoties spēkā 2024. gada 1. augustā, tas izveido riska balstītu sistēmu, kas kategorizē MI sistēmas pēc to potenciālās kaitīguma un attiecīgi nosaka prasības.[1]

Regula mērķis ir nodrošināt, ka ES tirgū izvietotās MI sistēmas ir drošas, ievēro pamattiesības un veicina inovācijas ar juridisku skaidrību.

Pakāpeniskās piemērošanas datumi

DatumsNotikums
2024. gada 1. augustsMākslīgā intelekta likums stājas spēkā
2025. gada 2. februārisAizliegtas MI prakses aizliegtas; piemērojamas MI pratības saistības
2025. gada 2. augustsGPAI modeļu saistības; piemērojami pārvaldības noteikumi
2026. gada 2. augustsPilna piemērošana augsta riska MI sistēmām
2027. gada 2. augustsAugsta riska MI (I pielikums) prasības noteiktai produktu drošības regulējumam

Riska kategorijas

Aizliegtas MI prakses (5. pants)[2]

No 2025. gada 2. februāra šādas MI prakses ir aizliegtas:

  • Apakšapziņas manipulācija: MI izmanto vājības ārpus apzinātas uztveres
  • Vājību izmantošana: Mērķēšana uz vecumu, invaliditāti vai sociāli ekonomiskajiem apstākļiem
  • Sociālā vērtēšana: Cilvēku klasificēšana pēc uzvedības, kas noved pie kaitīgas attieksmes
  • Prognozējoša policija: Individuāla noziedzības prognozēšana, balstoties tikai uz profilēšanu
  • Nemērķēta sejas datu vākšana: Sejas atpazīšanas datu bāzu veidošana no publiskiem avotiem
  • Emociju atpazīšana: Darba vietās un izglītības iestādēs (ar izņēmumiem)
  • Biometriskā kategorizācija: Jutīgu īpašību, piemēram, rases, politikas vai reliģijas, noteikšana
  • Reāllaika attālināta biometriskā identifikācija: Publiskās vietās tiesībaizsardzībai (ar izņēmumiem)

Augsta riska MI sistēmas (6. pants)[3]

MI sistēmas šajās jomās pakļautas stingrām prasībām:

  • Biometriskā identifikācija un kategorizācija
  • Kritiskās infrastruktūras pārvaldība (enerģija, transports, ūdens, gāze)
  • Izglītība un profesionālā apmācība (uzņemšana, vērtēšana)
  • Nodarbinātība (atlase, snieguma novērtēšana, atlaišana)
  • Pieeja būtiskajiem pakalpojumiem (kredītvērtējums, ārkārtas dienesti)
  • Tiesībaizsardzība (pierādījumu izvērtēšana, riska novērtējums)
  • Migrācija un robežkontrole
  • Tiesu un demokrātiskie procesi

Vispārīga mērķa MI (GPAI) modeļi

GPAI modeļu nodrošinātājiem jāveic:

  • Tehniskās dokumentācijas uzturēšana
  • Informācijas sniegšana tālākajiem nodrošinātājiem atbilstības nodrošināšanai
  • Autortiesību atbilstības politiku izveide
  • Apmācību satura kopsavilkumu publicēšana

Sistēmiska riska GPAI (modeļi, kas apmācīti ar >10^25 FLOP) ir papildu saistības, tostarp pretinieciski testi un incidentu ziņošana.[4]

Prasības augsta riska MI

PrasībaApraksts
Riska pārvaldībaIzveidot, dokumentēt un uzturēt riska pārvaldības sistēmu
Datu pārvaldībaNodrošināt, ka apmācības dati ir atbilstoši, reprezentatīvi un bez kļūdām
Tehniskā dokumentācijaDetalizēta sistēmas dokumentācija pirms izvietošanas tirgū
Uzskaites veikšanaAutomātiska sistēmas darbību reģistrēšana
CaurspīdīgumsSkaidras lietotāja instrukcijas un informācija par iespējām
Cilvēka uzraudzībaĻaut cilvēka uzraudzību un iejaukšanos
Precizitāte un noturībaVienmērīga veiktspēja paredzētajos lietošanas gadījumos
KiberdrošībaAizsardzība pret nesankcionētu piekļuvi un manipulācijām

MI pratības saistība (4. pants)

No 2025. gada 2. februāra visi nodrošinātāji un izvietotāji ir atbildīgi par to, lai:

„Personāls un citas personas, kas darbojas ar MI sistēmām viņu vārdā, ir pietiekamā MI pratības līmenī.”[5]

Šī prasība attiecas plaši uz visiem MI lietojumiem, ne tikai augsta riska sistēmām.

Sodi

  • Aizliegtas MI prakses: līdz 35 miljoniem eiro vai 7% no globālā apgrozījuma
  • Augsta riska pārkāpumi: līdz 15 miljoniem eiro vai 3% no globālā apgrozījuma
  • Nepareiza informācija: līdz 7,5 miljoniem eiro vai 1% no globālā apgrozījuma[6]

MVU un jaunuzņēmumi var gūt labumu no proporcionāliem griestiem.

Galvenie izstrādātāju soļi

  1. Klasificējiet savas MI sistēmas pēc riska līmeņa
  2. Dokumentējiet MI lietošanas gadījumus un paredzētos mērķus
  3. Ieviest MI pratības programmas visam personālam
  4. Novērtējiet augsta riska saistības, ja piemērojams
  5. Uzraugiet GPAI prasības pamata modeļu izmantošanai
  6. Gatavojieties atbilstības novērtējumiem (augsta riska sistēmām)

Avoti un atsauces

[1]
Regula (ES) 2024/1689, kas nosaka saskaņotas noteikumus par mākslīgo intelektu. EUR-Lex: Mākslīgā intelekta likuma oficiālais teksts
[2]
Mākslīgā intelekta likuma 5. pants: Aizliegtas MI prakses. Mākslīgā intelekta likuma pārlūks: 5. pants
[3]
Mākslīgā intelekta likuma 6. pants: Augsta riska MI sistēmu klasifikācijas noteikumi. Mākslīgā intelekta likuma pārlūks: 6. pants
[4]
Vispārīga mērķa MI modeļu saistības. Eiropas Komisija: GPAI saistības
[5]
Mākslīgā intelekta likuma 4. pants: MI pratība. Mākslīgā intelekta likuma pārlūks: 4. pants
[6]
Mākslīgā intelekta likuma 99. pants: Sodi. Mākslīgā intelekta likuma pārlūks: 99. pants