Закон за ИИ

Закон за изкуствения интелект

Преглед

Законът за ИИ на ЕС е първият в света всеобхватен хоризонтален регламент за изкуствения интелект. Приет през март 2024 г. и влязъл в сила на 1 август 2024 г., той установява рамка, базирана на риска, която категоризира ИИ системите според потенциалната им вреда и налага съответните изисквания.[1]

Регламентът цели да гарантира, че ИИ системите, пуснати на пазара на ЕС, са безопасни, уважават основните права и насърчават иновациите чрез правна сигурност.

Поетапни дати на прилагане

ДатаКлючово събитие
1 август 2024 г.Влизане в сила на Закона за ИИ
2 февруари 2025 г.Забрана на забранени практики с ИИ; прилагане на задължения за ИИ грамотност
2 август 2025 г.Задължения за модели GPAI; прилагане на правила за управление
2 август 2026 г.Пълно прилагане за високорискови ИИ системи
2 август 2027 г.Изисквания за високорисков ИИ (Приложение I) за определено законодателство за безопасност на продуктите

Категории на риска

Забранени практики с ИИ (Член 5)[2]

Следните практики с ИИ са забранени от 2 февруари 2025 г.:

  • Подсъзнателна манипулация: ИИ, експлоатиращ уязвимости извън съзнателното възприятие
  • Експлоатация на уязвимости: Насочване към възраст, увреждания или социално-икономически обстоятелства
  • Социално оценяване: Класифициране на хора въз основа на поведение, водещо до неблагоприятно третиране
  • Предиктивно полицейско наблюдение: Прогнозиране на престъпления на индивидуална основа само чрез профилиране
  • Ненасочено събиране на лицеви данни: Създаване на бази данни за разпознаване на лица от публични източници
  • Разпознаване на емоции: В работни места и образователни институции (с изключения)
  • Биометрична категоризация: Извличане на чувствителни характеристики като раса, политически възгледи или религия
  • Идентификация в реално време на разстояние: В обществени пространства за правоприлагане (с изключения)

Високорискови ИИ системи (Член 6)[3]

ИИ системите в тези области подлежат на строги изисквания:

  • Биометрична идентификация и категоризация
  • Управление на критична инфраструктура (енергетика, транспорт, вода, газ)
  • Образование и професионално обучение (прием, оценки)
  • Заетост (наемане, оценка на представяне, прекратяване)
  • Достъп до основни услуги (кредитно оценяване, спешни услуги)
  • Правоприлагане (оценка на доказателства, оценка на риска)
  • Миграция и граничен контрол
  • Правосъдие и демократични процеси

Модели за общо предназначение на ИИ (GPAI)

Доставчиците на модели GPAI трябва да:

  • Поддържат техническа документация
  • Осигуряват информация за съответствие на доставчиците надолу по веригата
  • Установят политики за спазване на авторски права
  • Публикуват обобщения на обучителното съдържание

Системен риск за GPAI (модели, обучени с >10^25 FLOPs) имат допълнителни задължения, включително тестове за противодействие и докладване на инциденти.[4]

Изисквания за високорисков ИИ

ИзискванеОписание
Управление на рискаСъздаване, документиране и поддържане на система за управление на риска
Управление на данниОсигуряване, че обучителните данни са релевантни, представителни и без грешки
Техническа документацияПодробна документация на системата преди пускане на пазара
Водене на записиАвтоматично регистриране на операциите на системата
ПрозрачностЯсни инструкции за потребителя и информация за възможностите
Човешки надзорОсигуряване на човешки контрол и намеса
Точност и устойчивостПостоянна производителност в предвидените случаи на употреба
КиберсигурностЗащита срещу неоторизиран достъп и манипулация

Задължение за ИИ грамотност (Член 4)

От 2 февруари 2025 г. всички доставчици и внедрители трябва да осигурят:

„Персоналът и други лица, занимаващи се с експлоатацията и използването на ИИ системи от тяхно име, да имат достатъчно ниво на ИИ грамотност.“[5]

Това се прилага широко за всички случаи на използване на ИИ, не само за високорискови системи.

Наказания

  • Забранени практики с ИИ: До 35 милиона евро или 7% от световния оборот
  • Нарушения при високорискови системи: До 15 милиона евро или 3% от световния оборот
  • Неправилна информация: До 7,5 милиона евро или 1% от световния оборот[6]

МСП и стартиращи компании могат да се възползват от пропорционални тавани.

Ключови действия за разработчиците

  1. Класифицирайте вашите ИИ системи по ниво на риск
  2. Документирайте случаите на използване на ИИ и предназначените цели
  3. Внедрете програми за ИИ грамотност за целия персонал
  4. Оценете задълженията за високорискови системи, ако е приложимо
  5. Следете изискванията за GPAI при използване на основни модели
  6. Подгответе се за оценки на съответствието (високорискови системи)

Източници и препратки

[1]
Регламент (ЕС) 2024/1689, установяващ хармонизирани правила за изкуствения интелект. EUR-Lex: Официален текст на Закона за ИИ
[2]
Закон за ИИ, Член 5: Забранени практики с ИИ. AI Act Explorer: Член 5
[3]
Закон за ИИ, Член 6: Правила за класификация на високорискови ИИ системи. AI Act Explorer: Член 6
[4]
Задължения за модели за общо предназначение на ИИ. Европейска комисия: Задължения за GPAI
[5]
Закон за ИИ, Член 4: ИИ грамотност. AI Act Explorer: Член 4
[6]
Закон за ИИ, Член 99: Наказания. AI Act Explorer: Член 99