Закон за ИИ
Закон за изкуствения интелект
Преглед
Законът за ИИ на ЕС е първият в света всеобхватен хоризонтален регламент за изкуствения интелект. Приет през март 2024 г. и влязъл в сила на 1 август 2024 г., той установява рамка, базирана на риска, която категоризира ИИ системите според потенциалната им вреда и налага съответните изисквания.[1]
Регламентът цели да гарантира, че ИИ системите, пуснати на пазара на ЕС, са безопасни, уважават основните права и насърчават иновациите чрез правна сигурност.
Поетапни дати на прилагане
| Дата | Ключово събитие |
|---|---|
| 1 август 2024 г. | Влизане в сила на Закона за ИИ |
| 2 февруари 2025 г. | Забрана на забранени практики с ИИ; прилагане на задължения за ИИ грамотност |
| 2 август 2025 г. | Задължения за модели GPAI; прилагане на правила за управление |
| 2 август 2026 г. | Пълно прилагане за високорискови ИИ системи |
| 2 август 2027 г. | Изисквания за високорисков ИИ (Приложение I) за определено законодателство за безопасност на продуктите |
Категории на риска
Забранени практики с ИИ (Член 5)[2]
Следните практики с ИИ са забранени от 2 февруари 2025 г.:
- Подсъзнателна манипулация: ИИ, експлоатиращ уязвимости извън съзнателното възприятие
- Експлоатация на уязвимости: Насочване към възраст, увреждания или социално-икономически обстоятелства
- Социално оценяване: Класифициране на хора въз основа на поведение, водещо до неблагоприятно третиране
- Предиктивно полицейско наблюдение: Прогнозиране на престъпления на индивидуална основа само чрез профилиране
- Ненасочено събиране на лицеви данни: Създаване на бази данни за разпознаване на лица от публични източници
- Разпознаване на емоции: В работни места и образователни институции (с изключения)
- Биометрична категоризация: Извличане на чувствителни характеристики като раса, политически възгледи или религия
- Идентификация в реално време на разстояние: В обществени пространства за правоприлагане (с изключения)
Високорискови ИИ системи (Член 6)[3]
ИИ системите в тези области подлежат на строги изисквания:
- Биометрична идентификация и категоризация
- Управление на критична инфраструктура (енергетика, транспорт, вода, газ)
- Образование и професионално обучение (прием, оценки)
- Заетост (наемане, оценка на представяне, прекратяване)
- Достъп до основни услуги (кредитно оценяване, спешни услуги)
- Правоприлагане (оценка на доказателства, оценка на риска)
- Миграция и граничен контрол
- Правосъдие и демократични процеси
Модели за общо предназначение на ИИ (GPAI)
Доставчиците на модели GPAI трябва да:
- Поддържат техническа документация
- Осигуряват информация за съответствие на доставчиците надолу по веригата
- Установят политики за спазване на авторски права
- Публикуват обобщения на обучителното съдържание
Системен риск за GPAI (модели, обучени с >10^25 FLOPs) имат допълнителни задължения, включително тестове за противодействие и докладване на инциденти.[4]
Изисквания за високорисков ИИ
| Изискване | Описание |
|---|---|
| Управление на риска | Създаване, документиране и поддържане на система за управление на риска |
| Управление на данни | Осигуряване, че обучителните данни са релевантни, представителни и без грешки |
| Техническа документация | Подробна документация на системата преди пускане на пазара |
| Водене на записи | Автоматично регистриране на операциите на системата |
| Прозрачност | Ясни инструкции за потребителя и информация за възможностите |
| Човешки надзор | Осигуряване на човешки контрол и намеса |
| Точност и устойчивост | Постоянна производителност в предвидените случаи на употреба |
| Киберсигурност | Защита срещу неоторизиран достъп и манипулация |
Задължение за ИИ грамотност (Член 4)
От 2 февруари 2025 г. всички доставчици и внедрители трябва да осигурят:
„Персоналът и други лица, занимаващи се с експлоатацията и използването на ИИ системи от тяхно име, да имат достатъчно ниво на ИИ грамотност.“[5]
Това се прилага широко за всички случаи на използване на ИИ, не само за високорискови системи.
Наказания
- Забранени практики с ИИ: До 35 милиона евро или 7% от световния оборот
- Нарушения при високорискови системи: До 15 милиона евро или 3% от световния оборот
- Неправилна информация: До 7,5 милиона евро или 1% от световния оборот[6]
МСП и стартиращи компании могат да се възползват от пропорционални тавани.
Ключови действия за разработчиците
- Класифицирайте вашите ИИ системи по ниво на риск
- Документирайте случаите на използване на ИИ и предназначените цели
- Внедрете програми за ИИ грамотност за целия персонал
- Оценете задълженията за високорискови системи, ако е приложимо
- Следете изискванията за GPAI при използване на основни модели
- Подгответе се за оценки на съответствието (високорискови системи)