AI Act
Artificial Intelligence Act
Panoramica
L'AI Act dell'UE è il primo regolamento orizzontale completo al mondo sull'intelligenza artificiale. Adottato nel marzo 2024 ed entrato in vigore il 1° agosto 2024, stabilisce un quadro basato sul rischio che classifica i sistemi di IA in base al potenziale danno e impone requisiti di conseguenza.[1]
Il regolamento mira a garantire che i sistemi di IA immessi sul mercato dell'UE siano sicuri, rispettino i diritti fondamentali e favoriscano l'innovazione attraverso la certezza giuridica.
Date di applicazione graduale
| Data | Traguardo |
|---|---|
| 1 agosto 2024 | Entrata in vigore dell'AI Act |
| 2 febbraio 2025 | Divieto delle pratiche di IA proibite; obblighi di alfabetizzazione sull'IA |
| 2 agosto 2025 | Obblighi per modelli GPAI; applicazione delle regole di governance |
| 2 agosto 2026 | Applicazione completa per sistemi di IA ad alto rischio |
| 2 agosto 2027 | Requisiti per IA ad alto rischio (Allegato I) per alcune legislazioni sulla sicurezza dei prodotti |
Categorie di rischio
Pratiche di IA proibite (Articolo 5)[2]
Le seguenti pratiche di IA sono vietate dal 2 febbraio 2025:
- Manipolazione subliminale: IA che sfrutta vulnerabilità oltre la consapevolezza cosciente
- Sfruttamento di vulnerabilità: Mirato a età, disabilità o condizioni socio-economiche
- Social scoring: Classificazione delle persone basata sul comportamento che porta a trattamenti dannosi
- Polizia predittiva: Predizione individuale di crimini basata solo sul profiling
- Raccolta facciale non mirata: Creazione di database di riconoscimento facciale da fonti pubbliche
- Riconoscimento delle emozioni: Nei luoghi di lavoro e nelle istituzioni educative (con eccezioni)
- Categorizzazione biometrica: Inferenza di attributi sensibili come razza, politica o religione
- Identificazione biometrica remota in tempo reale: Negli spazi pubblici per le forze dell'ordine (con eccezioni)
Sistemi di IA ad alto rischio (Articolo 6)[3]
I sistemi di IA in questi ambiti sono soggetti a requisiti rigorosi:
- Identificazione e categorizzazione biometrica
- Gestione delle infrastrutture critiche (energia, trasporti, acqua, gas)
- Istruzione e formazione professionale (ammissioni, valutazioni)
- Occupazione (reclutamento, valutazione delle prestazioni, licenziamento)
- Accesso ai servizi essenziali (credit scoring, servizi di emergenza)
- Forze dell'ordine (valutazione delle prove, valutazione del rischio)
- Migrazione e controllo delle frontiere
- Giustizia e processi democratici
Modelli di IA a scopo generale (GPAI)
I fornitori di modelli GPAI devono:
- Mantenere la documentazione tecnica
- Fornire informazioni per la conformità dei fornitori a valle
- Stabilire politiche di conformità al copyright
- Pubblicare riepiloghi dei contenuti di addestramento
GPAI a rischio sistemico (modelli addestrati con >10^25 FLOPs) hanno obblighi aggiuntivi tra cui test avversari e segnalazione degli incidenti.[4]
Requisiti per l'IA ad alto rischio
| Requisito | Descrizione |
|---|---|
| Gestione del rischio | Stabilire, documentare e mantenere un sistema di gestione del rischio |
| Governance dei dati | Garantire che i dati di addestramento siano rilevanti, rappresentativi e privi di errori |
| Documentazione tecnica | Documentazione dettagliata del sistema prima dell'immissione sul mercato |
| Registrazione | Registrazione automatica delle operazioni del sistema |
| Trasparenza | Istruzioni chiare per l'utente e informazioni sulle capacità |
| Supervisione umana | Consentire la supervisione e l'intervento umano |
| Precisione e robustezza | Prestazioni coerenti nei casi d'uso previsti |
| Sicurezza informatica | Protezione contro accessi non autorizzati e manipolazioni |
Obbligo di alfabetizzazione sull'IA (Articolo 4)
Dal 2 febbraio 2025, tutti i fornitori e utilizzatori devono garantire:
"Il personale e le altre persone che si occupano dell'operazione e dell'uso dei sistemi di IA per loro conto hanno un livello sufficiente di alfabetizzazione sull'IA."[5]
Questo si applica ampiamente a tutti i casi d'uso dell'IA, non solo ai sistemi ad alto rischio.
Sanzioni
- Pratiche di IA proibite: fino a 35 milioni di € o il 7% del fatturato globale
- Violazioni ad alto rischio: fino a 15 milioni di € o il 3% del fatturato globale
- Informazioni errate: fino a 7,5 milioni di € o l'1% del fatturato globale[6]
Le PMI e le startup possono beneficiare di limiti proporzionali.
Azioni chiave per gli sviluppatori
- Classificare i propri sistemi di IA in base al livello di rischio
- Documentare i casi d'uso dell'IA e gli scopi previsti
- Implementare programmi di alfabetizzazione sull'IA per tutto il personale
- Valutare gli obblighi per l'IA ad alto rischio se applicabile
- Monitorare i requisiti GPAI per l'uso di modelli di base
- Prepararsi alle valutazioni di conformità (sistemi ad alto rischio)