Loi sur l'IA

Loi sur l'intelligence artificielle

Vue d'ensemble

Le règlement européen sur l'IA est le premier règlement horizontal complet au monde sur l'intelligence artificielle. Adopté en mars 2024 et entrant en vigueur le 1er août 2024, il établit un cadre basé sur les risques qui catégorise les systèmes d'IA selon leur potentiel de préjudice et impose des exigences en conséquence.[1]

Le règlement vise à garantir que les systèmes d'IA mis sur le marché de l'UE sont sûrs, respectent les droits fondamentaux et favorisent l'innovation grâce à une sécurité juridique.

Dates d'application progressive

DateÉtape clé
1er août 2024Entrée en vigueur de la loi sur l'IA
2 février 2025Pratiques d'IA interdites bannies ; obligations de littératie en IA applicables
2 août 2025Obligations des modèles GPAI ; règles de gouvernance applicables
2 août 2026Application complète pour les systèmes d'IA à haut risque
2 août 2027Exigences pour l'IA à haut risque (Annexe I) dans certaines législations sur la sécurité des produits

Catégories de risques

Pratiques d'IA interdites (Article 5)[2]

Les pratiques d'IA suivantes sont interdites à partir du 2 février 2025 :

  • Manipulation subliminale : IA exploitant des vulnérabilités au-delà de la conscience
  • Exploitation des vulnérabilités : Ciblage de l'âge, du handicap ou des circonstances socio-économiques
  • Notation sociale : Classification des personnes basée sur le comportement menant à un traitement préjudiciable
  • Policing prédictif : Prédiction individuelle de la criminalité basée uniquement sur le profilage
  • Collecte faciale non ciblée : Création de bases de données de reconnaissance faciale à partir de sources publiques
  • Reconnaissance des émotions : Dans les lieux de travail et établissements éducatifs (avec exceptions)
  • Catégorisation biométrique : Inférence d'attributs sensibles comme la race, la politique ou la religion
  • Identification biométrique à distance en temps réel : Dans les espaces publics pour les forces de l'ordre (avec exceptions)

Systèmes d'IA à haut risque (Article 6)[3]

Les systèmes d'IA dans ces domaines sont soumis à des exigences strictes :

  • Identification et catégorisation biométrique
  • Gestion des infrastructures critiques (énergie, transport, eau, gaz)
  • Éducation et formation professionnelle (admissions, évaluations)
  • Emploi (recrutement, évaluation des performances, licenciement)
  • Accès aux services essentiels (notation de crédit, services d'urgence)
  • Application de la loi (évaluation des preuves, évaluation des risques)
  • Migrations et contrôle des frontières
  • Justice et processus démocratiques

Modèles d'IA à usage général (GPAI)

Les fournisseurs de modèles GPAI doivent :

  • Maintenir une documentation technique
  • Fournir des informations pour la conformité des fournisseurs en aval
  • Établir des politiques de conformité au droit d'auteur
  • Publier des résumés du contenu de formation

GPAI à risque systémique (modèles entraînés avec >10^25 FLOPs) ont des obligations supplémentaires incluant des tests adverses et la déclaration d'incidents.[4]

Exigences pour l'IA à haut risque

ExigenceDescription
Gestion des risquesÉtablir, documenter et maintenir un système de gestion des risques
Gouvernance des donnéesAssurer que les données d'entraînement sont pertinentes, représentatives et sans erreur
Documentation techniqueDocumentation détaillée du système avant la mise sur le marché
Tenue de registresEnregistrement automatique des opérations du système
TransparenceInstructions claires pour l'utilisateur et informations sur les capacités
Supervision humainePermettre la supervision et l'intervention humaines
Précision et robustessePerformance constante dans les cas d'utilisation prévus
CybersécuritéProtection contre les accès non autorisés et la manipulation

Obligation de littératie en IA (Article 4)

À partir du 2 février 2025, tous les fournisseurs et déployeurs doivent garantir :

"Le personnel et les autres personnes impliquées dans l'exploitation et l'utilisation des systèmes d'IA en leur nom disposent d'un niveau suffisant de littératie en IA."[5]

Cela s'applique largement à tous les cas d'utilisation de l'IA, pas seulement aux systèmes à haut risque.

Sanctions

  • Pratiques d'IA interdites : Jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial
  • Violations des systèmes à haut risque : Jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires mondial
  • Informations incorrectes : Jusqu'à 7,5 millions d'euros ou 1 % du chiffre d'affaires mondial[6]

Les PME et startups peuvent bénéficier de plafonds proportionnels.

Actions clés pour les développeurs

  1. Classifiez vos systèmes d'IA par niveau de risque
  2. Documentez les cas d'utilisation de l'IA et les finalités prévues
  3. Mettez en œuvre des programmes de littératie en IA pour tout le personnel
  4. Évaluez les obligations pour les systèmes à haut risque si applicable
  5. Surveillez les exigences GPAI pour l'utilisation des modèles de base
  6. Préparez-vous aux évaluations de conformité (systèmes à haut risque)

Sources & Références

[1]
Règlement (UE) 2024/1689 établissant des règles harmonisées sur l'intelligence artificielle. EUR-Lex : Texte officiel de la loi sur l'IA
[2]
Article 5 de la loi sur l'IA : Pratiques d'IA interdites. Explorateur de la loi sur l'IA : Article 5
[3]
Article 6 de la loi sur l'IA : Règles de classification pour les systèmes d'IA à haut risque. Explorateur de la loi sur l'IA : Article 6
[4]
Obligations des modèles d'IA à usage général. Commission européenne : Obligations GPAI
[5]
Article 4 de la loi sur l'IA : Littératie en IA. Explorateur de la loi sur l'IA : Article 4
[6]
Article 99 de la loi sur l'IA : Sanctions. Explorateur de la loi sur l'IA : Article 99