Loi sur l'IA
Loi sur l'IA

Loi sur l'intelligence artificielle

La première loi au monde consacrée à l'intelligence artificielle dans son ensemble — parce qu'il fallait bien que quelqu'un fasse le premier pas

La loi sur l'IA est le premier cadre juridique complet au monde consacré à l'intelligence artificielle. Elle repose sur une approche fondée sur les risques : plus le risque présenté par votre système d'IA est élevé, plus les règles sont strictes. Des pratiques interdites (comme la notation sociale) aux exigences minimales pour les chatbots à faible risque, cette réglementation couvre l'ensemble des applications de l'IA.

Champ d'application

Tout système d'IA mis sur le marché de l'UE ou dont les résultats sont utilisés dans l'UE, quel que soit le lieu d'établissement du fournisseur. Si votre IA concerne des citoyens de l'UE, la loi sur l'IA vous concerne.

Couverture géographique

à l'échelle de l'Union européenne, avec une portée extraterritoriale pour les prestataires non européens dont les systèmes d'IA sont utilisés au sein de l'Union européenne.

En vigueur depuis

1er août 2024 (mise en œuvre progressive : interdictions à partir de février 2025, obligations relatives aux activités à haut risque à partir d'août 2026, application intégrale d'ici août 2027)

Objectif

Pour garantir que les systèmes d'IA dans l'UE soient sûrs, transparents et respectent les droits fondamentaux. Mais aussi pour offrir une sécurité juridique aux développeurs d'IA et renforcer la confiance du public. Car l'argument « faites-nous confiance, l'algorithme fonctionne bien » ne suffisait plus.

Accéder à votre rôle:

Fournisseur d'IA

Vous développez ou faites développer un système d'IA et vous le commercialisez ou le mettez en service sous votre propre nom. C'est vous qui l'avez créé — ou du moins, c'est votre nom qui figure sur l'emballage. Si vous avez entraîné le modèle, conçu le système ou apposé votre marque dessus, c'est vous qui en êtes le fournisseur.

Vos obligations

  • Évaluez le niveau de risque de votre système d'IA : inacceptable, élevé, limité ou minimal (art. 6, annexe III)
  • Pour l'IA à haut risque : mettre en place un système de gestion de la qualité couvrant l'ensemble du cycle de vie (art. 17)
  • Procéder à une évaluation de la conformité avant la mise sur le marché du système (art. 43)
  • Enregistrer les systèmes d'IA à haut risque dans la base de données de l'UE (art. 49)
  • Fournir des informations claires aux utilisateurs, notamment sur les capacités, les limites et l'usage prévu (art. 13)
  • Mettre en œuvre la gestion des risques tout au long du cycle de vie du système d'IA (art. 9)
  • Garantir la gouvernance des données d'apprentissage : pertinence, représentativité et absence de biais (art. 10)
  • Assurer un contrôle humain du fonctionnement du système d'IA (art. 14)
  • Tenir à jour la documentation technique et les registres (art. 11-12)
  • Signaler les incidents graves aux autorités (art. 62)

Articles phares

Art. 6 — Règles de classificationArt. 9 — Gestion des risquesArt. 10 — Gouvernance des donnéesArt. 13 — TransparenceArt. 14 — Contrôle humainArt. 17 — Gestion de la qualitéArt. 43 — Évaluation de la conformitéArt. 49 — Enregistrement dans la base de données de l'UEAnnexe III — Systèmes d'IA à haut risque
Conseil de pro

N'attendez pas août 2026 pour classer vos systèmes d'IA. Commencez dès maintenant : cette classification détermine toutes les autres mesures que vous devrez prendre. Un tableau Excel aujourd'hui vous évitera de paniquer plus tard.

Déployeur d'IA

Vous utilisez un système d'IA sous votre responsabilité — à des fins professionnelles, et non en tant que simple utilisateur final. Si vous avez acheté ou acquis une licence pour un outil d'IA et que vous l'avez intégré au flux de travail de votre organisation, vous êtes un déployeur. Vous n'avez pas développé le modèle, mais vous avez choisi de l'utiliser, ce qui implique certaines responsabilités.

Vos obligations

  • Utilisez le système d'IA conformément aux instructions du fournisseur (art. 26.1) — le manuel n'est pas là pour rien
  • Veiller à ce que la surveillance soit assurée par du personnel compétent (art. 26.2)
  • Surveiller le fonctionnement du système d'IA et signaler tout dysfonctionnement au fournisseur (art. 26.5)
  • Réaliser une analyse d'impact sur les droits fondamentaux (FRIA) pour les IA à haut risque dans certains secteurs (art. 27)
  • Informer les personnes concernées qu'elles font l'objet de décisions prises par l'IA (art. 26.7) — en particulier en matière de reconnaissance des émotions ou de classification biométrique
  • Conserver les journaux générés par le système d'IA à haut risque pendant au moins six mois (art. 26.6)
  • Coopérer avec les autorités nationales lorsque celles-ci en font la demande (art. 26.8)

Articles phares

Art. 26 — Obligations de l'exploitantArt. 27 — Évaluation de l'impact sur les droits fondamentauxArt. 86 — Droit à une explication
Conseil de pro

Lorsque vous évaluez des fournisseurs d'IA, demandez-leur directement : « À quel niveau de risque ce système est-il classé au regard de la loi sur l'IA, et pouvez-vous fournir les documents attestant de sa conformité ? » S'ils semblent perplexes, cela en dit long.

Importateur IA

Vous commercialisez sur le marché européen des systèmes d'IA provenant de pays tiers. Vous jouez un rôle clé : lorsqu'un fournisseur non européen souhaite vendre des systèmes d'IA en Europe, c'est souvent grâce à vous que cela devient possible. Cela implique la responsabilité de vérifier que les produits que vous importez répondent bien aux exigences de l'UE.

Vos obligations

  • Vérifier que le prestataire a procédé à l'évaluation de la conformité (art. 23.1)
  • S'assurer que le système d'IA porte le marquage CE et est accompagné de la documentation requise (art. 23.1)
  • Vérifier que le prestataire a désigné un mandataire dans l'Union européenne (art. 23, paragraphe 2)
  • Ne mettez pas un système sur le marché si vous avez des raisons de croire qu'il n'est pas conforme (art. 23.3)
  • Veiller à ce que les conditions de stockage et de transport ne compromettent pas la conformité (art. 23.4)
  • Conservez une copie de la déclaration de conformité UE pendant 10 ans (art. 23, paragraphe 5)

Articles phares

Art. 23 — Obligations de l'importateurArt. 43 — Évaluation de la conformitéArt. 47 — Déclaration de conformité de l'UEArt. 48 — Marquage CE
Conseil de pro

Intégrez des contrôles de conformité à votre processus d'importation dès le début. Il est moins coûteux d'avoir une liste de contrôle que de devoir rappeler un système d'IA.

Distributeur d'IA

Vous commercialisez des systèmes d'IA sans en être le fournisseur ni l'importateur. Pensez par exemple à un revendeur, à une place de marché ou à un partenaire d'intégration. Vous faites partie de la chaîne d'approvisionnement, et la loi sur l'IA (AI Act) exige que chaque maillon de cette chaîne joue son rôle.

Vos obligations

  • Vérifier que le système d'IA porte le marquage CE et dispose de la documentation requise (art. 24.1)
  • Ne mettez pas un système à disposition si vous avez des raisons de croire qu'il n'est pas conforme (art. 24.2)
  • Veiller à ce que les conditions de stockage et de transport ne compromettent pas la conformité (art. 24.3)
  • Si vous estimez que le système présente un risque, veuillez en informer le fournisseur ou l'importateur (art. 24.4)
  • Coopérer avec les autorités compétentes et fournir les informations demandées (art. 24.5)

Articles phares

Art. 24 — Obligations du distributeurArt. 25 — Responsabilités tout au long de la chaîne de valeur de l'IA
Conseil de pro

Conservez une trace de votre chaîne d'approvisionnement en IA. Savoir précisément qui a fourni quoi, quand et avec quels documents vous évitera bien des soucis lorsque (et non pas « si ») une autorité de régulation vous le demandera.

Comment Euregas peut vous aider

Outils disponibles

  • Registre des systèmes d'IA — répertoriez tous les systèmes d'IA de votre organisation en y associant des métadonnées et des niveaux de risque
  • Classification des risques (4 niveaux) — évaluation structurée alignée sur les catégories de l'annexe III
  • Modèle FRIA — Évaluation de l'impact sur les droits fondamentaux en 12 questions
  • Feuille de route de mise en conformité par niveau de risque — des conseils étape par étape adaptés à votre résultat de classification

Fonctionnalités assistées par l'IA

  • Classification des risques basée sur l'IA — mise en correspondance automatisée avec l'annexe III à l'aide du RAG, avec des scores de confiance et des facteurs contributifs
  • Assistant de consultation (ai_act_classification) — Classement guidé en 5 étapes avec analyse par IA à chaque étape
  • Recherche sémantique dans les articles et les considérants de la loi sur l'IA
Remarque

Le module consacré à la loi sur l'IA offre l'intégration de l'IA la plus poussée proposée par Euregas pour une réglementation spécifique. La classification des risques s'appuie sur une analyse basée sur le modèle RAG afin de mettre en correspondance votre système d'IA avec les catégories de l'annexe III.

Tous les exemples sont fictifs et ne servent qu'à des fins d'illustration.