AI-loven
AI-loven

Lov om kunstig intelligens

Verdens første omfattende lovgivning om kunstig intelligens – for nogen måtte jo være den første

AI-loven er verdens første omfattende lovramme for kunstig intelligens. Den bygger på en risikobaseret tilgang: Jo større risiko dit AI-system udgør, desto strengere er reglerne. Fra forbudte fremgangsmåder (som f.eks. social scoring) til minimums krav til chatbots med lav risiko dækker denne lovgivning hele spektret af AI-anvendelser.

Omfang

Ethvert AI-system, der markedsføres i EU, eller hvis resultater anvendes i EU — uanset hvor udbyderen er etableret. Hvis din AI berører EU-borgere, berører AI-loven dig.

Geografisk dækning

I hele EU, med ekstraterritorial rækkevidde for udbydere uden for EU, hvis AI-systemer anvendes inden for EU.

Trådt i kraft den

1. august 2024 (gradvis indførelse: forbud fra februar 2025, forpligtelser vedrørende højrisiko fra august 2026, fuldstændig gennemførelse senest august 2027)

Formål

For at sikre, at AI-systemer i EU er sikre, gennemsigtige og respekterer de grundlæggende rettigheder. Og for at skabe retssikkerhed for AI-udviklere og opbygge offentlighedens tillid. For at sige »tro os, algoritmen er i orden« var ikke længere nok.

Gå til din rolle:

AI-udbyder

Du udvikler eller bestiller et AI-system og markedsfører det eller tager det i brug under dit eget navn. Det er dig, der har udviklet det – eller i det mindste den, hvis navn står på emballagen. Hvis du har trænet modellen, designet systemet eller sat dit varemærke på det, er du udbyderen.

Dine forpligtelser

  • Klassificer dit AI-systems risikoniveau: uacceptabelt, højt, begrænset eller minimalt (artikel 6, bilag III)
  • For kunstig intelligens med høj risiko: indføre et kvalitetsstyringssystem, der dækker hele livscyklussen (artikel 17)
  • Der skal foretages en overensstemmelsesvurdering, inden systemet markedsføres (artikel 43)
  • Registrering af højrisikosystemer baseret på kunstig intelligens i EU-databasen (artikel 49)
  • Give de anvendende parter gennemsigtige oplysninger – herunder kapaciteter, begrænsninger og det tilsigtede formål (artikel 13)
  • Risikostyring skal gennemføres i hele AI-systemets livscyklus (artikel 9)
  • Sikre styring af træningsdata: relevans, repræsentativitet og fravær af bias (artikel 10)
  • Sikre menneskelig overvågning af AI-systemets drift (artikel 14)
  • Føre teknisk dokumentation og logfiler (art. 11–12)
  • Indberet alvorlige hændelser til myndighederne (art. 62)

Vigtige artikler

Art. 6 — Regler for klassificering§ 9 — Risikostyring§ 10 — Datastyring§ 13 — Gennemsigtighed§ 14 — Menneskelig overvågning§ 17 — KvalitetsstyringArtikel 43 — OverensstemmelsesvurderingArtikel 49 — Registrering i EU-databasenBilag III — AI-systemer med høj risiko
Et godt råd

Vent ikke til august 2026 med at klassificere dine AI-systemer. Kom i gang nu – klassificeringen afgør alt det, du ellers skal gøre. Et regneark i dag sparer dig for panik senere.

AI-implementeringsværktøj

Du bruger et AI-system under dit ansvar – til professionelle formål, ikke som slutbruger. Hvis du har købt eller erhvervet en licens til et AI-værktøj og implementeret det i din organisations arbejdsgange, er du en implementeringsansvarlig. Du har ikke selv udviklet modellen, men du har valgt at bruge den, og det medfører et ansvar.

Dine forpligtelser

  • Brug AI-systemet i overensstemmelse med udbyderens anvisninger (art. 26.1) – brugsanvisningen findes af en grund
  • Sørg for, at der udøves menneskelig tilsyn af kompetent personale (artikel 26, stk. 2)
  • Overvåge AI-systemets drift og indberette fejl til udbyderen (art. 26.5)
  • Gennemføre en konsekvensanalyse vedrørende grundlæggende rettigheder (FRIA) for højrisiko-AI i visse sektorer (artikel 27)
  • Oplys de berørte personer om, at de er genstand for beslutninger truffet af kunstig intelligens (artikel 26, stk. 7) – især i forbindelse med genkendelse af følelser eller biometrisk kategorisering
  • Opbevar logfiler genereret af AI-systemet med høj risiko i mindst 6 måneder (artikel 26, stk. 6)
  • Samarbejde med nationale myndigheder, når der anmodes herom (artikel 26, stk. 8)

Vigtige artikler

§ 26 — Udbyderens forpligtelserArtikel 27 — Vurdering af indvirkningen på de grundlæggende rettigheder§ 86 — Ret til en forklaring
Et godt råd

Når du vurderer AI-leverandører, skal du spørge dem direkte: »Hvilket risikoniveau er dette system klassificeret som i henhold til AI-loven, og kan I fremlægge dokumentation for overensstemmelse?« Hvis de ser forvirrede ud, siger det noget.

AI-importør

Du bringer AI-systemer fra lande uden for EU ind på EU-markedet. Du fungerer som porten – hvis en udbyder uden for EU ønsker at sælge AI i Europa, er det ofte dig, der sørger for, at det sker. Dermed følger et ansvar for at kontrollere, at det, du importerer, rent faktisk opfylder EU’s krav.

Dine forpligtelser

  • Kontroller, at leverandøren har foretaget overensstemmelsesvurderingen (artikel 23, stk. 1)
  • Sørg for, at AI-systemet er forsynet med CE-mærket og ledsages af den krævede dokumentation (artikel 23, stk. 1)
  • Kontroller, at udbyderen har udpeget en bemyndiget repræsentant i EU (artikel 23, stk. 2)
  • Du må ikke markedsføre et system, hvis du har grund til at tro, at det ikke opfylder kravene (artikel 23, stk. 3)
  • Sørg for, at opbevarings- og transportforholdene ikke bringer overholdelsen af reglerne i fare (artikel 23.4)
  • Opbevar en kopi af EU-overensstemmelseserklæringen i 10 år (artikel 23, stk. 5)

Vigtige artikler

§ 23 — Importørens forpligtelserArtikel 43 — OverensstemmelsesvurderingArtikel 47 — EU-overensstemmelseserklæring§ 48 — CE-mærkning
Et godt råd

Indbyg overensstemmelseskontroller i din importproces fra første dag. Det er billigere at have en tjekliste end at skulle tilbagekalde et AI-system.

AI-distributør

Du markedsfører AI-systemer uden selv at være leverandør eller importør. Tænk på forhandlere, markedspladser eller integrationspartnere. Du er en del af forsyningskæden, og AI-loven kræver, at alle i kæden gør deres del.

Dine forpligtelser

  • Kontroller, at AI-systemet er forsynet med CE-mærket og er ledsaget af den krævede dokumentation (artikel 24, stk. 1)
  • Du må ikke stille et system til rådighed, hvis du har grund til at tro, at det ikke overholder kravene (art. 24.2)
  • Sørg for, at opbevarings- og transportforholdene ikke bringer overholdelsen af reglerne i fare (artikel 24, stk. 3)
  • Underret leverandøren eller importøren, hvis du mener, at systemet udgør en risiko (artikel 24, stk. 4)
  • Samarbejde med de kompetente myndigheder og fremlægge oplysninger, når der anmodes herom (artikel 24, stk. 5)

Vigtige artikler

§ 24 — Forhandlerens forpligtelser§ 25 — Ansvar i AI-værdikæden
Et godt råd

Før nøje regnskab over din AI-forsyningskæde. Hvis du ved præcis, hvem der har leveret hvad, hvornår og med hvilken dokumentation, sparer du dig selv for en masse besvær, når (ikke hvis) myndighederne spørger.

Hvordan Euregas kan hjælpe

Tilgængelige værktøjer

  • AI-systemregister — opret en oversigt over alle AI-systemer i din organisation med metadata og risikoniveauer
  • Risikoklassificering (4 niveauer) — struktureret vurdering i overensstemmelse med kategorierne i bilag III
  • FRIA-skabelon — Vurdering af indvirkningen på de grundlæggende rettigheder med 12 spørgsmål
  • Køreplan for overholdelse af reglerne opdelt efter risikoniveau — en trinvis vejledning, der er tilpasset dit klassificeringsresultat

AI-understøttede funktioner

  • AI-drevet risikoklassificering — automatiseret sammenligning med bilag III ved hjælp af RAG med konfidensscorer og medvirkende faktorer
  • Konsulentguide (ai_act_classification) — 5-trins guidet klassificering med AI-analyse i hvert trin
  • Semantisk søgning i artiklerne og betragtningerne i AI-loven
Bemærk

AI-lovmodulet indeholder Euregas' mest omfattende AI-integration i forhold til en enkelt lovgivning. Risikoklassificeringen anvender RAG-baseret analyse til at sammenholde dit AI-system med kategorierne i bilag III.

Alle eksempler er fiktive og tjener udelukkende til illustrative formål.