AI-loven
AI-loven

Lov om kunstig intelligens

Verdens første omfattende lov om kunstig intelligens – fordi noen måtte ta det første skrittet

AI-loven er verdens første omfattende lovverk for kunstig intelligens. Den bygger på en risikobasert tilnærming: jo større risiko AI-systemet ditt utgjør, desto strengere er reglene. Fra forbudte praksiser (som sosial vurdering) til minimums krav for chatbots med lav risiko, dekker denne forskriften hele spekteret av AI-applikasjoner.

Omfang

Ethvert AI-system som markedsføres i EU eller hvis resultater brukes i EU – uavhengig av hvor leverandøren er etablert. Hvis din AI berører EU-borgere, gjelder AI-loven for deg.

Geografisk rekkevidde

I hele EU, med ekstraterritorial virkning for leverandører utenfor EU hvis AI-systemer brukes innenfor EU.

Gjeldende fra

1. august 2024 (trinnvis innføring: forbud fra februar 2025, forpliktelser knyttet til høy risiko fra august 2026, full gjennomføring innen august 2027)

Formål

For å sikre at AI-systemer i EU er sikre, gjennomsiktige og respekterer grunnleggende rettigheter. Og for å skape rettssikkerhet for AI-utviklere og bygge opp tillit hos publikum. For «stol på oss, algoritmen er i orden» holdt ikke lenger.

Gå til din rolle:

AI-leverandør

Du utvikler eller bestiller et AI-system og bringer det på markedet eller tar det i bruk under ditt eget navn. Det er du som har laget det – eller i det minste den som står oppført på esken. Hvis du har trent modellen, utviklet systemet eller satt ditt varemerke på det, er du leverandøren.

Dine forpliktelser

  • Klassifiser risikonivået til AI-systemet ditt: uakseptabelt, høyt, begrenset eller minimalt (art. 6, vedlegg III)
  • For kunstig intelligens med høy risiko: innføre et kvalitetsstyringssystem som omfatter hele livssyklusen (art. 17)
  • Gjennomføre en samsvarsvurdering før systemet bringes i omsetning (art. 43)
  • Registrer AI-systemer med høy risiko i EUs database (art. 49)
  • Gi klar og tydelig informasjon til brukerne – herunder funksjoner, begrensninger og formål (art. 13)
  • Gjennomføre risikostyring gjennom hele AI-systemets livssyklus (art. 9)
  • Sikre styring av treningsdata: relevans, representativitet og fravær av skjevheter (art. 10)
  • Sikre menneskelig tilsyn med driften av AI-systemet (art. 14)
  • Føre teknisk dokumentasjon og logger (art. 11–12)
  • Meld alvorlige hendelser til myndighetene (art. 62)

Viktige artikler

Art. 6 — Klassifiseringsregler§ 9 — Risikostyring§ 10 — Datastyring§ 13 – Åpenhet§ 14 — Menneskelig tilsyn§ 17 — Kvalitetsstyring§ 43 — KonformitetsvurderingArt. 49 — Registrering i EU-databasenVedlegg III – AI-systemer med høy risiko
Proff-tips

Ikke vent til august 2026 med å klassifisere AI-systemene dine. Sett i gang nå – klassifiseringen avgjør alt annet du må gjøre. Et regneark i dag sparer deg for panikk senere.

AI-implementeringsverktøy

Du bruker et AI-system under ditt ansvar – i yrkesmessig sammenheng, ikke som sluttbruker. Hvis du har kjøpt eller lisensiert et AI-verktøy og tatt det i bruk i organisasjonens arbeidsflyt, er du en implementerer. Du har ikke utviklet modellen selv, men du har valgt å bruke den, og det medfører et ansvar.

Dine forpliktelser

  • Bruk AI-systemet i henhold til leverandørens instruksjoner (art. 26.1) – bruksanvisningen finnes av en grunn
  • Sikre menneskelig tilsyn utført av kompetent personell (art. 26.2)
  • Overvåke driften av AI-systemet og rapportere feil til leverandøren (art. 26.5)
  • Gjennomføre en konsekvensutredning av grunnleggende rettigheter (FRIA) for kunstig intelligens med høy risiko i visse sektorer (art. 27)
  • Informer enkeltpersoner om at de er gjenstand for beslutninger truffet av kunstig intelligens (art. 26.7) – særlig når det gjelder følelsesgjenkjenning eller biometrisk kategorisering
  • Oppbevar logger generert av AI-systemet med høy risiko i minst 6 måneder (art. 26.6)
  • Samarbeide med nasjonale myndigheter når dette blir bedt om (art. 26.8)

Viktige artikler

§ 26 — Utplasseringsansvarliges forpliktelserArt. 27 — Konsekvensutredning av grunnleggende rettigheter§ 86 — Rett til forklaring
Proff-tips

Når du vurderer AI-leverandører, bør du spørre dem direkte: «Hvilket risikonivå er dette systemet klassifisert som i henhold til AI-loven, og kan dere fremlegge dokumentasjon på samsvar?» Hvis de ser forvirrede ut, sier det deg noe.

AI-importør

Du bringer AI-systemer fra land utenfor EU inn på EU-markedet. Du fungerer som inngangsport – hvis en leverandør utenfor EU ønsker å selge AI i Europa, er det ofte du som gjør det mulig. Med det følger ansvaret for å kontrollere at det du importerer faktisk oppfyller EUs krav.

Dine forpliktelser

  • Kontroller at leverandøren har gjennomført samsvarsvurderingen (art. 23.1)
  • Sørg for at AI-systemet er CE-merket og at det følger med nødvendig dokumentasjon (art. 23.1)
  • Kontroller at leverandøren har utpekt en autorisert representant i EU (art. 23.2)
  • Du må ikke bringe et system i omsetning hvis du har grunn til å tro at det ikke oppfyller kravene (art. 23.3)
  • Sørg for at lagrings- og transportforholdene ikke går på bekostning av regelverket (art. 23.4)
  • Oppbevar en kopi av EU-samsvarserklæringen i 10 år (art. 23.5)

Viktige artikler

§ 23 — Importørens forpliktelser§ 43 — KonformitetsvurderingArt. 47 — EUs samsvarserklæringArt. 48 — CE-merking
Proff-tips

Innfør samsvarskontroller i importprosessen din fra første dag. Det er billigere å ha en sjekkliste enn å måtte trekke et AI-system tilbake.

AI-distributør

Du gjør AI-systemer tilgjengelige på markedet uten å være leverandør eller importør. Tenk for eksempel på en forhandler, en markedsplass eller en integrasjonspartner. Du er en del av forsyningskjeden, og AI-loven krever at alle i kjeden gjør sin del.

Dine forpliktelser

  • Kontroller at AI-systemet er CE-merket og har den nødvendige dokumentasjonen (art. 24.1)
  • Ikke gjør et system tilgjengelig hvis du har grunn til å tro at det ikke oppfyller kravene (art. 24.2)
  • Sørg for at lagrings- og transportforholdene ikke svekker overholdelsen av regelverket (art. 24.3)
  • Informer leverandøren eller importøren dersom du mener at systemet utgjør en risiko (art. 24.4)
  • Samarbeide med kompetente myndigheter og gi opplysninger når dette blir bedt om (art. 24.5)

Viktige artikler

§ 24 — Forhandlerens forpliktelser§ 25 — Ansvar langs verdikjeden for kunstig intelligens
Proff-tips

Før oversikt over din AI-forsyningskjede. Å vite nøyaktig hvem som har levert hva, når og med hvilken dokumentasjon, vil spare deg for hodebry når (ikke hvis) myndighetene spør.

Hvordan Euregas kan hjelpe

Tilgjengelige verktøy

  • AI-systemregister – registrer alle AI-systemer i organisasjonen din med metadata og risikonivåer
  • Risikoklassifisering (4 nivåer) — strukturert vurdering i samsvar med kategoriene i vedlegg III
  • FRIA-mal – Vurdering av virkninger på grunnleggende rettigheter med 12 spørsmål
  • Veikart for samsvar etter risikonivå — trinnvis veiledning tilpasset klassifiseringsresultatet ditt

AI-støttede funksjoner

  • AI-drevet risikoklassifisering — automatisert samsvaringsprosess for vedlegg III ved hjelp av RAG, med konfidensskårer og medvirkende faktorer
  • Veiviser for klassifisering (ai_act_classification) — Veiledet klassifisering i fem trinn med AI-analyse i hvert trinn
  • Semantisk søk i artiklene og betraktningene i AI-loven
Merknad

AI-lovmodulen har Euregas’ mest omfattende AI-integrasjon for en enkelt forskrift. Risikoklassifiseringen benytter RAG-basert analyse for å sammenligne AI-systemet ditt med kategoriene i vedlegg III.

Alle eksemplene er fiktive og brukes kun til illustrasjonsformål.