AI-forordningen
Formål: I AI-forordningen reguleres kunstig intelligens gjennom en risikobasert tilnærming, hvor AI-systemer kategoriseres i fire risikonivåer: uakseptabelt, høy, begrenset og minimal. Applikasjoner med uakseptabel risiko er ulovlig. Ved høy risiko gjelder strengere krav, inkludert krav om transparens, datakvalitet og menneskelig tilsyn for å sikre sikkerhet og overholdelse. Applikasjoner med lavere risiko pålegges færre forpliktelser, noe som fremmer innovasjon samtidig som det beskytter grunnleggende rettigheter og offentlige interesser. Forordningen omfatter også regulering av generelle AI-modeller («GPAI»).
Omfang: AI-forordningen er spesielt relevant for utviklere av AI, bedrifter, offentlige organer som utvikler AI-systemer for eget bruk, og alle som benytter AI i profesjonell sammenheng. Forordningen fastsetter forpliktelser som disse aktørene må oppfylle for å sikre at deres AI-systemer er trygge, etiske og i samsvar med EU-regelverket. Det er viktig å merke seg at brukere («deployers») av GPAI kan overgå til å bli tilbydere av AI. Denne overgangen medfører ytterligere ansvar utover det som er forbundet med bare å bruke teknologien.
Viktige forpliktelser: Forpliktelsene virksomheter underlegges etter AI-forordningen varierer avhengig av rollen til virksomheten og risikoen forbundet med det aktuelle AI-systemet eller GPAI. Forpliktelser kan inkludere gjennomføring av grundige risikovurderinger, sikring av transparens og forklarbarhet i AI-systemene, overholdelse av standarder for datastyring, samt kontinuerlig vedlikehold av overvåking og rapportering av AI-systemets ytelse.
- Forordning om kunstig intelligens (AI-forordningen) Regulation – EU – 2024/1689 – EN – EUR-LexThe AI Act Explorer | EU Artificial Intelligence Act
- Dato for ikrafttredelse i EU: 1. august 2024. Lovens krav gjelder gradvis over tid.
- Status/rute for Norge: EØS-relevant – vil bli implementert i Norge. Det er foreløpig ikke kjent når dette vil skje.