AI-forordningen

AI-forordningen utgjør et omfattende regulatorisk rammeverk i EU, designet for å veilede utviklingen, implementeringen og bruken av kunstig intelligens i medlemslandene. Målet er å sikre at AI-systemer er sikre, transparente og ansvarlige, samtidig som forordningen støtter innovasjon og beskytter grunnleggende rettigheter.

Formål: I AI-forordningen reguleres kunstig intelligens gjennom en risikobasert tilnærming, hvor AI-systemer kategoriseres i fire risikonivåer: uakseptabelt, høy, begrenset og minimal. Applikasjoner med uakseptabel risiko er ulovlig. Ved høy risiko gjelder strengere krav, inkludert krav om transparens, datakvalitet og menneskelig tilsyn for å sikre sikkerhet og overholdelse. Applikasjoner med lavere risiko pålegges færre forpliktelser, noe som fremmer innovasjon samtidig som det beskytter grunnleggende rettigheter og offentlige interesser. Forordningen omfatter også regulering av generelle AI-modeller («GPAI»).

Omfang: AI-forordningen er spesielt relevant for utviklere av AI, bedrifter, offentlige organer som utvikler AI-systemer for eget bruk, og alle som benytter AI i profesjonell sammenheng. Forordningen fastsetter forpliktelser som disse aktørene må oppfylle for å sikre at deres AI-systemer er trygge, etiske og i samsvar med EU-regelverket. Det er viktig å merke seg at brukere («deployers») av GPAI kan overgå til å bli tilbydere av AI. Denne overgangen medfører ytterligere ansvar utover det som er forbundet med bare å bruke teknologien.

Viktige forpliktelser: Forpliktelsene virksomheter underlegges etter AI-forordningen varierer avhengig av rollen til virksomheten og risikoen forbundet med det aktuelle AI-systemet eller GPAI. Forpliktelser kan inkludere gjennomføring av grundige risikovurderinger, sikring av transparens og forklarbarhet i AI-systemene, overholdelse av standarder for datastyring, samt kontinuerlig vedlikehold av overvåking og rapportering av AI-systemets ytelse.

Korte fakta