---
title: "Compliance First i en AI-kontekst"
description: "Fra AI-interesse til ansvarlig AI i offentlig kommunikation."
date: "2026-03-13"
created: "2026-03-09"
---

# Compliance First i en AI-kontekst

Sådan går I fra AI-interesse til ansvarlig AI.

[Hjem](https://moliri.dk/)

                    [Viden](https://moliri.dk/viden)

                [Compliance First i en AI-kontekst](https://moliri.dk/viden/compliance-first-i-en-ai-kontekst)

AI-genereret opsummering

                                Siden fokuserer på overgangen fra AI-interesse til ansvarlig AI i offentlig kommunikation, hvor AI allerede er en integreret del af organisationer. Den understreger vigtigheden af organisatorisk parathed, compliance og god struktur for at sikre ansvarlig anvendelse af AI, herunder opfyldelse af krav som GDPR og AI Act. Der lægges vægt på, at succes med AI kræver mere end teknologi – det handler om governance, roller, ansvar og dokumentation. Moliri tilbyder en tilgang med principper som "Compliance First" for at hjælpe organisationer med at blive AI-parate og opnå tryghed i deres anvendelse. Siden henvender sig til offentlige organisationer, der ønsker at implementere AI sikkert og effektivt.

## Fra AI-interesse til ansvarlig AI i offentlig kommunikation

AI er ikke længere et fremtidsscenarie. Den er allerede en aktiv medspiller i jeres organisation.

Medarbejdere eksperimenterer, og bliver inddraget i brugen af AI, f.eks. med Co-pilot, ChatGPT, eller ubevidst gennem anvendelsen af tjenester, som benytter AI som understøttende teknologi.

AI-agenter læser og tolker jeres indhold ud fra den kontekst som prompten kommanderede. Slutbrugerne forventer hurtigere og mere præcise svar. De svar de ikke bryder sig om, kan hurtigt omformuleres til et for slutbrugeren enigt synspunkt. Eller nye regulatoriske krav, som presser sig på.

## AI er klar – men er I som organisation AI parate?

Ansvarlig AI kræver mere end teknologi.

I moliri arbejder vi med princippet **Compliance First** – fordi offentlig kommunikation ikke blot handler om effektivitet, men om tillid, sikkerhed og demokratisk ansvar. Vi møder det typisk gennem følgende krav til compliance: WCAG, GDPR, NIS2, AI ACT. AI skal ikke blot implementeres. Den skal integreres med styring, gennemsigtighed og mennesket i centrum.

En forståelse som er godt indrammet i begrebet **Hybrid Intelligens** af professor Jacob Sherson fra Center for Hybrid Intelligens fra Aarhus Universitet. Her bliver menneskelig samarbejde med AI, indrammet ud fra 4 P’er: Projects, Platform, Policies, People. Hvor People er Human in the loop, der skal mønstre rammerne for anvendelsen af AI. Målet er en bevidst sammensmeltning af kunstig intelligens og menneskelig dømmekraft.

## Den virkelige udfordring: Ikke teknologi – men struktur

Når AI-initiativer fejler, skyldes det sjældent teknologien, men oftere:

- Manglende governance

- Uklar rollefordeling og styring

- Utilstrækkelig datastruktur

- Fravær af ledelsesmæssig retning

Mange offentlige organisationer befinder sig i en mellemtilstand:  AI er “noget, vi kigger på”.  Eller ja, vi tester en AI Chatbot på vores indhold, som har mange fejl, men på sigt kan det blive det godt. Uden en samlet ramme risikerer man enten passivitet eller ukontrolleret brug.

Begge dele kan have store konsekvenser for måden jeres data og indhold bliver anvendt. Det er der allerede mange uheldige eksempler på.

Særligt nu, hvor AI-agenter systematisk crawler, fortolker og genbruger indhold. Jeres kommunikation er ikke længere kun rettet mod mennesker – den bliver også læst og operationaliseret af maskiner. Det ændrer kravene til struktur, metadata, konsistens og dokumentation.

AI-parathed handler derfor ikke om at købe værktøjer. Det handler om at skabe organisatorisk modenhed.

## AI-parathed som ledelsesdisciplin

Vi anbefaler at betragte AI-parathed som en forandringsrejse. En kendt model for håndtering af forandring er ADKAR-modellen som med succes kan bruges til forankring af AI, menneskeligt og organisatorisk – ikke blot teknisk.

AwarenessDesireKnowledgeAbilityReinforcement

## Awareness

**Awareness** handler om at erkende, at AI allerede er i spil. Ikke kun som strategi, men i hverdagen. Bevidstheden skal løftes fra enkeltpersoners brug til fælles organisatorisk forståelse.

Spørg jer selv:

- Hvem bruger AI i dag – og hvordan?

- Har vi styr på data og sikkerhed?

- Har vi en holdning til human-in-the-loop?

- Ved vi, hvilke AI-agenter der besøger vores indhold?

## Awareness

**Awareness** handler om at erkende, at AI allerede er i spil. Ikke kun som strategi, men i hverdagen. Bevidstheden skal løftes fra enkeltpersoners brug til fælles organisatorisk forståelse.

Spørg jer selv:

- Hvem bruger AI i dag – og hvordan?

- Har vi styr på data og sikkerhed?

- Har vi en holdning til human-in-the-loop?

- Ved vi, hvilke AI-agenter der besøger vores indhold?

                                Luk

## Desire

**Desire** opstår, når ledelsen formår at adressere motivation og bekymringer konstruktivt. Offentlig AI-implementering skal ikke true faglighed – den skal styrke den. Den skal frigøre tid til kerneopgaver, ikke udhule kvaliteten.

Spørg jer selv:

- Mister vi kontrol?

- Hvad med kvaliteten?

- Hvad med datasikkerheden?

- Hvad betyder det for medarbejderne?

- Hvad betyder det for borgerne?

## Desire

**Desire** opstår, når ledelsen formår at adressere motivation og bekymringer konstruktivt. Offentlig AI-implementering skal ikke true faglighed – den skal styrke den. Den skal frigøre tid til kerneopgaver, ikke udhule kvaliteten.

Spørg jer selv:

- Mister vi kontrol?

- Hvad med kvaliteten?

- Hvad med datasikkerheden?

- Hvad betyder det for medarbejderne?

- Hvad betyder det for borgerne?

                                Luk

## Knowledge

**Knowledge** kræver oplysning. Organisationen skal forstå, hvordan AI-agenter arbejder, hvad struktureret indhold betyder, hvordan synlighed ændrer karakter i en AI-drevet søgeverden (GEO), og hvorfor kontrol med dataflows (MCP) er en strategisk nødvendighed.

Spørg jer selv:

- Forstår vi vigtigheden med struktureret indhold?

- Er der konsistens i vores arbejdsmetodik?

- Kan vi dokumenterer brugen af vores indhold?

- Beskytter vi brugen af vores datagrundlag?

## Knowledge

**Knowledge** kræver oplysning. Organisationen skal forstå, hvordan AI-agenter arbejder, hvad struktureret indhold betyder, hvordan synlighed ændrer karakter i en AI-drevet søgeverden (GEO), og hvorfor kontrol med dataflows (MCP) er en strategisk nødvendighed.

Spørg jer selv:

- Forstår vi vigtigheden med struktureret indhold?

- Er der konsistens i vores arbejdsmetodik?

- Kan vi dokumenterer brugen af vores indhold?

- Beskytter vi brugen af vores datagrundlag?

                                Luk

## Ability

**Ability** opstår først, når rammerne er på plads. Struktureret indhold. Klare roller. Defineret human-in-the-loop. Dokumenteret governance. Uden dette forbliver AI et eksperiment.

Spørg jer selv:

- Er indhold er struktureret?

- Er roller defineret?

- Er Human-in-the-loop kortlagt og koordineret?

- Er arbejdet med Governance tydelig og forstået?

## Ability

**Ability** opstår først, når rammerne er på plads. Struktureret indhold. Klare roller. Defineret human-in-the-loop. Dokumenteret governance. Uden dette forbliver AI et eksperiment.

Spørg jer selv:

- Er indhold er struktureret?

- Er roller defineret?

- Er Human-in-the-loop kortlagt og koordineret?

- Er arbejdet med Governance tydelig og forstået?

                                Luk

## Reinforcement

**Reinforcement** sikrer, at AI ikke bliver et projekt – men en praksis. Her er løbende indsigt, måling og justering afgørende. Hybrid Intelligens kræver vedvarende ledelsesopmærksomhed.

Spørg jer selv:

- Er der løbende måling?

- Har vi indsigt i anvendelse?

- Er der løbende justering af governance?

- Er der dokumentation af effekt?

## Reinforcement

**Reinforcement** sikrer, at AI ikke bliver et projekt – men en praksis. Her er løbende indsigt, måling og justering afgørende. Hybrid Intelligens kræver vedvarende ledelsesopmærksomhed.

Spørg jer selv:

- Er der løbende måling?

- Har vi indsigt i anvendelse?

- Er der løbende justering af governance?

- Er der dokumentation af effekt?

                                Luk

### Med Compliance First bliver I AI parat

Compliance First betyder, at vi vender implementeringsrækkefølgen om.

I stedet for at sige: *“Lad os teste noget AI”*, siger vi: *“Lad os sikre struktur, ansvar og overblik – og derefter aktivere AI sikkert.”*

I moliri har vi indbygget Compliance First som arkitekturprincip. Det betyder:

- Governance er ikke et tillæg – det er fundamentet
- Roller og ansvar er tydelige og kontrolleret
- Indhold struktureres, så det kan læses korrekt – også af AI agenter
- Human-in-the-loop er designet ind der, hvor der anvendes AI i administrationen
- moliri Insights giver løbende overblik over anvendelse og effekt
- Automatisk dokumentation og logføring på al anvendelse af AI

Når utallige AI-agenter besøger og genbruger offentligt indhold, bliver struktur en beskyttelsesmekanisme. Uden struktur mister I kontrol over kontekst og kvalitet. En konsekvens som kan medføre mistillid, fejlbetjening, eller øget sagsbehandling af jeres brugere. Med Compliance First får I struktur, bevarer styringen og bliver dermed AI parate som organisation.
