---
title: "GDPR møder dit billedbibliotek"
description: "Med AI-baseret billedanalyse kan I opdage billeder med ansigter uden dokumenteret samtykke."
date: "2026-03-19"
created: "2026-03-19"
---

# GDPR møder dit billedbibliotek

Med AI-baseret billedanalyse kan I opdage billeder med ansigter uden dokumenteret samtykke.

[Hjem](https://moliri.dk/)

                    [Viden](https://moliri.dk/viden)

                [GDPR møder dit billedbibliotek](https://moliri.dk/viden/gdpr-moeder-dit-billedbibliotek)

## Det oversete hjørne af GDPR-compliance

Når organisationer tænker GDPR, tænker de på cookiebannere, databehandleraftaler og ret til sletning. Sjældent tænker de på billedbiblioteket.

Men billedbiblioteket er et af de mest oversete compliance-risici på et website. Hver gang et billede med et genkendeligt ansigt publiceres, behandler organisationen biometriske data i GDPR's forstand. Og uden dokumenteret samtykke fra den afbildede person er den behandling potentielt ulovlig.

Problemet er skala. En gennemsnitlig offentlig organisations billedbibliotek indeholder tusindvis af billeder — fra arrangementer, medarbejderportrætter, borgerhistorier, stockfotos og nyhedsartikler. At gennemgå hvert enkelt billede manuelt for at afgøre, om det indeholder genkendelige ansigter, og om samtykke er dokumenteret, er en opgave, der i praksis aldrig bliver gjort systematisk.

## Problemets omfang

Se på de typiske kilder til billeder med ansigter i en organisations billedbibliotek:

- **Eventfotografering.** Konferencer, seminarer, borgermøder, åbent hus-arrangementer. Fotografen har taget 200 billeder. En redaktør har uploadet de bedste 50. Hvem har sikret samtykke fra hver genkendelig person?
- **Medarbejderbilleder.** En medarbejder stopper. Billedet fjernes fra "Om os"-siden men ligger stadig i billedbiblioteket — og bruges muligvis på en nyhedsartikel fra 2022.
- **Borgerhistorier og cases.** Et billede fra et borgerarrangement. Deltagerne har givet samtykke til historien, men hvad med personerne i baggrunden?
- **Stockfotos med model release.** Model release dækker typisk specifik brug. Hvis billedet genbruges i en ny kontekst, gælder den originale release muligvis ikke.

Fælles for alle scenarier er, at problemet ikke er synligt i det daglige. Billederne ligger i biblioteket, de bruges på sider, og ingen stiller spørgsmål — indtil nogen gør.

## Manuelle audits skalerer ikke

Den traditionelle tilgang er manuel gennemgang: En medarbejder åbner billedbiblioteket, klikker sig igennem billede for billede, vurderer om der er ansigter, og tjekker om samtykke er registreret.

For et bibliotek med 5.000 billeder er dette urealistisk som en løbende proces. Selv som en årlig audit er det fejlbehæftet — mennesker overser billeder, misser ansigter i baggrunden, og dokumentationen er uensartet.

## Derfor bruger vi AI-baseret ansigtsgenkendelse i moliri

En helt anderledes tilgang er at bruge AI-baseret billedanalyse til automatisk at scanne billedbiblioteket for billeder, der indeholder genkendelige ansigter — og krydsreferere med samtykkestatus. Processen i moliri er som følger:

1. Automatisk scanning: Hvert billede i biblioteket analyseres med en ansigtsgenkendelsesmodel, der identificerer, om billedet indeholder et eller flere menneskelige ansigter.
2. Samtykkestatus**:** Billedets metadata tjekkes for dokumenteret samtykke. Har redaktøren eksplicit markeret, at samtykke er indhentet?
3. Risikoflagning**:** Billeder, der indeholder ansigter *uden* dokumenteret samtykke, flagges automatisk og vises i et governance-dashboard.

Resultatet er ikke en liste over GDPR-brud — det er en liste over billeder, der *kræver opmærksomhed*. Noget viser sig måske at være i orden (samtykke er indhentet men ikke registreret i systemet). Andet kan kræve handling (billedet skal fjernes eller samtykke skal indhentes).

### Hvad dette muliggør

Med automatiseret scanning ændrer compliance-dynamikken sig:

- **Fra punkt-audit til kontinuerlig monitorering.** I stedet for én årlig gennemgang scannes nye billeder løbende, og risikobillederne vises i realtid.
- **Fra gætværk til præcision.** I stedet for at spørge "har vi styr på samtykke?" kan organisationen sige "vi har 47 billeder med ansigter, hvor samtykke ikke er dokumenteret — her er de."
- **Fra compliance-angst til handlekraft.** En konkret liste med billeder og links er håndterbar. Et uoverskueligt billedbibliotek er det ikke.

## Billedstyring som governance-disciplin

Billeder i et CMS er ikke bare dekoration. De er digitale aktiver med juridiske implikationer: ophavsret, persondatalovgivning, model release og tilgængelighedskrav (alt-tekster).

Organisationer, der behandler deres billedbibliotek som en ustruktureret dumping-ground, opbygger risiko over tid. Dem, der behandler det som en styret samling med metadata, samtykke og livscyklusstyring, reducerer risiko og forbedrer kvaliteten af deres digitale tilstedeværelse.

AI-baseret ansigtsdetektion er blot ét eksempel på, hvordan teknologi kan gøre governance operationel i stedet for teoretisk. Det samme princip gælder for automatisk scanning for døde links, tilgængelighedsfejl og forbudte ord: Lad maskinen finde problemerne. Lad mennesket løse dem.

## Konklusion

GDPR-compliance stopper ikke ved cookiebanneret. Billedbiblioteket er et reelt risikoområde, der kræver systematisk opmærksomhed — og som i praksis kun kan håndteres i skala med automatisering.

Organisationer, der kombinerer AI-baseret billedanalyse med governance-dashboards, får et konkret værktøj til at identificere og håndtere samtykkesrisici, før de bliver til klager eller tilsynssager.

Spørgsmålet til jeres organisation: Hvor mange billeder med genkendelige ansigter har I i jeres billedbibliotek — og hvor mange af dem har dokumenteret samtykke?
