En smartphone med et Instagram opslag fra Digitalt Ansvar

EU’s forbud mod krænkende AI-systemer risikerer ikke at beskytte ofre godt nok

Kvinde med AI-genereret ansigt og ordet fake over
Organisationerne peger i holdningspapiret især på to spørgsmål, der bør afklares i det endelige forbud: Hvad tæller som en seksuel krænkelse? Og hvordan skal der bevises, at der er samtykke til at fremstille manipuleret seksuelt materiale af en ægte person?
Udgivet d.
7/5/2026

EU forhandler lige nu et nyt forbud mod AI-systemer, der kan fremstille manipuleret seksuelt materiale uden samtykke. Digitalt Ansvar kalder forslaget banebrydende, men advarer sammen med syv andre organisationer i et nyt holdningspapir om, at forbuddet kan blive for snævert og derfor ikke beskytte ofre tilstrækkeligt.

Deepfake porno, eller manipuleret seksuelt materiale, som Digitalt Ansvar betegner det krænkende fænomen, er i dag et voksende problem pga. AI. Vi ser det med de såkaldte nudify-apps, hvor man hurtigt kan “afklæde” personer på billeder og videoer, hjemmesider dedikerede til den type indhold og tjenester, hvor man direkte kan bestille manipuleret seksuelt materiale af konkrete personer uden deres samtykke.

Derfor er det også positivt, at EU lige nu drøfter et forbud mod AI-systemer, der kan fremstille manipuleret seksuelt materiale af identificerbare personer uden samtykke.

Forbuddet er et banebrydende skridt i forebyggelsen af digital vold og noget, Digitalt Ansvar længe har efterspurgt.  

I et nyt holdningspapir opfordrer Digitalt Ansvar, Dansk Kvindesamfunds Krisecentre, Dansk Stalking Center, DareGender, Julemærkehjemmene, KVINFO, Mediesundhed for børn og unge og Søstre mod vold og kontrol dog EU’s institutioner til at præcisere det endelige forbud med en bekymring om, at det ellers vil efterlade væsentlige huller i beskyttelsen af potentielle ofre.

- For ofrene er skaden ikke mindre, bare fordi et billede ikke viser eksplicit nøgenhed eller er animeret. Hvis en genkendelig person bliver fremstillet seksualiseret uden samtykke, bør det være omfattet af forbuddet. Bliver forbuddet for snæver, risikerer det at svigte ofrene og opretholde status quo, siger Ask Hesby Holm, direktør i Digitalt Ansvar.

Seksualisering kræver ikke synlige kønsdele

Organisationerne peger i holdningspapiret især på to spørgsmål, der bør afklares i det endelige forbud: Hvad tæller som en seksuel krænkelse? Og hvordan skal det bevises, at der er samtykke til at fremstille manipuleret seksuelt materiale af en ægte person?

Rådets forhandlingsposition lægger nemlig op til, at forbuddet ikke skal omfatte “realistiske delvist nøgne fremstillinger, hvor intime kropsdele ikke afsløres”.

Det afgørende bør dog ikke være, om et AI-genereret billede eller video viser fuld nøgenhed eller intime kropsdele, men om en identificerbar person uden samtykke fremstilles i en seksuel kontekst, forklarer direktør i Digitalt Ansvar.

- En person kan godt blive seksualiseret gennem AI-genereret materiale uden at blive vist helt nøgen eller med kønsdele. For eksempel hvis en identificerbar person placeres i en overgrebsscene eller i en anden tydeligt seksualiseret situation, siger Ask Hesby Holm.

Samtykke må ikke reduceres til et flueben

Organisationerne advarer samtidig om, at det ikke må være nok, at en bruger bare klikker ja til, at der er samtykke.  

Rådet lægger op til, at samtykke skal være “frit, specifikt, informeret, utvetydigt og eksplicit”, hvilket er positivt. Men det bør præciseres, at samtykket skal komme fra den identificerbare person, der fremstilles, ikke blot fra brugeren, der uploader eller genererer materialet, pointerer direktør i Digitalt Ansvar.

- Et flueben fra brugeren, der ønsker at generere manipuleret seksuelt materiale, må aldrig være nok. Samtykket skal komme fra den person, der fremstilles, og udbyderen af de her AI-tjenester skal have ansvar for at sikre samtykket. Ellers risikerer vi, at tjenesterne bare kan fortsætte som før, siger Ask Hesby Holm.

Holdningspapiret anbefaler derudover bl.a., at forbuddet også bør dække lyd, ikke kun billeder og video, som det fremgår af parlamentets forhandlingsposition. Samtidig må et snævert krav om realisme ikke skabe nye gråzoner, hvor materiale med filtre, forvrængninger eller tydelige AI-fejl falder uden for forbuddet.

Holdningspapiret er støttet af Digitalt Ansvar, Dansk Kvindesamfunds Krisecentre, Dansk Stalking Center, DareGender, Julemærkehjemmene, KVINFO, Mediesundhed for børn og unge og Søstre mod vold og kontrol.

Fakta:
  • EU forhandler lige nu den såkaldte AI Omnibus, som skal forenkle AI Act og justere tidsplanen for implementeringen. I den forbindelse drøftes et forbud mod AI-systemer, der kan fremstille manipuleret seksuelt materiale af identificerbare personer uden samtykke. Europa-Parlamentets forhandlingsposition kan læses her, og Rådets forhandlingsposition kan læses her.
  • I et nyt holdningspapir anbefaler Digitalt Ansvar, Dansk Kvindesamfunds Krisecentre, Dansk Stalking Center, DareGender, Julemærkehjemmene, KVINFO, Mediesundhed for børn og unge og Søstre mod vold og kontrol, at den endelige bestemmelse bør præciseres efter følgende punkter:
  1. Et realismekrav bør ikke fortolkes snævert: Dårlig kvalitet, fejl eller anatomisk urealistiske fremstillinger af offeret bør ikke begrænse forbuddets anvendelse.  
  1. Forbuddet bør ikke afhænge af fuld nøgenhed eller synlige intime kropsdele: Det afgørende bør være, om outputtet samlet set fremstiller en identificerbar person i en seksualiseret, truende eller ydmygende seksuel kontekst uden samtykke.
  1. Forbuddet bør også dække lyd, ikke kun billede og video: Ikke-samtykkebaseret seksualisering kan også ske ved at manipulere identificerbare personers stemmer.  
  1. Samtykke skal sikres: Forbuddet må ikke kunne omgås ved, at brugeren blot erklærer, at der foreligger samtykke. Fx med en tjekboks. Samtykket skal komme fra den identificerbare person, der fremstilles i materialet.
  1. Begrebet ”effektive sikkerhedsforanstaltninger” må ikke udhule forbuddet: Hvis den endelige bestemmelse indeholder en undtagelse for AI-systemer med “effektive sikkerhedsforanstaltninger”, bør det præciseres, at sådanne foranstaltninger skal være reelle, dokumenterbare og egnede til at forhindre produktion af ikke-samtykkebaseret seksuelt eller seksualiserende materiale af identificerbare personer.

Hjælp til digital vold