DE SOCIALE MEDIER BØR FORBEDRE DERES INDHOLDSMODERATION

Ingen bør eksponeres for skadeligt eller ulovligt digitalt indhold.

Men særligt børn har krav på beskyttelse. I dag er der for mange børn og unge, som fortæller om at blive udsat for skadeligt og ulovligt indhold online. Det viser analyser fra for eksempel Red Barnet og Børns Vilkår.  

I Digitalt Ansvar har vi selv undersøgt, hvor hurtigt sårbare brugere på TikTok eksponeres for selvskade- og selvmordsrelateret indhold. Her så vi, at ud af fire sårbare brugere, har to af brugerne allerede efter et kvarter et feed, der i intervaller eksponerer brugeren for mellem 70-80% depressions- og selvskaderelateret indhold. De to andre brugere er på samme tidspunkt få minutter fra at ende i et lignende feed. Læs mere om undersøgelsen her.  

Læs desuden mere om nødvendigheden af indholdsmoderation i vores analyser af forældrekontrol på de sociale medier, som har fokus på henholdsvis Instagrams nye teenageprofiler og danske forældres brug af og holdninger til forældrekontrol.  

Relaterede publikationer

maj
 
2024

Bag om Google og Bings anmeldelsessystem

Vi har undersøgt Google Search og Microsoft Bings anmeldelsessystem ved at indgive en række anmeldelser af søgeresultater, der henviser til hjemmesider med manipuleret seksuelt materiale – også kendt som ’deepfake porno’.

november
 
2025

Søgemaskiners ansvar for udbredelsen af falske nøgenbilleder

Digitalt Ansvar har gentaget vores undersøgelse af søgemaskinernes ansvar for udbredelsen af manipuleret seksuelt materiale (også kendt som deepfake porno) fra 2024. Analysen viser, at Google fortsat leder brugere videre til materialet, men at Bing og DuckDuckGo har forbedret deres praksis væsentligt.

februar
 
2024

Google og Bing: Reklamesøjle for falske nøgenbilleder

En undersøgelse af søgemaskinernes ansvar for spredningen af manipuleret seksuelt materiale - også kendt som 'deepfake porno'.

Hjælp til digital vold