DE SOCIALE MEDIER BØR FORBEDRE DERES INDHOLDSMODERATION

Ingen bør eksponeres for skadeligt eller ulovligt digitalt indhold.
Men særligt børn har krav på beskyttelse. I dag er der for mange børn og unge, som fortæller om at blive udsat for skadeligt og ulovligt indhold online. Det viser analyser fra for eksempel Red Barnet og Børns Vilkår.
I Digitalt Ansvar har vi selv undersøgt, hvor hurtigt sårbare brugere på TikTok eksponeres for selvskade- og selvmordsrelateret indhold. Her så vi, at ud af fire sårbare brugere, har to af brugerne allerede efter et kvarter et feed, der i intervaller eksponerer brugeren for mellem 70-80% depressions- og selvskaderelateret indhold. De to andre brugere er på samme tidspunkt få minutter fra at ende i et lignende feed. Læs mere om undersøgelsen her.
Læs desuden mere om nødvendigheden af indholdsmoderation i vores analyser af forældrekontrol på de sociale medier, som har fokus på henholdsvis Instagrams nye teenageprofiler og danske forældres brug af og holdninger til forældrekontrol.
Relaterede publikationer
Bag om Google og Bings anmeldelsessystem
Vi har undersøgt Google Search og Microsoft Bings anmeldelsessystem ved at indgive en række anmeldelser af søgeresultater, der henviser til hjemmesider med manipuleret seksuelt materiale – også kendt som ’deepfake porno’.
Søgemaskiners ansvar for udbredelsen af falske nøgenbilleder
Digitalt Ansvar har gentaget vores undersøgelse af søgemaskinernes ansvar for udbredelsen af manipuleret seksuelt materiale (også kendt som deepfake porno) fra 2024. Analysen viser, at Google fortsat leder brugere videre til materialet, men at Bing og DuckDuckGo har forbedret deres praksis væsentligt.
Google og Bing: Reklamesøjle for falske nøgenbilleder
En undersøgelse af søgemaskinernes ansvar for spredningen af manipuleret seksuelt materiale - også kendt som 'deepfake porno'.



