Selvskade på sociale medier

Sociale medier som TikTok og Instagram eksponerer brugere for indhold med selvskade, der kan skabe mistrivsel og fremme selvskadende adfærd.

Hvad er selvskade på sociale medier?

Selvskade på sociale medier kaldes også digital selvskade, som oftest kommer til udtryk gennem delinger af billeder, der viser fysisk selvskade, digital selvmobning eller self-baiting.

Digitalisering af fysisk selvskade er kendetegnet ved, at personer, der har skadet sig selv fysisk, deler billeder eller videoer af selvskaden online, f.eks. på sociale medier.

Digital selvmobning består i, at et individ mobber sig selv ved hjælp af anonyme eller falske profiler, og self-baiting er en form for digital selvskade, hvor et individ bruger sig selv som lokkemad for had eller grove reaktioner ved fx at dele kontroversielle eller selvnedgørende indlæg, billeder eller udsagn.

I Danmark og internationalt har der de seneste år været fokus på netværk centreret om selvskade, da de kan virke stimulerende på selvskadende adfærd og kan være farlige at indgå i, som fx på Instagram. Digital selvskade er opstået som fænomen sideløbende med en stigning i fysisk selvskade.

I Danmark beretter fagfolk fra psykiatrien om en markant stigning i fysisk selvskade over de seneste 10-20 år, og internationale undersøgelser bekræfter et lignende billede. Eksperter peger på, at de sociale medier kan have bidraget til stigningen i selvskadende adfærd. Til Red Barnet fortæller Lotte Rubæk, Leder af Team for selvskade i børne- og ungdomspsykiatrien i Region Hovedstaden, at hendes patienter ofte har fået idéen til at skade sig selv igennem et socialt medie. Hun ser også, hvordan selvskaden eskalerer, når de unge først er blevet fanget af algoritmerne og i de sociale dynamikker, som opstår omkring selvskade online.

Du kan læse mere om digital vold og selvskade i Digitalt Ansvars rapport fra 2023.
Læs rapporten: Digital vold og selvskade

Hvor udbredt er digital selvskade?

Ifølge Digitalt Ansvars undersøgelse fra 2023, så har 4 % af danskere over 18 år, der bruger internettet minimum en gang om ugen, udsat sig selv for digital selvskade indenfor det sidste år. Heraf har 2% udsat sig selv for digital selvmobning, 2% har delt materiale af fysisk selvskade og 1% har udsat sig selv for self-baiting. Da digital selvskade endnu er et relativt nyt fænomen, er det vanskeligt at vurdere, om tallet er højt eller peger på en eventuel stigning.
Fordelt på alder kan vi se, at blandt de 18-34-årige har 10% udsat sig selv for en eller flere former for digital selvskade. Af de 35-55-årige har 3% udsat sig selv for digital selvskade, og fra 56 år og op efter er det 0%. Andelen af danskere, der indenfor det sidste år har begået digital selvskade, falder altså med alderen. Hvis man vejer tallene op imod tal fra Danmarks Statistik, svarer det til, at knap 100.000 danskere i aldersgruppen 18-55 år har udsat sig selv for digital selvskade inden for det seneste år.

Forstærker sociale medier selvskadende adfærd?

Sociale medier kan fungere som platforme for digitalisering af fysisk selvskade, hvor brugere deler billeder og videoer med hinanden i fællesskaber – grupper, sider og fora – der på forskellig vis er målrettet personer med de samme eller lignende udfordringer. Sådanne digitale fællesskaber kan for personer med selvskadende adfærd fungere som uformelle, selvhjælpslignende grupper, der kan give den enkelte en oplevelse af at være mindre alene, og hvor den enkelte kan dele svære følelser og søge hjælp og støtte hos andre, der kæmper med tilsvarende udfordringer.

Samtidig kan grupperne være medvirkende til, at den enkelte lader sig inspirere til nye former for selvskade og opretholder eller endda eskalerer den selvskadende adfærd. Det kan f.eks. ske i et forsøg på at opnå og beholde støtte og sympati fra de andre i fællesskabet. Der kan også opstå sammenligning og konkurrence mellem medlemmerne af fællesskabet, hvis selvskadens sværhedsgrad, eller hvor ofte der selvskades, opfattes som et direkte udtryk for, hvor dårligt man har det psykisk. Samtidig opstår der, i lighed med andre online fællesskaber, en ”radikalisering” af den selvskadende adfærd, fordi der sker en normalisering af ”status quo”, og der dermed skal mere og mere ekstremt indhold til for at aktivere en respons fra andre brugere.
Læs også: Skadeligt og ulovligt indhold
Det at opnå omsorg og støtte fra andre på baggrund af et selvskadeopslag er med til at sammenkoble en farlig adfærd – selvskade – med en ”belønning” i form af likes og kommentarer. Det kan medføre, at den selvskadende adfærd forstærkes, idet brugeren vil have incitament til at skade sig selv oftere for at opnå samme respons.

Sociale medier har stor indflydelse på det indhold, brugerne ser. Algoritmerne bag platforme som TikTok og Instagram skaber et feed baseret på brugerens interaktioner, hvilket betyder, at personer, der viser interesse for selvskaderelateret indhold, hurtigt kan blive eksponeret for mere af det samme. Eksponering for selvskadeindhold kan øge risikoen for at begynde eller fortsætte med selvskadende adfærd.

TikToks algoritme: Fra første like til ekkokammer

”pill diet, pill diet (...) if they say to kill yourself, then you will try it”.

Sådan kunne sangteksten til tonerne af et dystert selvskaderelateret opslag på TikToks Til dig-side lyde. ’Til dig’ er det algoritmebaserede feed, du møder, når du åbner app’en.

Feedet er designet til hurtigt at tilpasse sig den enkelte bruger baseret på interaktioner som likes, kommentarer og afspilningstid. Digitalt Ansvars undersøgelse af TikToks Til dig-algoritme fra 2024 viser, at sårbare profiler, der interagerer med blot én video om selvskade eller depression, hurtigt vil blive eksponeret for op til 80-100% selvskaderelateret indhold i deres feed.

Det kan være emner som selvskade, selvmord, psykiske lidelser og spiseforstyrrelser. Herunder angst, depression, dårligt selvværd og andre svære følelser knyttet til sig selv. De sårbare profiler er kunstige profiler, som er oprettet til forsøget, og som alle er defineret af en interesse for de føromtalte emner.

For de fire sårbare profiler kommer frekvensen af indhold relateret til selvskade, selvmord og psykiske lidelser i perioder op på:
Efter første eksponering bliver de sårbare brugeres Til dig-side alle præget af en høj frekvens af selvskade- og selvmordsrelateret indhold – i kortere sekvenser på op til 80-100%.
Læs også: Hvad er TikTok?
Det betyder, at unge brugere, som måske kun har en overfladisk interesse for emnet, hurtigt kan blive trukket ind i et ekkokammer af skadeligt indhold.

Selv om TikTok har forbud mod eksplicitte billeder af selvskade, omgår brugere ofte disse restriktioner gennem skjulte budskaber i tekst, metaforer eller bestemte visuelle referencer. Det kan fx være en video af et umiddelbart udtryksløst ansigt – men hvor en voice-over fortæller: ”One cut here, one cut there, no one will see, and no one will care”.

I andre tilfælde kræver det mere forhåndsviden at afkode. Når fx der står ”opening the back of ur phone case after a bad day” på en video, skal man kende til trenden med at gemme barberblade i telefoncovers for at forstå, at det er en reference til selvskade.

Omskrivning er sandsynligvis en måde at omgå TikToks moderation. Moderationen fungerer, når det kommer til visuelle gengivelser af selvskade. Platformens manglende sikkerhedsmekanismer, herunder evnen til at aflæse de slet skjulte referencer til selvskade, betyder dog, at unge kan blive fastholdt i et feed af selvskadeindehold, der forstærker deres negative tanker.

Instagrams selvskadenetværk

Selvskadenetværk på Instagram er ikke et nyt fænomen. Allerede i 2020 dokumenterede DR i Døde pigers dagbog, hvordan unge i Danmark brugte platformen til at dele selvskade- og selvmordsindhold. Men fire år senere viser Digitalt Ansvars undersøgelse InstaHARM fra 2024, at Instagram stadig tillader denne type skadelige fællesskaber at eksistere.

Undersøgelsen er baseret på et netværk af private profiler oprettet specifikt til at teste Instagrams moderation. 85 opslag med selvskaderelateret indhold – herunder eksplicitte billeder – blev uploadet. Indholdet blev gradvist mere grafisk, men intet blev fjernet af platformen, selvom det klart overtræder Instagrams egne retningslinjer. Ingen af profilerne modtog advarsler eller henvisninger til hjælp.
Læs rapporten: InstaHARM
Tabellen viser andelen af selvskadeindhold, som Instagram fjernede i undersøgelsen. Kategorierne er udtryk for graden af eksplicit selvskade, hvor 1 er lavest.
Men Instagram er ikke blot en passiv platform, der undlader at slette skadeligt indhold. Undersøgelsen viser også, hvordan anbefalingsalgoritmen aktivt bidrager til at forstærke disse netværk. To nye profiler, registreret som 13-årige, blev oprettet. Da de fulgte én enkelt konto fra netværket, begyndte Instagram straks at anbefale dem resten af netværket.

Processen fremgår også af figuren nedenfor:
En 13-årig profil på Instagram følger en profil fra et privat selvskadenetværk, hvorefter den 13-årige profil af Instagram anbefales at følge de resterende profiler i netværket.
Instagrams anbefalingsalgoritme er altså med til at styrke netværk af brugere, der deler selvskaderelateret indhold. Dette skaber en risiko for, at unge, der søger hjælp eller fællesskab, i stedet bliver ledt dybere ind i destruktive selvskade-netværk.

Samtidig dokumenterer undersøgelsen, at kunstig intelligens med høj præcision kan identificere op til 88 % af det skadelige indhold. Instagram vælger imidlertid ikke at bruge teknologien effektivt – på trods af at de ifølge EU’s forordning om digitale tjenester (DSA) har pligt til netop dette.

Instagram under Meta lever derfor ikke op til DSA’ens krav. Platformen overtræder bl.a. artikel 14, stk. 4, der kræver proaktiv fjernelse af skadeligt indhold med bl.a. AI, og artikel 34-35, der forpligter til at begrænse systemiske risici for brugernes mentale og fysiske helbred – især for mindreårige. Det gælder både i forhold til manglende indholdsmoderation og algoritmer, der aktivt forstærker selvskadenetværk.

Digitalt ansvar anbefaler

Aldersverifikation på sociale medier

I Digitalt Ansvar anbefaler vi, at der skal være strengere krav til at verificere alder på sociale medier og andre digitale tjenester for at beskytte børn mod skadeligt indhold. Selvom aldersgrænsen på de fleste sociale medier er 13 år, er der ingen sikkerhedsmekanismer, der forhindrer yngre børn i at oprette sig som bruger.

September 2019

digitalt ansvar anbefaler

Særligt feed til børn og unge

Sociale medier bør have særlige algoritmer til børn og unge under 18, som stiller større sikkerhedskrav til indholdet og derfor mere effektivt kan beskytte børn mod negativ eksponering. I kombination med aldersverifikation vil en særlig Til dig-algoritme for børn og unge under 18, som stiller større sikkerhedskrav til indholdet, mere effektivt kunne beskytte børn mod negativ påvirkning.

September 2019

digitalt ansvar anbefaler

Strammere regulering af algoritmer

EU bør pålægge platforme at implementere "guardrails", der forhindrer spredning af destruktivt indhold. Guardrails er mekanismer, der sikrer, at algoritmen opererer etisk forsvarlig, sikkert og lovligt, og som minimerer risikoen for eksponering af skadeligt indhold og misbrug af data (Privacy and Safety by Design).

September 2019

Alle anbefalinger

No items found.
Clear
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
No items found.
March 2025

DE SOCIALE MEDIER BØR FORBEDRE DERES INDHOLDSMODERATION

Tech-virksomhederne bør prioritere at finde og fjerne skadeligt og ulovligt indhold samt indbygge større grad af sikkerhed i deres anbefalingsalgoritme.
March 2025

DE SOCIALE MEDIER BØR FORBEDRE DERES INDHOLDSMODERATION

Tech-virksomhederne bør prioritere at finde og fjerne skadeligt og ulovligt indhold samt indbygge større grad af sikkerhed i deres anbefalingsalgoritme.
Article link
December 2023

EU BØR PÅLÆGGE SOCIALE MEDIER AT INDFØRE ALDERSVERIFIKATION

I Digitalt Ansvar anbefaler vi, at sociale medier med aldersgrænse pålægges at indføre aldersverifikation, som forhindrer yngre børn i at oprette sig og sikrer, at børn på platformen omfattes af relevante sikkerhedstiltag.
December 2023

EU BØR PÅLÆGGE SOCIALE MEDIER AT INDFØRE ALDERSVERIFIKATION

I Digitalt Ansvar anbefaler vi, at sociale medier med aldersgrænse pålægges at indføre aldersverifikation, som forhindrer yngre børn i at oprette sig og sikrer, at børn på platformen omfattes af relevante sikkerhedstiltag.
Article link
June 2023

DET BØR VÆRE LIGE SÅ SIKKERT AT GÅ PÅ APP-STORE SOM PÅ APOTEKET

I Digitalt Ansvar anbefaler vi, at sociale medier indfører Safety By Design. Det indebærer sikkerhedstiltag, som beskytter brugerne og sikrer, at medierne opererer etisk forsvarlig, sikkert og lovligt, og som minimerer risikoen for eksponering af skadeligt indhold og misbrug af data.
June 2023

DET BØR VÆRE LIGE SÅ SIKKERT AT GÅ PÅ APP-STORE SOM PÅ APOTEKET

I Digitalt Ansvar anbefaler vi, at sociale medier indfører Safety By Design. Det indebærer sikkerhedstiltag, som beskytter brugerne og sikrer, at medierne opererer etisk forsvarlig, sikkert og lovligt, og som minimerer risikoen for eksponering af skadeligt indhold og misbrug af data.
Article link
October 2023

OFRE FOR DIGITALE KRÆNKELSER OG VOLD SKAL HAVE BEDRE HJÆLP

Alt for mange udsættes for digital vold og chikane uden at modtage den rette hjælp.
October 2023

OFRE FOR DIGITALE KRÆNKELSER OG VOLD SKAL HAVE BEDRE HJÆLP

Alt for mange udsættes for digital vold og chikane uden at modtage den rette hjælp.
Article link
Kontorartikler på en reol.
March 2023

REGERINGEN BØR KRIMINALISERE ÅBENLYS VISUEL GENGIVELSE AF SELVSKADE

En kriminalisering af åbenlyst visuelt indhold af selvskade vil betyde, at sociale medier straks skal tage skridt til at fjerne det pågældende indhold eller hindre adgangen dertil, hvis de får konkret kendskab til det. Kriminaliseringen bør tage højde for, at det virker uhensigtsmæssigt at straffe psykisk sårbare, der deler gengivelse af selvskade, men derimod hensigtsmæssigt at digitale tjenester som sociale medier ikke tillader deling af selvskade indhold.
Kontorartikler på en reol.
March 2023

REGERINGEN BØR KRIMINALISERE ÅBENLYS VISUEL GENGIVELSE AF SELVSKADE

En kriminalisering af åbenlyst visuelt indhold af selvskade vil betyde, at sociale medier straks skal tage skridt til at fjerne det pågældende indhold eller hindre adgangen dertil, hvis de får konkret kendskab til det. Kriminaliseringen bør tage højde for, at det virker uhensigtsmæssigt at straffe psykisk sårbare, der deler gengivelse af selvskade, men derimod hensigtsmæssigt at digitale tjenester som sociale medier ikke tillader deling af selvskade indhold.
Article link
October 2023

ARBEJDSGIVERE TAGER HÅND OM DERES ANSATTE

I Digitalt Ansvar anbefaler vi, at arbejdsgivere udarbejder retningslinjer for håndtering af digital chikane og informerer ansatte om, at de kan komme til dem, hvis de udsættes for digital chikane.
October 2023

ARBEJDSGIVERE TAGER HÅND OM DERES ANSATTE

I Digitalt Ansvar anbefaler vi, at arbejdsgivere udarbejder retningslinjer for håndtering af digital chikane og informerer ansatte om, at de kan komme til dem, hvis de udsættes for digital chikane.
Article link
September 2023

TECH-VIRKSOMHEDER BØR GØRE DET NEMMERE AT ANMELDE PROFILER

Tech-virksomheder bør gøre det nemmere at anmelde profiler, der afpresser på deres platforme. Dette kunne gøres ved at oprette en specifik kategori for afpresning i deres anmeldelsesprocedure.
September 2023

TECH-VIRKSOMHEDER BØR GØRE DET NEMMERE AT ANMELDE PROFILER

Tech-virksomheder bør gøre det nemmere at anmelde profiler, der afpresser på deres platforme. Dette kunne gøres ved at oprette en specifik kategori for afpresning i deres anmeldelsesprocedure.
Article link

        Spørgsmål og svar

        Hvor mange deler selvskade på sociale medier?
        Hvordan påvirker algoritmer på Instagram og TikTok udbredelsen af selvskaderelateret indhold?
        Hvordan fungerer moderationen af selvskadeindhold på Instagram og TikTok?
        Hvilke forpligtelser har TikTok og Instagram, når det kommer til selvskadeindhold?

        Læs mere om selvskade på sociale medier

        Digital selvskade og sårbarhed i digitale fællesskaber
        Podcast om digital selvskade
        Algoritmer og digital selvskade

        Digitalt Ansvars seneste analyser og undersøgelser af selvskade på sociale medier

        november 2024

        Instagrams selvskadebedrag

        Undersøgelsen viser, at Instagram stadig ikke fjerner voldsomt selvskadeindhold og stik imod deres egen udmelding fravælger at bruge kunstig intelligens til automatisk at fjerne indholdet.

        December 2023

        TIKTOKS MØRKE UNIVERSER

        En analyse af TikTok anbefalingsalgoritme, og hvad TikTok eksponerer brugere med interesse for selvskade, selvmord og psykisk lidelse for på deres Til dig-side.

        Senest opdateret 13-11-2024.
        Hjælp til digital vold