Sociale medier og søgemaskiner

Sociale medier og søgemaskiner udgør for mange de centrale indgange til internettet. Sociale medier er der, vi bruger vores tid, mens søgemaskiner typisk er der, vi starter, hvis vi leder efter viden eller ressourcer. Det er derfor enormt vigtigt, at sociale medier og søgemaskiner handler forsvarligt og har deres brugeres interesse for øjet.

Det er dog ikke altid tilfældet, at sociale medier og søgemaskiner lever op til disse forventninger: Fastholdelsesmekanismer, skadeligt og ulovligt indhold og mangel på moderation er alle eksempler på dette.

Klik dig ind på de forskellige emner og læs mere om de grundlæggende udfordringer med sociale medier og søgemaskiner, og hvad Digitalt Ansvar anbefaler i den sammenhæng.

Fastholdelses-
mekanismer

Sociale medier er designet til at indfange og fastholde vores opmærksomhed, så tech-virksomhederne bag kan tjene mest mulige penge på annoncører. Læs om mekanismerne bag sociale medier, og hvad vi i Digitalt Ansvar mener i den sammenhæng.
Læs mere

Skadeligt og ulovligt indhold

Det flyder med skadeligt og ulovligt indhold på både sociale medier og søgemaskiner. Hvad er forskellen på skadeligt og ulovligt, hvad er problemet, og hvad kan vi gøre ved det?
Læs mere

Aldersverifikation

Mange børn og unge eksponeres for skadeligt og ulovligt indhold på sociale medier og nettet i sin helhed. Derfor er der brug for beskyttende løsninger, bl.a. effektiv aldersverifikation. Men hvad er aldersverifikation, og hvad kan udfordringerne være?
Læs mere

Forældrekontrol på sociale medier

Forældrekontrol tilbydes i stigende grad på sociale medier. Men er værktøjerne effektiv beskyttelse eller placerer de et for stort ansvar hos forældrene?
Læs mere

Børn og sociale medier

Mange børn og unge bliver eksponeret for ulovligt, stødende eller ikke alderssvarende indhold, når de er på sociale medier. Det er udfordrende at beskytte dem, da platformenes indholdsmoderation ofte er mangelfuld, ligesom de heller ikke effektivt verificerer, om brugerne faktisk lever op til alderskravene.
Læs mere

Anbefalet skærmtid

Skærmtid er den tid, vi bruger foran skærme som smartphones og computere, fx når vi er på sociale medier eller spiller onlinespil. For børn og unge kan det digitale liv give fællesskab, men også påvirke trivslen negativt for nogen.
Læs mere
Herunder kan du se vores seneste analyser og undersøgelser af problemstillinger relateret til sociale medier og søgemaskiner
november
 
2025

Søgemaskiners ansvar for udbredelsen af falske nøgenbilleder

Digitalt Ansvar har gentaget vores undersøgelse af søgemaskinernes ansvar for udbredelsen af manipuleret seksuelt materiale (også kendt som deepfake porno) fra 2024. Analysen viser, at Google fortsat leder brugere videre til materialet, men at Bing og DuckDuckGo har forbedret deres praksis væsentligt.

september
 
2025

Snapchats håndtering af narkosalg på deres platform

Digitalt Ansvar har undersøgt Snapchats håndtering af brugeranmeldelser, der drejer sig om narkosalg. Den konkluderer, at Snapchat ikke i tilstrækkelig grad reagerer på brugeranmeldelser af de ulovlige profiler.

juli
 
2025

Et eksperiment om at nedsætte danskernes TikTok-forbrug

Digitalt Ansvar har i samarbejde med Norlys undersøgt, om det er muligt for 129 danskere at sænke deres forbrug af TikTok. Undersøgelsen viser, hvor stærkt et greb sociale medier har om os, og at ansvaret for et sundt skærmforbrug derfor ikke kan placeres på den enkelte alene.

april
 
2025

Anmeldelser af indhold til de sociale medier

Digitalt Ansvar har undersøgt omfanget af danskere, der anmelder ulovligt indhold på sociale medier, samt deres kendskab til muligheder for anmeldelse. Undersøgelsen viser bl.a., at hver fjerde ikke anmelder ulovligt indhold, når de støder på det.

februar
 
2025

Forældrekontrol i en dansk kontekst

Digitalt Ansvar har undersøgt danske forældres brug af og holdninger til forældrekontrol på de sociale medier. Undersøgelsen viser, at forældrekontrol ikke nødvendigvis harmonerer godt med danske forældres opdragelsesstil, hvor tillid og dialog er centralt.

december
 
2024

Ulovlig deling på Telegram

Digitalt Ansvar har kortlagt det danske marked for køb og salg af intimt materiale uden samtykke på platformen Telegram samt antallet af danske ofre. Tallene vidner om, at manglende regulering har muliggjort et voksende kommercielt marked for ulovligt intimt materiale.

december
 
2024

Instagrams forældrekontrol

Digitalt Ansvar har kortlagt Instagrams nye teenageprofiler og de udvidede forældrekontrol-funktioner, der skal beskytte unge brugere og give forældre tryghed. Konklusionen viser, at tiltagene er nemme at omgå.

november
 
2024

Instagrams selvskadebedrag

Undersøgelsen viser, at Instagram stadig ikke fjerner voldsomt selvskadeindhold og stik imod deres egen udmelding fravælger at bruge kunstig intelligens til automatisk at fjerne indholdet.

maj
 
2024

Bag om Google og Bings anmeldelsessystem

Vi har undersøgt Google Search og Microsoft Bings anmeldelsessystem ved at indgive en række anmeldelser af søgeresultater, der henviser til hjemmesider med manipuleret seksuelt materiale – også kendt som ’deepfake porno’.

februar
 
2024

Google og Bing: Reklamesøjle for falske nøgenbilleder

En undersøgelse af søgemaskinernes ansvar for spredningen af manipuleret seksuelt materiale - også kendt som 'deepfake porno'.

december
 
2023

TikToks mørke universer

En undersøgelse af, hvad TikTok eksponerer brugere, med interesse for selvskade, selvmord og psykisk lidelse, for på deres Til dig-side.

Hjælp til digital vold