Bemærk Denne artikel blev udgivet for over en måned siden

Undersøgelse: TikTok stopper ikke selvskadende indhold

Indsigt 15. dec 2023  -  4 min læsetid
This describes the image
Foto: Shutterstock
  • Unge bliver eksponeret for store mængder af indhold om selvskade, selvmord og depression på TikTok

     

  • Og det sker hurtigt og effektivt, viser en undersøgelse, som foreningen Digitalt Ansvar har lavet

     

  • Selv børn med profiler helt nede til 13 år får vist selvskadende indhold, hvis de viser  interesse for emnet

  • TikTok selv afviser undersøgelsens konklusioner

Skrevet af: Belkisa Selmani

Når sårbare unge scroller på TikTok, risikerer de at få vist indhold om selvskade og selvmord i et stort omfang. 

Det viser en undersøgelse, som Digitalt Ansvar har lavet for at finde ud af hvilket indhold, sårbare brugere bliver eksponeret for. Digitalt Ansvar er en forening, der arbejder for at sikre en ansvarlig digital udvikling

Og det er bekymrende resultater, mener Digitalt Ansvar. 

I undersøgelsen dokumenterer Digitalt Ansvar, hvordan TikToks algoritme hurtigt præsenterer indhold om blandt andet selvskade og selvmord til brugere, der viser interesse for det. 

Ifølge Digitalt Ansvar er det omfanget af eksponeringen af selvskadende og selvmordsindhold, der er problematisk. 

Til TjekDet siger direktør for Digitalt Ansvar, Ask Hesby Krogh, at det er alarmerende, hvor hurtigt det går.

“Det er alarmerende, hvor stor en andel af feedet, som på meget kort tid kan blive fyldt med depressivt og skadeligt indhold", siger han.

Og resultaterne er bekymrende, fordi TikToks algoritme reagerer effektivt uden at tage hensyn til sårbare brugere. 

Et spørgsmål om algoritme 

Den stigende mistrivsel og interesse for selvskade hos unge mennesker har rettet fokus på sociale mediers rolle og eksponering af sårbart indhold. 

Ifølge Ask Hesby Krogh fra Digitalt Ansvar viser undersøgelsen, hvor effektiv TikToks anbefalingsalgoritme er. Det indhold, som brugeren viser interesse for, indstiller algoritmen sig hurtigt ind efter og promoverer efterfølgende indhold af samme karakter. 

“Det er uproblematisk, hvis vi taler om hundehvalpe, men problematisk, hvis det er selvskade,” siger han. 

Undersøgelsen peger på, at TikToks algoritmer på kort tid indstiller sig på at give brugerne det, de har udvist interesse for, også selvom det er skadeligt indhold, som relaterer sig til selvmord og selvskade. Ifølge Digitalt Ansvar er problemet større, end de havde regnet med.

Hvis man for eksempel søger og liker indhold, der er depressivt, relaterer sig til selvskade eller selvmord, går der ikke længe, før man bliver eksponeret for mere af lignende emner på sit feed. 

Sådan fungerer algoritmer, der er designet til at vise mere af det indhold, som brugeren viser interesse for. Og det er ikke særskilt for TikTok, men det er bekymrende, at TikTok tillader det, mener Digitalt Ansvar. 

Digitalt Ansvar udførte undersøgelsen gennem 6 brugerprofiler, som de selv oprettede og fuldførte testen med. 

Ud af fire sårbare profiler har to af profilerne ifølge rapporten allerede efter et kvarter et feed, der i intervaller eksponerer brugeren for mellem 70-80% depressions- og selvskaderelateret indhold. De to andre profiler er på samme tidspunkt få minutter fra at ende i et lignende feed.

Ifølge undersøgelsen anvendes der ikke direkte ord som selvskade og selvmord eller tilsvarende visuelle elementer, men i stedet afkodninger og omskrivninger, som bærer præg eller tolkes som selvskadende og selvmordsskadende. Der er altså tale om en mere subtil sammenkobling. 

Digitalt Ansvar mener, at TikTok har et særligt ansvar, fordi børn helt ned til 9 år benytter sig af mediet. Selvom aldersgrænsen for at oprette en profil er 13 år. 

Sådan gjorde Digitalt Ansvar

Digitalt Ansvar har lavet undersøgelsen gennem 6 kontrolprofiler i alderen 13-18 år. 

 

2 ud af de 6 profiler er kontrolprofiler, mens de 4 resterende betegnes som “sårbare profiler”. Kontrolprofilerne giver forskellige emner ligeligt opmærksomhed, mens de “sårbare profiler” bevidst går efter emner relateret til selvskade og selvmord. 

 

Resultaterne er baseret på funktionen “Til dig"-siden, som tilpasser indholdet til brugeren. Det vil sige, at algoritmen tilpasser indholdet, som den opfatter brugerens interesse. 

 

Til dig-siden er en funktion, hvor brugerne behøver at foretage sig mindst muligt. TikTok tilpasser det indhold, som den opfanger som brugerens interesse. 

 

Kilde: Digitalt Ansvar

TikTok afviser kritikken 

TikTok kan ikke genkende det billede, som Digitalt Ansvar tegner. TikTok mener, at de monitorerer indhold, som er skadeligt for brugerne, og at der hverken vises eller promoveres indhold om selvmord eller selvskade.

I et skriftligt svar til TjekDet skriver kommunikationschef for TikTok i Norden Parisa Khosravi:

“Eksperimentet giver et misvisende billede af virkeligheden, da profilerne er sat op til kun at interagere med ét enkelt emne (selvskade og selvmord, red.), hvilket ikke afspejler, hvordan rigtige mennesker bruger TikTok. Der er ingen videoeksempler i Digitalt Ansvars rapport og af de få skærmbilleder, der blev delt med os, brød størstedelen ikke vores strenge regler, og vi fjernede dem, der gjorde. Vi stræber efter at give teenagere en alderssvarende oplevelse og har flere sikkerhedsforanstaltninger, som familier kan bruge, herunder genstart af feedet og filtrering af indhold baseret på nøgleord.” 

TjekDet har forelagt TikToks svar for Ask Hesby Krogh, som anerkender, at de har skabt en lidt kunstig adfærd, hvilket de også skriver i rapporten. 

Ifølge Ask Hesby Krogh er en vigtig pointe, at eksperimentet ikke blot viser, hvor meget skadeligt indhold, de finder, men hvor relativt nemt, det kommer frem i brugernes feed. 

“Problemet er, at hvis dit feed bliver fuldstændigt fyldt i dårlige perioder, op mod 80-90 procent, så befinder du dig i en negativ boble, som vi ved fra psykiatrien øger risikoen for selvskade", konstaterer han.  

I en mail til TjekDet skriver TikToks danske kontor, at ud af det indhold relateret til selvmord, som de selv har fjernet, blev 98 procent af det slettet, før det blev anmeldt til dem. 

Til TjekDet siger Ask Hesby Krogh, at de kun kan gisne om, hvor meget skadeligt indhold, TikTok fjerner. Digitalt Ansvar har nemlig ikke fundet meget af det eksplicitte indhold, som viser knive, blod og lignende.

“Det kan godt være, at TikTok fjerner meget, og i hvert fald noget af det, som er tydeligt - eksempelvis blod og sår”.

“Så det virker som om, at TikTok har styr på det åbenlyst skadende indhold, men ikke helt har fat i det mere subtile indhold. Det kræver en anden moderation,” siger Ask Hesby Krogh. 
 

Du kan kontakte Livslinien, hvis du har selvmordstanker eller er i anden alvorlig livskrise, eller hvis du er pårørende eller efterladt til selvmord.

Telefonrådgivning, 70 201 201 alle årets dage fra kl. 11-05

Mailrådgivning og Chatrådgivning. For at se åbningstider og for at skrive, gå ind på www.livslinien.dk

Opdateret 15. jan 2024