Nytt fra Medietilsynet
Barna skal ikke ta støyten med å fjerne skadelig innhold på sosiale medier
Barn skal ikke bli utsatt for selvmordsvideoer på sosiale medier. For å få plattformene til å ta et større ansvar, og ikke skyve mediebrukerne foran seg, må vi styrke den nasjonale innsatsen for barns digitale trygghet.
De siste ukene har det på det sosiale mediet TikTok vært delt en video av en mann som tar sitt eget liv. Videoen skal opprinnelig ha blitt streamet på Facebook live, før den ble delt videre på TikTok, som er særlig populært blant de yngste barna.
Plattformene må ta et større ansvar
Selv om det sjokkerende å høre at slike videoer finnes og spres, er det dessverre ikke siste gang, og det blir sikkert heller ikke siste. Vi vet at barn har vært vitner til henrettelser, terrorangrep og andre typer skremmende bilder og videoer i sosiale medier.
Men fortsatt er det opp til hver enkelt av oss som bruker tjenester på sosiale medier å varsle, blokkere og rapportere for å få fjernet slikt innhold. I kjølvannet av NRK-dokumentaren Trigger Warning, kom det for eksempel frem at Instagram lot bilder og videoer av selvmord og selvskading ligge på sine sider i over tre måneder, til tross for at plattformen kjente til at dette innholdet var publisert. Dette holder ikke. En annen utfordring er at skadelig innhold og kontoer med denne type innhold blir anbefalt videre til andre brukere med liknende profiler. Medietilsynet mener at plattformene som står bak sosiale medier, nå må ta et større ansvar for å stoppe skadelig innhold og forebygge skadelig bruk og adferd på sine plattformer.
I forbindelse med arbeidet med handlingsplanen om forebygging av selvmord, som nylig ble lagt frem, sendte Medietilsynet en henvendelse til flere sosiale medier hvor vi ba aktørene redegjøre for hvordan de håndterer potensielt skadelig innhhold. Vi spurte hva de gjør for å forhindre at barn og unge som står i fare for å skade seg selv blir eksponert for skadelig innhold, og hvilken strategi plattformene har for å håndtere skadelig innhold knyttet til selvmord- og selvskadingstematikk. Medietilsynet fikk svar fra Snapchat, samt en felles uttalelse fra Facebook og Instagram. TikTok svarte ikke.
I dag er plattformene avhengig av brukernes tilbakemeldinger
Svarene og en gjennomgang av informasjonssidene til de største sosiale mediene, viser etter Medietilsynets vurdering at aktørene har en for passiv holdning til problemstillingene rundt skadelig innhold. Facebook og Instagram viser til at de har strenge retningslinjer, at de henviser brukere til eksperthjelp der de kan og utvikler teknologi (kunstig intelligens) for å identifisere potensielt skadelig innhold raskere. Snapchat rapporterer nulltoleranse for ulovlig og skadelig innhold eller aktiviteter, og opplyser at brukerne kan rapportere denne type innhold i appen. Men svarene viser at aktørene fortsatt er helt avhengig av tilbakemeldinger fra brukerne sine. De viser også i all hovedsak til hva som gjøres dersom skadelig innhold blir oppdaget, og er mindre konkrete på hva de selv gjør for å lokalisere eller forhindre at denne type innhold spres på deres plattformer. Deaktivering av brukerkontorer eller fjerning av skadelig innhold skjer primært etter rapportering og varsling «utenfra».
Dermed er ansvaret for å oppdage og rapportere potensielt skadelig innhold i stor grad skjøvet over på brukerne. Slik bør det ikke være. Det er ikke barn og ungdom som skal måtte være moderatorer for å få fjernet skadelig eller voldelig innhold. Her må plattformene som står bak tjenester på sosiale medier ta et langt mer aktivt ansvar.
Vi må styrke den nasjonale innsatsen
Aktører som står bak sosiale medier må ta et større og mer aktivt ansvar, men det er ikke noe enkelt svar på hvordan vi skal få det til. Et første viktig skritt på veien er å få på plass en nasjonal strategi for barns digitale trygghet, slik at vi både kan jobbe bedre med forebygging og ikke minst øke sjansen for gjennomslag overfor de globale gigantene. Under Barneombudets "Høynivåmøte for en trygg digital hverdag for barn og unge" 12. februar 2020, viste ombudet til at det i dag er over 20 statlige etater fra seks ulike sektorer og 50 organisasjoner som har til dels overlappende ansvar og tiltak rettet mot barns digitale liv. Før vi klarer å koordinere innsatsen bedre her hjemme og jobbe aktivt i nasjonale og internasjonale fora for tydelige krav til digitale tjenester der barna våre bruker mye tid, er det dessverre nettopp barna som må ta støyten.