Bambini a rischio, TikTok rimuove quasi 90 milioni di video e sei milioni di account

24 Feb 2021 14:11 - di Redazione
TikTok

TikTok ha rimosso 89.132.938 video. La motivazione? «Per aver violato le linee guida della comunità o i termini di servizio». Ovvero , dice la piattaforma «meno dell’1% di tutti i video caricati su TikTok». Lo comunica la piattaforma social nel suo rapporto sulla trasparenza relativo al secondo semestre 2020. Di questi video, il 92,4% è stato identificato e rimosso prima che fossero segnalati dagli utenti. L’83,3% è stato rimosso prima di ricevere visualizzazioni e il 93,5% è stato rimosso entro 24 ore dalla pubblicazione.

La piattaforma nel secondo semestre del 2020, ha rimosso poi 6.144.040 account per violazione delle linee guida della comunità. Inoltre, altri 9.499.881 account spam sono stati rimossi insieme a 5.225.800 video spam pubblicati da tali account. «Abbiamo impedito la creazione di 173.246.894 account da parte di spammer» si legge nel rapporto.

TikTok: «Non tolleriamo scherno, bullismo e molestie»

«Crediamo in una comunità inclusiva e in cui l’espressione individuale si possa manifestare senza timore di abusi e non tolleriamo – si legge nel rapporto – che i membri della nostra comunità subiscano scherno, bullismo o molestie. Il 6,6% dei video rimossi ha violato questa norma. Cifra in rialzo dal 2,5% del primo semestre del 2020». Aumento influenzato dalle modifiche apportate per allargare la portata dei principi riguardanti le molestie sessuali, il pericolo di hackeraggio e le vittime di espressioni di bullismo.

Sicurezza per i minori

TikTok sul fronte della sicurezza dei minori ha inserito nuove categorie di attività dannose che fanno scattare la rimozione di contenuti, ad esempio le sfide e le acrobazie. Questa norma è stata violata nel 36% dei contenuti rimossi, rispetto al 22,3% nel primo semestre del 2020. Di questi video, il 97,1% è stato rimosso prima di essere segnalato e il 95,8% dei video è stato rimosso entro 24 ore dalla pubblicazione.

TikTok, che fa capo alla cinese ByteDance, «si serve di PhotoDna per proteggere dal materiale pedopornografico. E abbiamo continuato a investire anche nei nostri sistemi interni utilizzati per individuare questo tipo di materiale. Questi sforzi – si legge nel rapporto – hanno ulteriormente migliorato la nostra capacità di rimuovere e segnalare contenuti e account al National Center for Missing Exploited Children (Ncmec) e alle autorità legali competenti». Di conseguenza, la piattaforma ha effettuato 22.692 segnalazioni al Ncmec nel 2020 rispetto ai 596 del 2019.

Aggiornate le politiche su autolesionismo e suicidio

Nel secondo semestre del 2020, «abbiamo aggiornato le nostre politiche su autolesionismo, suicidio e disturbi alimentari. Per tener conto del feedback e della terminologia usata dagli esperti di salute mentale. Abbiamo anche collaborato con una serie di organizzazioni per supportare le persone che potrebbero trovarsi in difficoltà. Riferendo ricerche e hashtag pertinenti alla National Eating Disorder Association Helpline, alla Crisis Textline o alla National Suicide Prevention Lifeline».

«Questi principi sono stati violati dal 6,2% dei video rimossi. Il che rappresenta – si legge nel rapporto – una riduzione rispetto al 13,4% del primo semestre del 2020. Dato che adesso rimuoviamo contenuti che raffigurano comportamenti pericolosi o rischiosi da parte di minori. Conformemente alla nostra nuova politica sulla sicurezza dei minori e sulle attività dannose. Di questi video, il 94.4% è stato rimosso prima di essere segnalato e il 91.9% è stato rimosso entro 24 ore dalla pubblicazione»

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *