TikTok, nel 2021 bloccati 320 milioni di video: cosa ha funzionato e cosa no

·3 minuto per la lettura
(Afp)

AGI - TikTok deve fare i conti con i video contrari alle sue regole. Tra attività illegali, nudità, molestie e bullismo, in tutto il 2021 ha bloccato più di 320 milioni di contenuti, 85,8 milioni dei quali solo tra ottobre e dicembre. Rispetto allo stesso periodo dell'anno precedente, i video bloccati sono quasi raddoppiati e oggi rappresentano circa l'1% di tutti quelli caricati.

Il dato, che emerge dal “Rapporto sull'applicazione delle Linee Guida della Community” di TikTok, non significa necessariamente che sulla piattaforma ci siano più contenuti vietati. Con tutta probabilità è aumentata la capacità di intercettarli: sarebbe quindi merito, sottolinea la compagnia, “dei continui miglioramenti al riconoscimento e al rilevamento audio e vocale” e del “rilevamento proattivo”.

Un video su tre bloccato in automatico

Tra ottobre e dicembre 2021, il 90% dei video è stato infatti cancellato prima che venisse visualizzato la prima volta (era poco più dell'80% l'anno prima) e il 94% è stato rimosso entro 24 ore dalla pubblicazione. In particolare, spiega il responsabile Head of Trust & Safety di TikTok Cormac Keenan, rispetto a inizio anno “le rimozioni di contenuti con zero visualizzazioni sono cresciute del 14,7% per molestie e bullismo, del 10,9% per i comportamenti d'odio, del 16,2% per l'estremismo violento e del 7,7% per il suicidio, l'autolesionismo e le azioni pericolose”.

Come altre piattaforme, anche i controlli di TikTok mescolano moderazione umana e controlli automatici. La prima resta fondamentale, ma la “proattività” dipende in gran parte dall'automazione. Lo dimostrano anche i dati. Tra gennaio e marzo dello scorso anno, i software hanno rimosso circa il 14% dei video contrari alle regole della piattaforma. Tra ottobre e dicembre sono arrivati al 33%. Uno su tre.

Quanto sbagli TikTok

Oltre ai numeri complessivi va però anche misurata l'accuratezza. Esistono infatti i cosiddetti “falsi positivi”, ossia video oscurati per errore. Nel caso di TikTok, circa un video su venti viene reinserito dopo un ricorso. La quota è minoritaria ma resta significativa. E, soprattutto, non ha mostrato gli stessi passi avanti fatti altrove: il tasso di errore era del 4,5% nel primo trimestre 2021 ed è stato del 5,5% nel quarto. È uno dei parametri da guardare nei prossimi mesi, perché misura l'attendibilità del controllo e – in particolare – l'evoluzione di quello automatizzato.

Propaganda e odio: le zone grigie

C'è un'altra sfida, forse la più complessa. Il report di TikTok afferma che il 45% dei video è stato rimosso perché metteva a rischio la sicurezza dei minori, il 19,5% perché riguardava attività illegali, l'11% per nudità o attività sessuali, l'8,5% per contenuti violenti o espliciti, il 7,4% perché relativi a suicidio e autolesionismo e il 5,7% per bullismo o molestie. La stragrande maggioranza delle rimozioni riguarda quindi argomenti in cui è chiaro ciò che è lecito e ciò che non lo è. In cui è relativamente semplice distinguere il concesso dal vietato. È invece molto più complicato (per tutti, da Facebook a Twitter fino a Youtube) farlo quando il confine tra regole e libertà d'espressione è più sfumato.

E su questo punto TikTok dovrà insistere: solo l'1,5% dei contenuti è stato oscurato per “comportamenti improntati all'odio”, lo 0,8% per “estremismo violento” e lo 0,6% per problemi di “integrità e autenticità”. Come sta dimostrando la guerra in Ucraina, TikTok non è più (solo) il social dei ragazzini e dei contenuti futili: è una piattaforma di comunicazione a tutto tondo, dove circolano informazione e propaganda, notizie e bufale, documenti e tarocchi, analisi e sproloqui. La sua integrità passa dalla capacità di distinguerli. 

Il nostro obiettivo è creare un luogo sicuro e coinvolgente in cui gli utenti possano entrare in contatto per condividere interessi e passioni. Per migliorare l’esperienza della nostra community, sospendiamo temporaneamente i commenti sugli articoli