Moderatrice fa causa a TikTok per trauma psicologico: "Ore di filmati violenti no-stop"

Una moderatrice ha fatto causa a TikTok sostenendo di soffrire di disturbo post traumatico da stress per i filmati violenti che è stata costretta a vedere
Moderatrice fa causa a TikTok per trauma psicologico: "Ore di filmati violenti no-stop"
SmartWorld team
SmartWorld team

Dopo Facebook, anche TikTok finisce nell'occhio del ciclone per la questione della moderazione dei contenuti e l'impatto psicologico che ha sui dipendenti costretti a vagliare migliaia di video, alcuni terribili, per selezionare quelli da pubblicare. 

La causa è stata promossa in California da Candie Franzier, che ha svolto attività di moderazione dei contenuti per TikTok attraverso una società di terze parti, Telus International. I moderatori svolgono un ruolo fondamentale per i social network, perché a loro è affidato il compito di visionare i contenuti - video e foto, nel caso di TikTok i video - che vengono quotidianamente postati e stabilire se rispettino la policy dell'azienda per la pubblicazione. Molte società si avvalgono della consulenza di società esterne, cui vengono "appaltate" diverse incombenze, tra cui quella della moderazione, e Franzier lavorava per una di queste società. 

Ore di video brutali e violenti

La donna ha presentato denuncia formale contro TikTok e il colosso cinese cui appartiene, la Bytedance, raccontando di avere svolto il lavoro di moderatrice per 12 ore al giorno, con pause da circa 15 minuti ciascuna, e di essere stata costretta a vedere ogni genere di orrore e brutalità: sparatorie, decapitazioni, stupri, violenze su minori e animali, mutilazioni, "migliaia di atti di violenza estrema ed esplicita" generata a flusso continuo. Scene agghiaccianti che per lavoro ha dovuto necessariamente guardare e che le hanno provocato gravissimi danni psicologici, incubi, attacchi di panico e uno stato perenne di ansia: tutti i sintomi del disturbo post traumatico da stress.

I video inoltre restavano obbligatoriamente sullo schermo per 25 secondi, tempo stabilito per consentire al moderatore di capire di che genere fossero e se contenessero scene che violano i termini di utilizzo del servizio (e anche la legge, visto il contenuto) e venivano proiettati anche in contemporanea, sino a 10 video allo stesso tempo, per ottimizzare i tempi. Frazier ha riferito nella denuncia che oltre a essere costretta a guardarli, un sistema di supervisione dei moderatori controllava la velocità e il tempo passato su ciascun video, intervento e rimproverandola nel caso in cui avesse fatto pause non autorizzate

La denuncia della moderatrice di TikTok

Gli avvocati di Frazier hanno sottolineato come la donna non godesse di alcuna tutela comunemente riconosciuta ai lavoratori del settore, tra cui sostegno psicologico, pause più frequenti e lunghe e la possibilità di sfocare i video più violenti: un protocollo ad hoc che i colossi dei social hanno iniziato ad adottare proprio alla luce delle conseguenze psicologiche cui possono andare incontro i moderatori nello svolgere il loro lavoro di monitoraggio e censura di contenuti violenti. Facebook, per esempio, prevede un periodo di formazione specifica e assistenza psicologica diretta per aiutarli a far fronte all'impatto che video e foto possono avere sul lavoratore. 

Nella denuncia gli avvocati di Franzier sostegno che TikTok non ha avvertito la donna che la visualizzazione di post di questo genere "possono avere un impatto negativo significativo sulla salute mentale", e che non ha implementato le misure previste per tutelare i dipendenti. La job application di Telus International per moderatore di contenuti, disponibile online, spiega d'altro canto che i post che vanno supervisionati "possono includere contenuti espliciti, violenti, espliciti, politici, profani e inquietanti". 

Tra i requisiti richiesti per candidarsi alla posizione ci sono "capacità di gestione dello stress e delle emozioni", e un portavoce della società (che non è imputata nella causa) ha assicurato che è previsto un programma ad hoc per i moderatori che lavorano per loro: "Frazier non ha mai sollevato in precedenza queste preoccupazioni sul suo ambiente di lavoro e le sue accuse sono del tutto incoerenti con le nostre politiche e pratiche", ha detto il portavoce della società in una nota.

La replica di TikTok

TikTok dal canto suo non ha voluto commentare ufficialmente il caso, ma ha affermato di avere a cuore il benessere dei dipendenti e la qualità dell'ambiente di lavoro, anche per i lavoratori in appalto.

"Il nostro team di sicurezza collabora con aziende di terze parti per aiutare a proteggere la piattaforma e la community di TikTok, e continuiamo ad espandere una gamma di servizi per il benessere in modo che i moderatori si sentano supportati mentalmente ed emotivamente", ha detto l'azienda in una nota. Nel 2020 Facebook ha accettato di pagare un risarcimento da 52 milioni di dollari ai moderatori che hanno presentato causa per le conseguenze psicologiche derivanti dalla visione di contenuti violenti: anche in questo caso si citava disturbo post traumatico da stress. 

Commenta