Sara ha ventotto anni e da due anni svolge uno dei lavori più difficili e traumatici dell’era digitale: otto ore al giorno seduta davanti al computer, la giovane moderatrice di TikTok Italia scandaglia video che nessun altro vorrebbe mai vedere, filtrando contenuti che spaziano da stupri e abusi su minori fino a suicidi e autolesionismo per mantenere puliti i feed degli utenti. “Per due anni ho guardato in casa delle persone, so cosa vedono, cosa cercano, cosa scrivono. Ora non ho più un filtro che separa me dagli altri”, confessa Sara, nome di fantasia utilizzato per proteggere la sua identità. Il suo racconto, emerso attraverso un’intervista a Fanpage, rivela una realtà sommersa che coinvolge migliaia di lavoratori invisibili impegnati nella costante battaglia contro i contenuti più oscuri della rete.
Il lavoro di Sara consiste nel visionare, classificare ed eliminare i video che violano le policy della piattaforma, un’attività che la espone quotidianamente a una violenza inimmaginabile per la maggior parte degli utenti comuni. “Ho visto filmati di bambini violentati da animali, o la clip di un padre che girava per strada con in mano la testa mozzata di sua figlia”, racconta la moderatrice, descrivendo alcuni dei contenuti più estremi con cui deve confrontarsi durante le sue giornate lavorative. La sua testimonianza mette in luce la contraddizione fondamentale dei social media: mentre gli utenti scorrono contenuti apparentemente innocui e divertenti, esiste un esercito di lavoratori che filtra quotidianamente l’orrore per mantenere questa illusione di sicurezza digitale.
Le conseguenze psicologiche di questo lavoro si manifestano rapidamente e in modo devastante sui moderatori. Sara racconta di come la sua insonnia sia diventata più acuta da quando ha iniziato questo lavoro, sperimentando paralisi del sonno e livelli di stress che prima non conosceva. Questi sintomi non rappresentano un caso isolato ma un pattern ricorrente tra chi svolge questa professione. Candie Frazier, ex-moderatrice statunitense di TikTok, ha intentato una causa legale contro l’azienda dopo aver sviluppato “un significativo trauma psicologico, inclusi ansia, depressione e disturbo post-traumatico da stress” a causa del materiale che era costretta a visionare per dodici ore al giorno. La sua denuncia descrive una routine lavorativa che prevedeva la visione di centinaia di video quotidiani contenenti “violenza estrema e grafica”, inclusi episodi di cannibalismo, genocidio, sparatorie di massa e abusi sessuali su minori.
Un’altra ex-moderatrice di TikTok, intervistata da Business Insider, ha descritto la propria esperienza come un progressivo deterioramento mentale: “Mi sentivo esaurita e depressa, guadagnavo meno di 7 euro l’ora e ogni giorno in ufficio vedevo i miei colleghi piangere”. La testimonianza evidenzia come il burnout colpisca sistematicamente chi svolge questo ruolo, con sintomi che iniziano a manifestarsi dopo circa un anno di attività e che portano molti lavoratori a richiedere supporto psicologico, spesso a proprie spese. Ashley Velez e Reece Young, due ex-moderatori che hanno avviato una causa collettiva contro TikTok e ByteDance, hanno sostenuto personalmente le spese per consulenze psicologiche necessarie a gestire lo stress emotivo derivante dalla visione continua di “molti atti di violenza estrema ed esplicita” compresi omicidi, zoorastia e necrofilia.
I dati emersi dal Digital Services Act rivelano dimensioni preoccupanti del fenomeno della moderazione dei contenuti in Italia. TikTok impiega 430 moderatori per gestire i contenuti italiani, a fronte di 20 milioni di utenti unici nel paese, risultando la piattaforma con il maggior numero di moderatori in proporzione agli utenti. Tuttavia, questi numeri appaiono ancora insufficienti se confrontati con la mole di lavoro: altri social network presentano rapporti molto più sbilanciati, con X e Pinterest che dispongono di soli due moderatori ciascuno per i contenuti in lingua italiana, LinkedIn ne dichiara tredici e Meta non più di 179 per gestire 36 milioni di utenti mensili tra Facebook e Instagram. Il settore della moderazione dei contenuti digitali è in rapida espansione economica, con previsioni che indicano una crescita fino a 13,60 miliardi di dollari entro il 2027 secondo MarketWatch, eppure le retribuzioni rimangono inadeguate rispetto ai rischi psicologici del lavoro.
Sara guadagna 1.200 euro al mese per il suo lavoro di moderatrice, una cifra che lei stessa definisce “non abbastanza per un lavoro del genere”. Questa retribuzione appare particolarmente inadeguata se confrontata con l’intensità e la natura traumatica del lavoro: i moderatori devono visionare centinaia di video al giorno, spesso con tempi di decisione limitati a non più di 25 secondi per contenuto, mentre guardano simultaneamente da tre a dieci video. Le condizioni lavorative prevedono turni di dodici ore con pause estremamente limitate: una pausa di quindici minuti dopo le prime quattro ore di lavoro, poi pause di quindici minuti ogni due ore successive, oltre a un’ora per il pranzo. Questa organizzazione del lavoro, caratterizzata da ritmi serrati e esposizione continua a contenuti traumatici, genera un ambiente lavorativo che molti esperti considerano insostenibile dal punto di vista della salute mentale.
Paradossalmente, mentre emerge la gravità delle condizioni lavorative dei moderatori umani, le piattaforme social stanno accelerando la sostituzione di questi lavoratori con sistemi di intelligenza artificiale. ByteDance ha annunciato nell’ottobre 2024 il licenziamento di oltre 700 moderatori in Malesia, sostituendoli con avanzati algoritmi di IA capaci di individuare e rimuovere automaticamente circa l’80% dei contenuti che violano le regole della piattaforma. Questa trasformazione non si limita alla Malesia: TikTok ha confermato che simili tagli al personale avverranno anche in altri paesi, anticipando un cambiamento su scala globale nelle strategie di moderazione. I dati più recenti mostrano un’accelerazione di questo processo: la tecnologia di moderazione automatizzata di TikTok ora rimuove l’80% dei video violativi, rispetto al 62% dell’anno precedente.
Nonostante questa evoluzione tecnologica, TikTok mantiene oltre 6.000 moderatori per i contenuti nelle lingue dell’Unione Europea, includendo specialisti nella disinformazione dotati di strumenti avanzati e formati specificamente per rilevare e rimuovere contenuti violativi. L’azienda dichiara che “il coinvolgimento delle persone per il contesto unito all’impiego di tecnologia su larga scala rimane centrale nella strategia” di moderazione, suggerendo che la componente umana continuerà a essere necessaria per gestire situazioni complesse che richiedono comprensione del contesto e sfumature culturali. Tuttavia, la tendenza verso l’automazione solleva interrogativi sulla sorte dei migliaia di moderatori attualmente impiegati e sulla possibilità che l’intelligenza artificiale possa effettivamente sostituire il giudizio umano in situazioni che richiedono sensibilità culturale e comprensione contestuale.
Cause legali e richieste di tutela
La crescente consapevolezza dei danni psicologici subiti dai moderatori ha portato a una serie di azioni legali contro le principali piattaforme social. Oltre alle cause intentate contro TikTok, anche Facebook è finita nel mirino per la gestione della salute mentale dei suoi moderatori esterni. Isabella Plunkett, moderatrice irlandese per Facebook, ha denunciato in commissione parlamentare le condizioni inadeguate di supporto psicologico fornite dall’azienda: “Ogni giorno è stato un incubo”, ha dichiarato, sottolineando come i moderatori siano costretti a firmare accordi di non divulgazione che impediscono loro di parlare del lavoro con familiari e amici. Le aziende forniscono tipicamente un’ora e mezza settimanale di “attività di benessere”, ma secondo Plunkett “i coach non sono professionisti della salute mentale e non sono attrezzati per aiutare i moderatori che devono elaborare i contenuti traumatici”.
Le richieste dei moderatori si concentrano su maggiori tutele per la salute mentale, retribuzioni adeguate ai rischi del lavoro e la possibilità di parlare apertamente delle loro esperienze senza il vincolo degli accordi di riservatezza. Il fenomeno del “moderation burnout” è stato identificato come una condizione specifica caratterizzata da esaurimento fisico, mentale ed emotivo causato dall’esposizione continua a contenuti disturbanti, carichi di lavoro elevati, mancanza di supporto adeguato e isolamento lavorativo. Gli esperti sottolineano che si tratta di un tipo unico di burnout che colpisce specificamente moderatori di contenuti, community manager e amministratori di social media, richiedendo approcci di prevenzione e trattamento specializzati.
Trasparenza normativa e prospettive future
Il Digital Services Act europeo ha introdotto nuovi obblighi di trasparenza per le piattaforme digitali, costringendole a pubblicare rapporti dettagliati sulle loro attività di moderazione. TikTok dichiara di investire globalmente più di 2 miliardi di dollari annui nella sicurezza della piattaforma, impiegando oltre 40.000 professionisti dedicati alla tutela della sicurezza in tutto il mondo. Nel periodo da gennaio a giugno 2024, la piattaforma ha rimosso oltre 22 milioni di contenuti nei 27 Stati membri dell’UE per violazione delle linee guida della community, bloccando più di 5 milioni di account. Tuttavia, la normativa europea non prevede alcun numero minimo di moderatori in base al numero di utenti, né obblighi specifici per la tutela della salute mentale di questi lavoratori.
La situazione dei moderatori di contenuti rappresenta una delle contraddizioni più evidenti dell’economia digitale contemporanea: mentre le piattaforme social generano profitti miliardari e promettono spazi sicuri per gli utenti, chi garantisce concretamente questa sicurezza lavora in condizioni spesso precarie, con retribuzioni inadeguate e rischi psicologici significativi. La testimonianza di Sara e di altri moderatori rivela una realtà nascosta che solleva interrogativi fondamentali sulla sostenibilità etica del modello di business dei social media e sulla necessità di sviluppare nuove forme di tutela per chi svolge questo lavoro essenziale ma invisibile. La crescente automazione potrebbe alleviare parte del carico umano, ma difficilmente potrà sostituire completamente la capacità di giudizio e la sensibilità culturale necessarie per gestire le sfumature più complesse della comunicazione online.