Ex moderatrice denuncia Facebook: "filtriamo contenuti agghiaccianti"

La denuncia arriva da una ex moderatrice che racconta l'esperienza che questi lavoratori devono fare senza un effettivo supporto psicologico. Facebook crea disturbi post-traumatici come quelli di chi va in guerra.

Ex moderatrice denuncia Facebook: "filtriamo contenuti agghiaccianti"

Ci capita spesso di entrare nel social Facebook e ritrovarci faccia a faccia con contenuti forti, che non vorremmo vedere ma che purtroppo sono arrivati sino alla nostra bacheca. Quando ci indigniamo o ci traumatizziamo di fronte a questi contenuti, non ci rendiamo conto che milioni di molti altri video, commenti e foto, sono stati bloccati e cancellati dal social da algoritmi, e molti altri da persone in carne ed ossa che li studiano per poi decidere se farli passare oppure no.

Uno di questi ex moderatori ora denuncia Facebook per non prestare abbastanza aiuto ai dipendenti obbligati a guardare immagini tanto agghiaccianti.

Ci sono due modalità diverse che si occupano del controllo di contenuti all’interno del social Facebook. La maggior parte dei contenuti vietati nel social vengono eliminati da algoritmi, che tramite codici e parole chiave eliminano automaticamente tutto ciò che può contenere violenza, nudità, contenuti forti e che vanno contro le leggi del sito. Per far capire tramite un numero la quantità di contenuti che vengono pubblicati dagli utenti, e che vanno contro queste restrizioni, solo nei primi tre mesi del 2018 i contenuti eliminati hanno superati i 21 milioni nell’ambito di pornografia o nudo, sono stati più di 3 milioni e mezzo quelli che contenevano argomenti violenti o pericolosi, e 2 milioni e mezzo che avevano argomenti d’odio quali razzismo e istigazione al suicidio.

Chi c’è dietro alla moderazione

Ma se molti di questi contenuti vengono controllati da algoritmi, non tutti possono essere filtrati nel modo più appropriato, così entrano in gioco i moderatori in carne ed ossa che devono osservare tutti questi video, queste immagini e questi commenti nei minimi dettagli, anche più e più volte, per poi decidere se approvarli oppure eliminarli.

Faceva parte di questo gruppo anche Selena Scola, che ha deciso di denunciare Facebook per il poco aiuto psicologico che fornisce ai suoi dipendenti dopo le numerose ore trascorse a guardare immagini agghiaccianti condivise dagli utenti sul social. Così come anche il suo legale afferma, Facebook non sta creando un posto di lavoro sicuro per i suoi dipendenti, contribuendo – anzi – a traumatizzarli.

Anni fa, l’azienda aveva spiegato che chiunque lavorava all’interno della società aveva a disposizione dei supporti psicologici individuali o di gruppo ma, da quanto si apprende, questi aiuti sarebbe insufficienti oppure poco pubblicizzati tra i dipendenti. Nonostante questa denuncia fatta da una ex moderatrice, la direttrice delle comunicazioni corporale – alla Reuters – sottolinea quanto per loro siano importanti i loro dipendenti, e che faranno di tutto per supportarli e aiutarli al meglio.

Continua a leggere su Fidelity News