In uno sviluppo recente, il Consiglio di Sorveglianza di Meta (l’Oversight Board) ha sollevato preoccupazioni riguardo agli strumenti di moderazione automatica dell’azienda, giudicandoli eccessivamente proattivi nella rimozione di due video che ritraevano ostaggi, civili contusi e possibili caduti nello scontro tra Israele e Hamas.
Secondo il consiglio di sorveglianza, questi video, ingiustamente rimossi da Facebook e Instagram, avrebbero dovuto rimanere accessibili online. Uno dei video rimossi, pubblicato su Facebook, ritraeva una donna israeliana durante l’attacco di Hamas dell’7 ottobre, mentre supplicava i suoi rapitori di non farle del male. L’altro video, condiviso su Instagram, sembrava mostrare le conseguenze di un attacco israeliano vicino all’ospedale al-Shifa a Gaza City, con immagini di palestinesi caduti o contusi, inclusi bambini.
Il Consiglio di Sorveglianza ha accelerato la revisione della decisione di rimozione in 12 giorni, e dopo la valutazione, i video sono stati ripristinati con un avviso di contenuto. Si è scoperto che sia la rimozione iniziale che il rifiuto dell’appello dell’utente per il ripristino del video sono stati effettuati dagli strumenti di moderazione automatica di Meta, senza alcuna revisione umana.
Il consiglio ha rilevato che le soglie di moderazione, abbassate per catturare più facilmente i contenuti che violano le regole dopo l’attacco dell’7 ottobre, hanno aumentato la probabilità di rimozioni errate di contenuti non violativi relativi al conflitto. La mancanza di moderazione guidata dall’uomo durante tali crisi può portare alla rimozione erronea di discorsi che possono essere di significativo interesse pubblico. Il consiglio ha anche criticato Meta per aver declassato i due post con schermate di avviso, impedendo loro di apparire come contenuti consigliati agli altri utenti di Facebook e Instagram.
In risposta alla decisione del consiglio di annullare le rimozioni, Meta ha dichiarato che, poiché non sono state fornite raccomandazioni dal panel, non ci saranno ulteriori aggiornamenti sul caso. Questo caso mette in evidenza i rischi della sovramoderazione e il sottile equilibrio che le piattaforme devono seguire nella moderazione dei contenuti, specialmente durante periodi di conflitto. L’incidente sottolinea l’importanza della revisione umana nel mitigare il potenziale per i sistemi automatici di sopprimere erroneamente contenuti di interesse pubblico o di rilevanza storica.