Meta, il gruppo che controlla Facebook e diverse altre piattaforme di interazione (come Instagram, Messenger, e WhatsApp), è destinato a essere coinvolto in nuove polemiche, in seguito alla pubblicazione del primo rapporto annuale del suo Oversight Board, per la decisione di smantellare un tool anti-disinformazione, e per aver usato un algoritmo pubblicitario discriminante.
La prima novità relativa a Facebook riguarda CrowdTangle, il servizio, comprato nel 2016, che offriva agli editori un modo per tener traccia delle prestazioni dei loro contenuti sui social, come Instagram e Facebook. Lo strumento, col passare del tempo, si è anche affermato come piattaforma usata dai fact-chekers, dai ricercatori, dalle agenzie stampa (es. dalla francese Agence de Presse) e dai giornalisti, per seguire la diffusione dei contenuti sui gruppi pubblici e le pagine Facebook, sui profili Instagram e nei subreddit: in tal senso, basti ricordare quando, nel 2020, il giornalista del New York Times, Kevin Roose, scoprì grazie ad esso come alcuni commentatori dell’estrema destra, tra cui Ben Shapiro, sortivano con i loro contenuti più coinvolgimento delle testate giornalistiche tradizionali, o come fosse stato possibile appurare un influsso sulle presidenziali USA del 2016 grazie ai miliardi di post di ascendenza russa condivisi su Facebook.
Rivelazioni come queste hanno creato a Meta di Facebook diversi problemi in termini di pubbliche relazioni e, di conseguenza, Menlo Park ha deciso si smantellare CrownTange: a rivelarlo è stato Bloomberg, che riferisce come nel Luglio 2021 sia stato sciolto il relativo team (che, in precedenza, lanciava nuovi prodotti ogni 6 mesi e diversi importanti aggiornamenti ogni mese), e come nell’Ottobre dello stesso anno si sia dimesso il fondatore e CEO della piattaforma, Brandon Silverman. Interpellata in merito, l’azienda di Facebook ha espresso la propria posizione.
Nello specifico, è stato riferito che CrownTange rimarrà operativo sino alle elezioni di metà mandato, prevista negli USA a Novembre. In ogni caso è garantito il supporto ai ricercatori attivi nel contrastare la disinformazione, ai quali saranno forniti nuovi “strumenti più funzionali“, che imitino qualche funzionalità della piattaforma in corso di dismissione, pur senza conferire agli utenti il “pieno accesso alle sue capacità originali” (ovvero non attraverso uno strumento intuitivo usabile per porre le proprie domande, ma in forma di report “raffinato” che conceda a Meta più controllo sui messaggi diffusi).
Anche la seconda novità ha portato allo scoperto una fonte di preoccupazioni per Meta. Nello specifico, l’azienda ha sviluppato il tool algoritmico Special Ad Audience che mostra gli annunci pubblicitari solo ad alcuni utenti di Facebook, sulla base di parametri fissati dagli inserzionisti. Negli USA, però, vige il Fair Housing Act che vieta ogni discriminazione nel mostrare annunci di locazione o vendita di case: avendo usato il tool di cui sopra in violazione della norma testé menzionata, Facebook è stata condannata dal Dipartimento della Giustizia USA a una sanzione di 115.054 dollari e all’obbligo di sviluppare un sistema non discriminatorio in ambito advertising, da usare a partire dal 31 Dicembre 2022, quando sarà fatto divieto di adoperare il vecchio Special Ad Audience: nel caso questa parte di accordo non venga ritenuta rispettata da un organismo di vigilanza di terze parti, Meta sarà portata in tribunale dalle istituzioni americane.
Infine, l’Oversight Board, l’ente di controllo autonomo (per ora sui singoli post, sebbene sia in studio l’ipotesi di estenderne la portata a profili e gruppi) fondato da Meta che può valutare le sue decisioni in termini di policy e provvedimenti di moderazione, ha pubblicato il suo primo report annuale nel quale ha reso noto che, nel 70% dei casi analizzati (purtroppo solo 20 casi, ritenuti significativi, a fronte di oltre un milione di appelli presentati dagli utenti di Instagram e Facebook), ha ribalzato le decisioni iniziali di Menlo Park. Il consiglio di sorveglianza ha anche fornito raccomandazioni generali (es. di controllare di più quei governi che usano i canali ufficiali per diffondere disinformazione sanitarie, o di inasprire le regole sul doxing), alcune delle quali recepite, come quando si è deciso di essere meno ambigui nello spiegare agli utenti quali regole avrebbero violato, in tema di incitamento all’odio, sulle sue piattaforme.