Mass Amherst smentisce l’efficacia degli algoritmi di Facebook contro la disinformazione elettorale

Un nuovo studio dell'Università del Massachusetts Amherst mette in discussione l'efficacia degli algoritmi di Facebook nel filtrare la disinformazione elettorale, contestando un precedente studio finanziato da Meta.

Mass Amherst smentisce l’efficacia degli algoritmi di Facebook contro la disinformazione elettorale

Recentemente, un team interdisciplinare di ricercatori dell’Università del Massachusetts Amherst ha pubblicato uno studio sulla rivista *Science*, mettendo in discussione le conclusioni di una ricerca precedente che sosteneva che gli algoritmi di Facebook fossero efficaci nel limitare la disinformazione durante le elezioni del 2020. Questo nuovo lavoro suggerisce che, sebbene Meta possa adottare misure per limitare i contenuti inaffidabili, in molti casi sceglie di non farlo.

La ricerca precedente, condotta da Guess et al. e finanziata da Meta, ha suggerito che gli algoritmi della piattaforma social avevano un impatto positivo nel filtrare notizie inaffidabili. Tuttavia, gli studiosi di UMass Amherst hanno messo in evidenza un aspetto cruciale: il lavoro di Guess et al. è stato realizzato in un periodo in cui Meta aveva implementato un algoritmo temporaneo più rigoroso, il che ha distorto i risultati. Questa modifica algoritmica non è stata adeguatamente considerata nello studio, portando a una rappresentazione inaccurata della capacità di Facebook di gestire la disinformazione.

Chhandak Bagchi, autore principale dello studio dell’UMass, ha sottolineato come la coincidenza temporale tra il loro studio e le modifiche algoritmiche avesse sollevato preoccupazioni. A partire da novembre 2020, Meta ha introdotto 63 modifiche “break glass” al proprio algoritmo, progettate specificamente per ridurre la visibilità delle notizie inaffidabili in vista delle elezioni presidenziali statunitensi.

Queste modifiche hanno portato a una diminuzione significativa delle visualizzazioni di disinformazione, ma erano temporanee; nel marzo 2021, Facebook è tornato al suo algoritmo standard, che promuoveva nuovamente contenuti inaffidabili.

Il team di ricerca di UMass Amherst ha dimostrato che le modifiche al news feed di Facebook hanno ridotto la visibilità della disinformazione di almeno il 24%. Tuttavia, questo cambiamento è stato effimero e ha sollevato interrogativi sul fatto che gli algoritmi standard della piattaforma siano davvero in grado di frenare la disinformazione. “Il loro documento dà l’impressione che l’algoritmo standard di Facebook sia bravo a fermare la disinformazione, il che è discutibile“, ha affermato Przemek Grabowicz, coautore dello studio. Uno dei problemi principali è rappresentato dalla mancanza di preregistrazione degli esperimenti.

Questo consente a Meta di conoscere in anticipo cosa i ricercatori potrebbero analizzare e, di conseguenza, potrebbe incentivare l’azienda a modificare il proprio algoritmo per migliorare la propria immagine pubblica. Inoltre, poiché i social media non sono obbligati a rendere pubbliche le modifiche ai loro algoritmi, c’è un rischio di disinformazione anche all’interno della ricerca scientifica.

Gli autori dell’articolo hanno anche messo in luce che la responsabilità per la diffusione della disinformazione ricade su chi gestisce queste piattaforme. “Le aziende di social media possono mitigare la diffusione della disinformazione modificando i loro algoritmi, ma potrebbero non avere incentivi finanziari per farlo“, ha affermato Anthony Paik, un altro coautore dello studio. La domanda centrale è se il danno arrecato dalla disinformazione debba essere un fattore chiave nelle decisioni aziendali delle piattaforme social. Questa controversia mette in evidenza l’importanza di considerare il contesto in cui si svolge la ricerca sui social media e la necessità di un rigoroso monitoraggio e una maggiore trasparenza sulle modifiche algoritmiche.

La questione dell’affidabilità delle fonti di informazione sui social network è più attuale che mai e richiede un’attenzione continua per garantire che la democrazia non venga minacciata da contenuti inaffidabili. La ricerca dell’UMass Amherst invita a riflettere sulle pratiche attuali delle piattaforme social e sulle loro implicazioni per la società. La comunità scientifica e il pubblico devono rimanere vigili e chiedere una maggiore responsabilità e trasparenza alle aziende che gestiscono i social media, poiché il loro ruolo nella diffusione delle informazioni è fondamentale in un’epoca di crescente disinformazione.

Continua a leggere su Fidelity News