X (ex Twitter) non riesce a rimuovere i post dannosi

Un nuovo rapporto del Center for Countering Digital Hate (CCDH) ha rivelato che X (ex Twitter) non è in grado di rimuovere i post che violano le sue regole in materia di disinformazione, antisemitismo, islamofobia e altri discorsi di odio.

X (ex Twitter) non riesce a rimuovere i post dannosi

Il Center for Countering Digital Hate (CCDH) ha pubblicato un nuovo rapporto martedì che suggerisce che X (ex Twitter) non riesce a rimuovere i post che violano le sue regole della comunità in materia di disinformazione, antisemitismo, islamofobia e altri discorsi di odio.

I ricercatori dello studio CCDH hanno segnalato ai moderatori di X il 31 ottobre 200 post “incitanti all’odio” sullo scontro tra Israele e Hamas che violavano le regole della piattaforma, scoprendo che il 98% dei post rimaneva ancora pubblicato dopo aver concesso sette giorni per elaborare le segnalazioni. Secondo il CCDH, i post segnalati, che in gran parte promuovevano il bigottismo e incitavano alla violenza contro musulmani, palestinesi ed ebrei, sono stati raccolti da 101 account X separati.

Solo un account è stato sospeso a causa delle loro azioni e i post rimasti attivi hanno accumulato complessivamente 24.043.693 visualizzazioni al momento della pubblicazione del rapporto. Ciò fa seguito a un precedente rapporto del CCDH di settembre riguardante l’incitamento all’astio in cui X sosteneva che l’organizzazione aveva travisato il numero di utenti che avevano visualizzato il contenuto incitante all’odio.

X ha intentato una causa contro il CCDH a luglio all’inizio di quest’anno sostenendo che l’organizzazione avrebbe “illegalmente” raschiato i dati di X per creare studiimperfetti” sulla piattaforma. Quarantatré dei 101 account X nello studio CCDH sono stati verificati, il che significa che l’algoritmo della piattaforma aumenta la visibilità dei loro post. In una dichiarazione a The Verge, il capo delle operazioni aziendali di X, Joe Benarroch, ha affermato che la società è stata informata del rapporto del CCDH ieri e ha invitato gli utenti di X a leggere un nuovo post sul blog che descrive in dettaglio le “misure proattive” che ha adottato per mantenere la sicurezza della piattaforma durante lo scontro in corso tra Israele e Hamas, compresa la rimozione di 3.000 account legati a entità violente nella regione e l’adozione di misure contro oltre 325.000 contenuti che violano i suoi termini di servizio.

X non ha chiarito in questo blog quanto tempo è stato necessario per rimuovere post e account offensivi dopo che erano stati segnalati. “Secondo quello che sappiamo, il CCDH affermerà che i post non vengono ‘agiti’ a meno che gli account che li pubblicano non vengano sospesi“, ha affermato Benarroch. “X ha dichiarato pubblicamente che sospendiamo gli account solo in caso di gravi violazioni delle nostre regole“.

La maggior parte delle azioni intraprese da X riguardano singoli post, ad esempio limitando la portata di un post“. X sostiene che, scegliendo di misurare solo le sospensioni degli account, il CCDH non ha rappresentato accuratamente i suoi sforzi di moderazione e ha esortato l’organizzazione a “coinvolgersi prima con X” per garantire la sicurezza della comunità X.

Il rapporto del CCDH solleva serie preoccupazioni sulla capacità di X di mantenere la propria piattaforma sicura e libera da contenuti dannosi. Se la piattaforma non è in grado di rimuovere rapidamente i post che violano le sue regole, può diventare un terreno fertile per la disinformazione, l’incitamento all’odio e altre forme di illecito. Il fatto che molti dei post segnalati fossero pubblicati da account verificati è particolarmente preoccupante. Ciò suggerisce che X potrebbe non essere in grado di identificare e affrontare efficacemente gli utenti che utilizzano la piattaforma per diffondere astio e violenza. La risposta di XLa risposta di X al rapporto è stata insoddisfacente.

La società non ha fornito informazioni chiare su quanto tempo ci sia voluto per rimuovere i post e gli account segnalati. Ha anche cercato di minimizzare le implicazioni del rapporto, sostenendo che X ha adottato misure proattive per mantenere la sicurezza della piattaforma. È evidente che X deve fare di più per affrontare il problema dell’incitamento all’odio sulla sua piattaforma. La società deve migliorare la sua capacità di identificare e rimuovere rapidamente i post dannosi. Deve anche essere più trasparente sui suoi sforzi di moderazione.

Continua a leggere su Fidelity News