Facebook: inchieste Wall Street Journal, comitato elettorale, problema danni sociali coordinati

Coinvolto in nuove inchieste da parte del Wall Street Journal, Facebook, che ha messo in conto di varare un comitato elettorale per le elezioni mid-term americane, ha decido di affrontare coloro che ne abusano la piattaforma per causare danni sociali coordinati.

Facebook: inchieste Wall Street Journal, comitato elettorale, problema danni sociali coordinati

Non sembra conoscere tregua Facebook che, pur reduce dal varo dei suoi occhiali smart, e intenta a sviluppare novità regolamentari, dopo i problemi della scorsa settimana, ne ha accusato altri, di vario genere, e su più livelli.

Secondo un’inchiesta pubblicata dal Wall Street Journal, relativa a un documento interno del 2019 stilato da alcuni ricercatori del social, il programma di controllo incrociato XCheck, che aggiunge un livelli di controllo ulteriore, di tipo umano, a quello fatto automaticamente dagli algoritmi artificiali, farebbe delle eccezioni, con una sorta di white list, al rispetto delle regole a cui sono tenuti tutti gli utenti comuni. Nello specifico, alcune categorie di utenti VIP, come star, sportivi, politici, sarebbero esonerati dal rispetto delle regole della piattaforma, potendole addirittura violare senza conseguenze.

I dati pubblicati dal report, nello specifico, citano alcuni dei “favoriti” (inconsapevoli) del social, tra cui i Trump (padre e figlio), e la senatrice democratica Elizabeth Warren, sebbene – dal 2020 a oggi – risultino esonerate circa 5,8 milioni di persone, probabilmente per evitare la cattiva pubblicità che si avrebbe defalcando la foto caricata da un personaggio famoso, o per scongiurare contrasti con il PM (public management, pubbliche relazioni) di questa categoria di persone. Facebook, a stretto giro, ha replicato sostenendo che ha “identificato problemi con il controllo incrociato e ha lavorato per risolverli“. 

Era il 2017 quanto Facebook modificò il suo algoritmo, per contenere i post “pesanti” e magari di hate speech, onde favorire un ambiente sano che, tranquillizzate le persone, favorisse al meglio le interazioni tra queste ultime: un report interno stilato da alcuni ricercatori del social, finito anche in questo caso “tra le grinfie” del WSJ, ha permesso di appurare come la modifica in questione favorì, quale effetto collaterale, i contenuti che si intendeva combattere, cioè quelli più critici, che risultavano essere quelli più commentati e con più interazioni, come confermato all’epoca anche dall’AD di BuzzFeed, Jonah Peretti, che fece l’esempio di un pezzo sui luoghi comuni, “21 cose che quasi tutti i bianchi sono colpevoli di dire” che, pubblicato dal suo gruppo editoriale, aveva ottenuto subito una 16.000 commenti e 13 mila condivisioni su Facebook. A quanto pare, il CEO Zuckerberg era consapevole della cosa, ma lasciò correre, perché “quei post stimolavano la discussione e catturavano l’attenzione degli utenti, dopotutto“. 

Dal The New York Times, invece, giunge l’indiscrezione secondo la quale, in vista delle elezioni americane di metà mandato, Facebook avrebbe intenzione di far entrare in servizio, verso l’autunno del 2022, un comitato elettorale, formato da accademici, politologi, ed esperti di comunicazione politica, che avrebbe il compito di intervenire nel caso emergano episodi o contenuti controversi che coinvolgano politici e/o relativi rappresentanti, di ridurre la disinformazione politica favorendo anche un confronto bipartisan pacato e, forse, anche di proporre speciali linee guida per le pagine delle formazioni politiche o dei candidati in lizza, senza trascurare la richiesta di una maggior trasparenza nelle inserzioni politiche. 

Secondo quanto riporta Engadget, infine, Facebook ha annunciato l’introduzione di una nuova policy che affronta quelle reti di account che possono “cagionare danni sociali coordinati“, pur non rientrando nella casistica già prevista del “comportamento non autentico coordinato, magari tentando di organizzare della violenza politica o diffondendo fake news anti-vaccini. Il tutto prevederà o il ban degli account o la limitazione della portata dei loro contenuti in modo che non divengano virali. 

Continua a leggere su Fidelity News