Facebook: iniziative contro il revenge porn e il video della strage suprematista, iniziative per l’intelligenza artificiale

Il gruppo di Menlo Park continua a ricevere critiche per il modo in cui ha affrontato il problema della strage neo zelandese, e per la monetizzazione di WhatsApp: tuttavia, ha proseguito in iniziative per l'intelligenza artificiale, e contro il revenge porn.

Facebook: iniziative contro il revenge porn e il video della strage suprematista, iniziative per l’intelligenza artificiale

Il colosso dei social network, Facebook, di recente finita al centro di un nuovo scandalo sulla privacy, ha ricevuto critiche anche per il modo in cui ha gestito i video della recente strage neo zelandese: intanto, messo nel computo anche il nuovo attacco sferrato da un suo ex dirigente di peso, il gruppo di Menlo Park si è lanciato in iniziative contro il revenge porn, e per l’intelligenza artificiale. 

La “strage delle moschee”, avvenuta in Nuova Zelanda per mano del suprematista bianco Brenton Tarrant, oltre che per sua efferatezza (circa 50 vittime, gran parte delle quali raccolte in preghiera), è passata alla storia per essere una delle prime azioni criminali trasmesse in diretta streaming sul web, sfruttando il live di Facebook. L’azienda, chiamata in causa per non essere intervenuta in tempo, ha replicato d’aver subito sospeso gli account social (anche su Instagram) del killer, e di aver cancellato il video (17 minuti) della strage (ripresa in soggettiva, tramite un’action camera) appena ricevuta la segnalazione della locale polizia. In più, Facebook ha confermato di aver rimosso, a 24 ore dall’evento, 1.5 caricamenti di filmati ritraenti la strage, gran parte dei quali bloccati addirittura in fase di upload. 

Le critiche, sul mancato tempismo con cui il social è intervenuto, non sono mancate, a cominciare da Mark Wallace, ex ambasciatore presso l’ONU e presidente dell’osservatorio newyorkese sull’estremismo, secondo il quale Facebook, come molti altri big hi-tech, non investe nella tecnologia, già disponibile, necessaria a prevenire la pubblicazione di simili contenuti, con la conseguenza – per il senatore democratico Cory Booker – di offrire costantemente uno spazio per l’espressione dell’odio.

Anche l’ex co-fondatore di WhatsApp, Brian Acton, non è (mai) stato molto tenero con Facebook, seppur a proposito di un’altra questione. Intervenendo in un dibattito con gli studenti dell’Università di Stanford, il programmatore statunitense ha spiegato di aver dovuto vendere la “sua” app a Zuckerberg per favorire gli investitori ed i suoi dipendenti, ma anche perché la sua quota di minoranza gli era stata profumatamente remunerata. Tuttavia, pur avendo continuato a lavorare a Menlo Park, il suo rapporto si interruppe quando si decise di monetizzare gli utenti, in luogo della precedente e più trasparente formula dell’abbonamento annuale (poi soppresso in favore di un’apparente gratuità). Privato del potere decisionale, Acton abbandonò Facebook, poi seguito anche dal collega Jan Koum e, ora, a proposito del social, non esita a caldeggiare che gli utenti lo abbandonino, cancellando il proprio account, anche in virtù dell’eccessivo potere decisionale, su ciò che è buono e ciò che non lo è, che i colossi del web (tra cui anche Google) hanno. 

Destinate a far discutere, infine, sono anche le novità di Facebook per quanto riguarda la lotta al revenge porn e l’intelligenza artificiale. Il social, infatti, onde tutelare le vittime del fenomeno, spesso ignare dello stesso o restie a fare segnalazioni per vergogna o paura di ritorsioni, ha attivato (anche su Instagram) un algoritmo proattivo che, individuato un materiale sensibile, lo segnalerà ad un moderatore umano, adeguatamente formato, che potrà rimuoverlo e bloccare l’account del mittente. Il tutto dovrebbe avvenire tramite l’analisi delle foto, nelle quali ravvisare del nudo, e dell’annessa didascalia, che verrà scandagliata onde riscontrare un “intento vendicativo”, o “parole e frasi “dispregiative o vergognose”. Sempre con lo scopo di contrastare il revenge porn, poi, verrà avviato il contenitore “Not Without My Consent”, che permetterà agli utenti di fare segnalazioni, di discutere, fornire riscontri, e chiedere consiglio a organizzazioni dedite a contrastare il fenomeno.

Intervenuti nel corso dell’Open Compute Project Global Summit, i responsabili del chipmaker Intel hanno ammesso di aver sviluppato, assieme a Facebook (interessata alla cosa per la rimozione automatizzata di contenuti discutibili), la libreria Bfloat 16 (per la gestione accelerata dei numeri con virgola mobile) che, inserita nelle CPU Xeon, permetterà di usarle anche per attività di machine learning ed AI

 

Continua a leggere su Fidelity News