Facebook, forte di una diffusione mondiale (secondo le ultime statistiche), e di risultati finanziari migliori di quanto non ci si attendesse (visti i vari scandali emersi negli ultimi anni), si avvia ad affrontare grandi sfide: tra queste, quella lanciata dalle istituzioni britanniche, per le quali il social sarebbe “un gangster digitale”, e quella dell’intelligenza artificiale.
Secondo l’ultima mappa mondiale sulla diffusione dei social, redatta da Vincenzo Cosenza, esperto e studioso in comunicazione digitale, nonostante i molteplici scandali nei quali è stata coinvolta, Facebook – che ha appena compiuto 15 anni di vita – continua a diffondersi nel globo: attualmente, il social in blu vanta 2.3 miliardi di iscritti, piuttosto affezionati (1.5 mld dei quali si connette al proprio profilo almeno una volta al dì), tanto da farne il loro social preferito (quanto meno in 153 delle 167 nazioni testate tramite le piattaforme statistiche SimilarWeb e Alexa). Addirittura, in alcuni paesi dell’ex impero sovietico (Azerbaijan, Georgia, Moldova) Facebook avrebbe sorpassato uno dei due social locali più popolari, Odnoklassnik, ed avrebbe messo la freccia per surclassare anche il suo principale rivale di zona, VKontakte (un quasi clone).
Nel fumetto d’esordio dell’uomo ragno, il mitico Stan Lee dichiarava che “da un grande potere derivano grandi responsabilità“. Ecco, secondo la commissione britannica che ha concluso un’indagine su Facebook, Zuckerberg, pur presiedendo una delle principali aziende del mondo, non mostra le doti di responsabilità e leadership che ci si aspetterebbe, tanto che – quando erano ancora in corso le indagini (durate 18 mesi) basate su alcuni documenti sequestrati a un querelante (l’azienda Six4Three) anti-Facebook, nelle quali erano riportate alcune mail del CEO in blu, quest’ultimo aveva sempre rifiutato la convocazione a testimoniare davanti alla commissione, negando in tal modo anche la responsabilità che dovrebbe avere verso i suoi iscritti.
Le conclusioni delle istituzioni britanniche, nell’indagine in oggetto, sono state durissime. Nel definire Facebook come un gangster digitale che si è ritenuto al di sopra delle leggi, si è accusato il social di ignorare le impostazioni sulla privacy degli utenti pur di trasferire dati a terzi. Considerata, quindi anche la propagazione di pericolose informazioni false, e di incitamento all’odio tramite il social, le richieste fatte al Parlamento di Sua Maestà sono che venga redatto un regolamento etico, con la consulenza di un esperto indipendente, che vincoli i grandi provider di servizi internet a rimuovere istantaneamente i contenuti valutati come inopportuni, e che queste aziende collaborino con le istituzioni nel fornire qualsiasi dato sia necessario per la conduzione delle proprie indagini. In più, in conclusione delle 110 pagine dell’istruttoria, l’Antitrust locale è stato invitato ad aprire un’indagine formale su Facebook, prodromo – in caso di accertate violazioni – di concrete sanzioni e multe.
La reazione di Facebook, a stretto giro, non si è fatta attendere. In pratica il social, nel dirsi partecipe delle preoccupazioni della Commissione inglese, ha ribadito di aver collaborato nel corso delle indagini, con documenti e testimonianze dei suoi dirigenti, di condividere l’esigenza di un regolamento sulla privacy (purché sia “equo“), e di aver fatto già molto – come aumento del personale e perfezionamento degli algoritmi proattivi – rispetto allo scorso anno.
Infine, i progetti di Facebook sull’intelligenza artificiale. Partecipando ad una convention mondiale sui circuiti a stato solido, il responsabile dell’intelligenza artificiale di Facebook, Yann LeCun, ha spiegato che il settore ha bisogno di processori specifici (Asics) che si dedichino allo scopo del machine learning (in tal senso, Menlo Park sta collaborando con Intel dopo che quest’ultima ha acquistato la Nervana Systems, impegnata in chip AI), magari strutturati a imitazione del cervello umano (attivazioni sparse e memoria associativa con strutture distribuite tra neuroni artificiali), e che i programmatori – attualmente “ipnotizzati” dal linguaggio di programmazione Python – dovrebbe inventarne uno nuovo proprio per supportare l’intelligenza artificiale. Nel caso queste due condizioni dovessero avverarsi, Facebook potrebbe generare un proprio assistente virtuale provvisto di “di buon senso e un background di base“, da mettere al servizio della moderazione del social, riducendo la “latenza” tra l’invio di un segnale (il riscontro di un contenuto inopportuno) e la reazione (la rimozione).