Facebook totalizza, ormai, quasi 2 miliardi di iscritti e, secondo Mark Zuckerberg, CEO dell’azienda, si trova nelle condizioni di essere più di un semplice strumento di svago: nello specifico, Facebook sarebbe in grado di evitare che le persone si facciano del male. Come? Grazie al varo di una nuova serie di strumenti, per assistere le persone a rischio suicidio.
In verità, Facebook aveva già introdotto una serie di “contromisure” in favore delle persone che soffrono, e che potrebbero essere tentate di porre fine alla propria vita: si trattava di un insieme di funzionalità che permetteva, agli amici del soggetto coinvolto, di segnalare dei post nei quali si ravvisavano concreti “pericoli” per quella data persona. La procedura prevedeva il classico passaggio per il team di Facebook, che – fatte le opportune verifiche del caso – avrebbe contattato l’utente affetto dal “mal di vivere”, mettendolo in contatto con organizzazioni, enti, e professionisti, che sarebbero stati in grado di aiutarlo.
Ora, in aggiunta a questo sistema già collaudato, verranno introdotte ulteriori misure di “supporto”: secondo quanto comunicato dall’azienda, tanto per cominciare, gli utenti del network potranno segnalare anche i video live nei quali abbiano rilevato uno stato di sofferenza da parte di un loro amico. A segnalazione avvenuta, interverrà il team di Facebook che, però, non interromperà il live, dato che alcuni studi hanno fatto osservare come ciò potrebbe tramutarsi in una mancata occasione per aiutare il soggetto coinvolto.
Piuttosto, espletate le doverose verifiche, anche in questo caso si forniranno – direttamente all’interessato – gli strumenti per contattare gli esperti di salute psichica più vicini ed idonei cui rivolgersi, oltre a una serie di validi consigli, forniti da esperti del settore.
La vera novità, però, sarà l’applicazione dell’intelligenza artificiale, per scovare post nei quali sia evidenziato uno stato di sofferenza. L’AI di Facebook, in particolare, analizzerà le discussioni intraprese dagli utenti (es. i discorsi che si fanno sul dolore), con i relativi commenti da parte degli utenti (es. “sono preoccupato per te, tutto bene?”) e, rilevato un pericolo – in base ad alcuni indicatori – farà partire una segnalazione allo staff umano, che agirà di conseguenza.
A tal proposito, una manager del social in blu, Vanessa Callison-Burch, ha spiegato che, per ragioni di privacy, NON si interpelleranno amici e parenti, non conoscendo le dinamiche che intercorrono tra il soggetto e quest’ultimi, ma si contatterà sempre l’interessato, indirizzandolo verso organizzazioni per la tutela della salute mentale, attive negli USA (dove partiranno i primi test), e con le quali Facebook ha attivato una partnership ad hoc: queste ultime, poi, potranno contattare chi soffre, per avviare un primo contatto tramite la chat-app “Messenger”.
Per ora, il progetto di applicare l’intelligenza artificiale di Facebook per scovare le persone che soffrono partirà, come accennato, dagli USA, e riguarderà i post scritti nella TimeLine: in seguito, si passerà anche alle conversazioni scambiate in Messenger, e ai Live Video.