Iscriviti

Facebook: arriva l’intelligenza artificiale per prevenire i suicidi

Con un comunicato da parte del social network, ormai sulla strada dei 2 miliardi di iscritti, è stato annunciato il varo di nuovi strumenti per prevenire i suicidi, ed aiutare chi soffre: oltre al monitoraggio dei live video, arriva l'intelligenza artificiale.

Internet e Social
Pubblicato il 2 marzo 2017, alle ore 11:28

Mi piace
11
0
Facebook: arriva l’intelligenza artificiale per prevenire i suicidi
Pubblicità

Facebook totalizza, ormai, quasi 2 miliardi di iscritti e, secondo Mark Zuckerberg, CEO dell’azienda, si trova nelle condizioni di essere più di un semplice strumento di svago: nello specifico, Facebook sarebbe in grado di evitare che le persone si facciano del male. Come? Grazie al varo di una nuova serie di strumenti, per assistere le persone a rischio suicidio.

In verità, Facebook aveva già introdotto una serie di “contromisure” in favore delle persone che soffrono, e che potrebbero essere tentate di porre fine alla propria vita: si trattava di un insieme di funzionalità che permetteva, agli amici del soggetto coinvolto, di segnalare dei post nei quali si ravvisavano concreti “pericoli” per quella data persona. La procedura prevedeva il classico passaggio per il team di Facebook, che – fatte le opportune verifiche del caso – avrebbe contattato l’utente affetto dal “mal di vivere”, mettendolo in contatto con organizzazioni, enti, e professionisti, che sarebbero stati in grado di aiutarlo.

Ora, in aggiunta a questo sistema già collaudato, verranno introdotte ulteriori misure di “supporto”: secondo quanto comunicato dall’azienda, tanto per cominciare, gli utenti del network potranno segnalare anche i video live nei quali abbiano rilevato uno stato di sofferenza da parte di un loro amico. A segnalazione avvenuta, interverrà il team di Facebook che, però, non interromperà il live, dato che alcuni studi hanno fatto osservare come ciò potrebbe tramutarsi in una mancata occasione per aiutare il soggetto coinvolto.

Piuttosto, espletate le doverose verifiche, anche in questo caso si forniranno – direttamente all’interessato – gli strumenti per contattare gli esperti di salute psichica più vicini ed idonei cui rivolgersi, oltre a una serie di validi consigli, forniti da esperti del settore.

La vera novità, però, sarà l’applicazione dell’intelligenza artificiale, per scovare post nei quali sia evidenziato uno stato di sofferenza. L’AI di Facebook, in particolare, analizzerà le discussioni intraprese dagli utenti (es. i discorsi che si fanno sul dolore), con i relativi commenti da parte degli utenti (es. “sono preoccupato per te, tutto bene?”) e, rilevato un pericolo – in base ad alcuni indicatori – farà partire una segnalazione allo staff umano, che agirà di conseguenza.

A tal proposito, una manager del social in blu, Vanessa Callison-Burch, ha spiegato che, per ragioni di privacy, NON si interpelleranno amici e parenti, non conoscendo le dinamiche che intercorrono tra il soggetto e quest’ultimi, ma si contatterà sempre l’interessato, indirizzandolo verso organizzazioni per la tutela della salute mentale, attive negli USA (dove partiranno i primi test), e con le quali Facebook ha attivato una partnership ad hoc: queste ultime, poi, potranno contattare chi soffre, per avviare un primo contatto tramite la chat-app “Messenger”

Per ora, il progetto di applicare l’intelligenza artificiale di Facebook per scovare le persone che soffrono partirà, come accennato, dagli USA, e riguarderà i post scritti nella TimeLine: in seguito, si passerà anche alle conversazioni scambiate in Messenger, e ai Live Video

Altre notizie interessanti
Cosa ne pensa l’autore

Fabrizio Ferrara - Trovo che sia un'ottima idea che Facebook inizi ad assumersi un po' di responsabilità in merito ai rapporti che viaggiano lungo la sua piattaforma: impegnarsi affinché tali relazioni non siano solo funzionali al divertimento, ma utili anche al supporto per coloro che soffrono, è una gran cosa, ed è meritorio che Zuckerberg abbia deciso d'intraprendere questa strada. Anche l'indurre un minimo dubbio in una persona che soffre, o dargli una leva con cui provare a risollevarsi, potrebbe fare la differenza. Qualche perplessità, invece, potrebbe giungere dall'applicazione dell'intelligenza artificiale, ancora poco abile, a mio avviso, nel riconoscere certi segnali: tuttavia, si tratta di una "supplenza", per i casi che siano sfuggiti alla segnalazione umana e, quindi, tale implementazione dovrebbe serbare dei rischi "contenuti".

Lascia un tuo commento
Commenti

Non ci sono ancora commenti su questo contenuto. Scrivi la tua opinione per primo!