Twitter: in test su il layout a thread ed un tool anti bullismo/hate speech

In un periodo denso di annunci di carattere hardware, Twitter ruba per un istante l'attenzione ai manufacturer di mezzo mondo, annunciando ben due test suscettibili di migliorare non poco l'esperienza utente sulla piattaforma del canarino azzurro.

Twitter: in test su il layout a thread ed un tool anti bullismo/hate speech

Twitter, come ogni grande realtà impegnata a connettere digitalmente le persone, specie in periodo di quarantena da coronavirus, mette sempre a disposizione varie funzioni adatte allo scopo, testandole adeguatamente prima dell’effettivo rilascio. Esattamente come avvenuto ultimamente, con l’avvio ufficiale di ben due collaudi.

La prima novità relativa a Twitter di questo avvio di middle-week riguarda l’incipit di un test, comunicato dall’account ufficiale di supporto della piattaforma stessa: secondo quanto riferito, ad alcuni utenti web o iOS del noto microblog, proprio in queste ore, sarà erogata una nuova interfaccia che, in sostanza, riorganizza le conversazioni, in modo da rendere più semplice seguire quelle più vivaci in cui, di norma, si incontrano difficoltà ne capire a chi si stia rispondendo, o a chi stia replicando l’autore stesso del post.

Il nuovo layout a thread, simile invero a quello già in auge su Reddit, collaudato in precedenza anche via spin-off Twttr, prevede delle diramazioni lineari dal post “madre”, con rientranze per i commenti e le risposte. 

Sempre attinente a un test, comunicato ufficialmente dal quartier generale del canarino azzurro, è anche la seconda novità in salsa Twitter. La piattaforma di Jack Dorsey, già attiva nel rimuovere i post che violano le sue policy d’uso ma, in caso contrario, tollerante anche verso la pubblicazione di “contenuti potenzialmente infiammatori“, è consapevole che, in momenti di forte arrabbiatura, si potrebbe finire col dire cose che non si pensano realmente a, tal scopo, ha iniziato a sperimentare, con alcuni utenti di iOS, un sistema anti-bullismo online.

Il nuovo strumento di contenimento dell’hate speech, che ricorda un’analoga iniziava di Instagram (che evidenziava l’avvertimento “sembra simile ad altri che sono stati segnalati” nel caso ci si accingesse a impostare una didascalia offensiva su un proprio post), prevede che gli algoritmi del social avvertano l’utente, mediante notifica, del fatto che, nel commento o risposta che si appresta a pubblicare, sono contenute parole “potenzialmente dannose (sulla cui natura, però, non sono stati forniti maggiori ragguagli).

La speranza è che, anche se comunque viene concessa la scelta di continuare nella pubblicazione del proprio pensiero, di fronte alla segnalazione in oggetto, l’utente ripensi al suo intervento, usando un linguaggio più appropriato

Continua a leggere su Fidelity News