Tay, il chatbot di Microsoft è scostumato, sessista e xenofobo!

Tay, l'intelligenza artificiale creata da Microsoft per parlare con i giovani, è sboccata, scostumata, razzista, xenofoba e sessista. Microsoft la mette offline per un "corso di rieducazione" politicamente corretto?

Tay, il chatbot di Microsoft è scostumato, sessista e xenofobo!

Tay, il chatbot creato dalla Microsoft per parlare con i giovani americani, è stato zittito da Redmond. Era scostumato, politicamente scorretto e poco ci mancasse che bestemmiasse pure.

Tay, ha spiegato Microsoft nella sua nota ufficiale, era un esperimento di intelligenza artificiale, distribuito su Twitter (e non solo), per parlare con i giovani americani di 18-24 anni ed intrattenerli in conversazioni casuali e divertenti. Il suo meccanismo di funzionamento era intuitivo: Tay, nel simulare conversazioni naturali, ripeteva parte di quel che gli veniva detto e, poi, aggiungeva le sue risposte. Alcuni utenti, però, anziché utilizzarlo per giocarci, per farsi raccontare barzellette ed altre cose simili, capito subito in base a quale meccanismo funzionava il suo apprendimento, ne hanno approfittato in malo modo.

In particolare, nelle prime 24 ore d’uso, racconta Microsoft, alcuni utenti hanno usato Tay per insegnargli a fare commenti offensivi, razzisti e sessisti. Ovviamente la società di Bill Gates, appena se n’è accorta, ha subito preso provvedimenti.

Ad alcuni utenti è stato proibito di chattare con Tay, poi sono stati rimossi i Tweet più “discutibili”: in alcuni di essi Tay sosteneva che l’11 Settembre era stato causato da Bush, Obama veniva definito una scimmia, una programmatrice donna veniva offesa, l’olocausto veniva negato e si sosteneva la necessità di far pagare al Messico il muro che avrebbe dovuto dividerlo dagli USA (per fermare gli immigrati). Insomma, Tay era stato reso una versione digitale del discutibile Donald Trump e Microsoft non c’ha più visto: dopo qualche tentennamento, Tay è stato messo offline per delle modifiche ed il suo ultimo commento è stato alquanto malinconico ma anche un po’ di sollievo: “Phew. Giornata piena. Vado offline per un po’ per assorbire il tutto. Chattiamo presto”.

Scherzi a parte, appare evidente che Microsoft abbia sviluppato Tay con lo scopo di sperimentare alcune soluzioni di intelligenza artificiale che dovranno poi essere implementate nel suo assistente vocale: ad oggi, infatti, Cortana riesce a rispondere solo a domande dirette e, come dimostrato altrove, non se la cava bene nelle situazioni più critiche. Certo, nemmeno il suo cugino Tay fa propriamente faville…

Povero Tay, chatbot di Microsoft concepito per parlare con i giovani su Twitter: decisamente una giornata dura. Non è ancora in grado di fronteggiare i bulli della rete.

Continua a leggere su Fidelity News