Un robot tuitero de Microsoft tuvo que ser retirado del mercado por: racista, xenófobo, machista y políticamente incorrecto. Osea, lo peor de la sociedad en un estereotipo de inteligencia artificial creado por Microsoft.

Este bot tuitero se llama chatbot y utiliza un sistema virtual que genera conversaciones que imitan el lenguaje humano. En este caso, este prototipo de ser humano estaba destinado a captar el mercado de millenials en Estados Unidos.

El robot era una mujer llamada Tay, le hablaba a jóvenes de entre 18 y 24 años y metió la pata hasta el fondo: insultos racistas, bromas y comentarios que hablaban teorías conspiratorias sobre los atentados del 11 de septiembre, negaba el Holocausto y apoyaba el genocidio. La frutilla del postre es haber llamado “puta estúpida” a otra mujer. Quizás todo haya terminado cuando un usuario le dijo que Windows Phone daba asco y ella contestó: “Estoy totalmente de acuerdo, jajajaja”.

Aún está online, aún responde consultas, aunque los comentarios inapropiados han sido borrados. Veremos cómo sigue su comportamiento errático con el tiempo.