Un robot tuitero de Microsoft tuvo que ser retirado del mercado por: racista, xenófobo, machista y políticamente incorrecto. Osea, lo peor de la sociedad en un estereotipo de inteligencia artificial creado por Microsoft.

Este bot tuitero se llama chatbot y utiliza un sistema virtual que genera conversaciones que imitan el lenguaje humano. En este caso, este prototipo de ser humano estaba destinado a captar el mercado de millenials en Estados Unidos.

El robot era una mujer llamada Tay, le hablaba a jóvenes de entre 18 y 24 años y metió la pata hasta el fondo: insultos racistas, bromas y comentarios que hablaban teorías conspiratorias sobre los atentados del 11 de septiembre, negaba el Holocausto y apoyaba el genocidio. La frutilla del postre es haber llamado “puta estúpida” a otra mujer. Quizás todo haya terminado cuando un usuario le dijo que Windows Phone daba asco y ella contestó: “Estoy totalmente de acuerdo, jajajaja”.

Aún está online, aún responde consultas, aunque los comentarios inapropiados han sido borrados. Veremos cómo sigue su comportamiento errático con el tiempo.

One Reply to “Un robot racista, xenófobo y machista”

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *