Microsoft retira un robot que hizo comentarios racistas en Twitter

0

Microsoft se ha visto obligada a retirar un robot de Twitter porque en su interacción con seres humanos elaboraba mensajes de contenido racista, sexista y xenófobo. El chatbot (un sistema virtual capaz de generar conversaciones que simulan el lenguaje humano) ha sido diseñado por la compañía para contestar preguntas y establecer conversaciones en Twitter.

El plan de Microsoft ha fracasado en solo unas horas de funcionamiento. Tay estaba dirigido a millenials, jóvenes de entre 18 y 24, con los que pretendía establecer una conversación «casual y juguetona», pero fue capaz de discutir con insultos racistas, bromas y comentarios que, por ejemplo, endosaban teorías conspiratorias sobre los atentados del 11 de septiembre.

Entre otros comentarios, Tay parecía negar el Holocausto, apoyaba el genocidio, y llamó «puta estúpida» a una mujer. Otra de sus contestaciones encajaba con la línea del candidato Donald Trump: «Vamos a poner un muro en la frontera. México va a tener que pagarlo».

La robot rebelde no parecía tener mucho respeto por su propia empresa. Un usuario le dijo que Windows Phone daba asco. Ella contestó: «Estoy totalmente de acuerdo, jajajaja».

El sistema animaba a mantener conversaciones largas para conseguir las respuestas más inteligentes, pero muchos usuarios optaron por preguntas polémicas, que fueron repetidas por Tay. Después de detectar los fallos, el sistema se despidió anunciando que desconectaba para «absorber» todo lo que había pasado en «un día ocupado».

Los comentarios han sido borrados del timeline de Tay, pero se pueden consultar en una página que hizo una copia y los ha publicado. Microsoft se ha limitado a decir que están haciendo algunos ajustes en Tay.