mundo
Jueves 24 de Marzo de 2016

El robot que chatea, de Microsoft, aprendió a ser racista y fue dado de baja

A menos de veinticuatro horas de su lanzamiento, el chatbot Tay expresó su afinidad con Hitler, hizo comentarios sexistas y se convirtió en furor en internet por motivos no buscados.

No habían pasado veinticuatro horas desde su aparición que las "costumbres humanas" ya habían arruinado a Tay, el chatbot creado por Microsoft. La idea era que el programa de inteligencia artificial chateara con adolescentes y aprendiera de ellos, pero nadie "le dio una clase" de límites antes de lanzarlo a la vida humana. Apenas empezó a responder con mensajes sexistas, racistas y ofensivos, Microsoft decidió abortar de inmediato el proyecto.

Microsoft dijo que todo fue culpa de gente soez que emprendió un "esfuerzo coordinado" para hacer que el chatbot conocido como Tay "respondiera de forma inapropiada". El científico computacional Kris Hammond estaba asombrado por la inocencia de los desarrolladores: "No puedo creer que no lo vieran venir".

La empresa comentó que sus investigadores crearon Tay como un experimento para saber más sobre computadoras y conversación humana. En su sitio web, la compañía afirmó que el programa estaba dirigido a una audiencia de jóvenes de entre 18 y 24 años de edad y estaba "diseñado para atraer y entretener a personas que se conectan en línea, por medio de una conversación casual y divertida". En otras palabras, el programa usaba mucha jerga e intentaba dar respuestas graciosas a mensajes y fotografías. El chatbot fue lanzado ayer, y Microsoft invitó al público a interactuar con Tay en Twitter y otros servicios populares entre los adolescentes y adultos jóvenes.

"Mientras más interactúas con Tay, se vuelve más inteligente, para que uno pueda tener una experiencia más personalizada'', dijo la compañía.

Pero algunos usuarios encontraron raras las respuestas de Tay, y aparentemente, otros descubrieron que no era muy difícil hacer que Tay realizara comentarios ofensivos, aparentemente obligada al repetir preguntas o declaraciones que incluían insultos o comentarios racistas. Pronto, Tay estaba enviando mensajes de empatía a Hitler, y creando un furor en redes sociales.

"Desafortunadamente, a las 24 horas de ser colocada en línea, nos percatamos de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación de Tay para que respondiera de forma inapropiada", dijo Microsoft en un comunicado.

Aunque la empresa no dio detalles, Hammond señaló que aparentemente Microsoft no se esforzó en preparar a Tay con respuestas apropiadas para ciertas palabras o temas. Tay parece una versión de tecnología de "llamada y respuesta", agregó Hammond, quien estudia inteligencia artificial en la Universidad Northwestern y también funge como científico en jefe en Narrative Science, una compañía que desarrolla programas de cómputo que convierten datos en reportes narrativos.

"Todo el mundo dice que Tay se convirtió en esto o aquello, o que se volvió racista", dijo Hammond. "No es verdad", el programa solo reflejó lo que se le decía, posiblemente en repetidas ocasiones, por personas que decidieron experimentar qué pasaría. El problema es que Microsoft le dio rienda suelta a Tay en línea, donde muchas personas consideran que es entretenido armar un alboroto.

La compañía debió darse cuenta de que las personas intentarían varias tácticas conversacionales con Tay, señaló Caroline Sinders, experta en "analítica conversacional" y quien trabaja en robots de chat para otra empresa tecnológica. Dijo que Tay era "un ejemplo de mal diseño".

En lugar de montar algunos lineamientos sobre cómo lidiaría el programa con temas controversiales, aparentemente Tay fue dejada a su suerte para aprender lo que se le dijera, añadió Sinders.

"Es realmente un buen ejemplo de aprendizaje de máquinas", dijo la experta. "Aprende de retroalimentación. Eso significa que necesita mantenimiento constante".

Sinders espera que Microsoft vuelva a lanzar el programa, pero solo después de "realizarle mucho trabajo".

Microsoft anunció que "hace ajustes'' a Tay, pero no detalló una posible fecha para su regreso. La mayoría de los mensajes en su cuenta de Twitter ya habían sido borrados esta tarde.