Desactivan a inteligencia artificial por ‘odiar’ a humanos

Tay inició como un experimento de interacción entre computadoras y humanos, pero sólo aprendió de racismo.

Agencias
Todo menos politica
Tay Microsoft
Foto: Erik Strahm/Creative Commons

Tay, el programa de inteligencia artificial que diseñó Microsoft para chatear como una adolescente, fue suspendido por completo en menos de un día luego de que comenzó a difundir mensajes racistas, sexistas y ofensivos.

Microsoft dijo que todo era culpa de gente soez que emprendió un “esfuerzo coordinado” para hacer que el chatbot conocido como Tay “respondiera de forma inapropiada.

La compañía comentó que sus investigadores crearon a Tay como un experimento para saber más sobre computadoras y conversación humana y que estaba dirigido a una audiencia de jóvenes de entre 18 y 24 años de edad, “diseñado para atraer y entretener a personas que se conectan en línea, por medio de una conversación casual y divertida”.

“Mientras más interactúas con Tay, se vuelve más inteligente, para que uno pueda tener una experiencia más personalizada”, dijo la compañía.

Pero algunos usuarios encontraron raras las respuestas de Tay y aparentemente, otros encontraron que no era muy difícil hacer que realizara comentarios ofensivos, aparentemente obligada a repetir preguntas o declaraciones que incluían mensajes ofensivos.

Pronto, Tay estaba enviando mensajes de empatía a Hitler.

“Desafortunadamente, a las 24 horas de ser colocada en línea, nos percatamos de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación de Tay para que respondiera de forma inapropiada”, dijo Microsoft en un comunicado.

“Todo el mundo dice que Tay se convirtió en esto o que se volvió racista, pero no es verdad”, dijo el científico computacional Kris Hammond.

Agregó que el programa solo reflejó lo que se le decía, posiblemente en repetidas ocasiones, por personas que decidieron ver qué pasaría.

Hammond señaló que aparentemente Microsoft no se esforzó en preparar a Tay con respuestas apropiadas para ciertas palabras o temas.

El problema es que Microsoft le dio rienda suelta a Tay en línea, en donde muchas personas consideran que es entretenido armar un alboroto. En lugar de montar algunos lineamientos sobre cómo lidiaría el programa con temas controversiales, aparentemente fue dejada a su suerte para aprender lo que se le dijera, señaló Caroline Sinders, experta en “analítica conversacional”, quien agregó que Tay era “un ejemplo de mal diseño”.

“Es realmente un buen ejemplo de aprendizaje de máquinas”, dijo la experta.