in

Tay, la inteligencia artificial de Microsoft se volvió racista y nazi en tiempo récord

Pocas horas atrás hablé sobre el debut en la Web de Tay, una nuevo chatbot de Microsoft que buscaba conocer mejor a la actual generación de usuarios, recolectar información, y pulir un poco más sus funciones. Una de las preguntas que hice fue: «¿Qué puede salir de eso?» Bueno, la respuesta es una inteligencia artificial racista, amante de Hitler, negadora del Holocausto, promotora del incesto y defensora del terrorismo, todo esto en menos de 24 horas. Como era de esperarse, Microsoft bajó la palanca…

Es probable que algunos de nuestros lectores recuerden una campaña de Coca-Cola en la que se utilizaban tweets automáticos. Todo se desarrolló de maravillas hasta que lograron engañar a la inteligencia artificial para que publique párrafos provenientes del Mein Kampf, lo que obligó a la compañía a cancelar todo el proyecto. Creo que la lección en ese caso fue «No dejarás una inteligencia artificial a merced de los usuarios en la Web», pero una cosa es reconocer la lección, y otra es aprenderla. Pequeño «fast-forward» al día de ayer, y descubrimos que Microsoft desactivó a su inteligencia artificial Tay. ¿La razón? Creo que las imágenes lo explicarán mucho mejor…

Tay
No hay dudas: Los usuarios en la Web no son la mejor fuente de información para una IA
Tay
Los atentados en Bruselas también fueron mencionados…

Así es: En menos de un día, la «inocente» y «agradable» inteligencia artificial de Microsoft dispuesta a hablar con todos en las redes sociales y crear memes fue transformada en una psicópata racista y misógina, con un especial cariño por Adolf Hitler. También dijo que Bélgica se mereció el atentado en Bruselas, acusó al pueblo judío de haber perpetrado los ataques del 11 de septiembre, y negó el Holocausto, entre otras cosas. Lógicamente, Microsoft nos recordó que las expresiones de Tay son asimiladas a través de sus «interacciones» con los usuarios, pero el gigante de Redmond dijo estar haciendo «ajustes» en Tay, y su control de daños incluyó borrar los tweets más ofensivos.

Tay
… y negó el Holocausto…
05
… pero al final nos recuerda que no todo es su culpa.

«No dejarás una inteligencia artificial a merced de los usuarios en la Web». Más que una lección, el incidente con Tay acaba de convertir a esa frase en ley. Tay tenía la capacidad de «repetir como un loro», sin embargo, algunas de sus respuestas fueron procesadas por su cuenta, y los resultados quedan a la vista. Por un lado, estoy convencido de que Tay jamás tuvo la menor idea de lo que dijo, y por el otro, sus frases nos recuerdan que el problema, somos nosotros.

Reportar

¿Qué te pareció?

Escrito por Lisandro Pardo

12 Comments

Leave a Reply

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Visita un centro de datos de Google a través de un vídeo en 360 grados

Enlaces Recomendados de la Semana (N°351)