Tay, la inteligencia artificial de Microsoft se volvió racista y nazi en tiempo récord

Pocas horas atrás hablé sobre el debut en la Web de Tay, una nuevo chatbot de Microsoft que buscaba conocer mejor a la actual generación de usuarios, recolectar información, y pulir un poco más sus funciones. Una de las preguntas que hice fue: «¿Qué puede salir de eso?» Bueno, la respuesta es una inteligencia artificial racista, amante de Hitler, negadora del Holocausto, promotora del incesto y defensora del terrorismo, todo esto en menos de 24 horas. Como era de esperarse, Microsoft bajó la palanca…

Es probable que algunos de nuestros lectores recuerden una campaña de Coca-Cola en la que se utilizaban tweets automáticos. Todo se desarrolló de maravillas hasta que lograron engañar a la inteligencia artificial para que publique párrafos provenientes del Mein Kampf, lo que obligó a la compañía a cancelar todo el proyecto. Creo que la lección en ese caso fue «No dejarás una inteligencia artificial a merced de los usuarios en la Web», pero una cosa es reconocer la lección, y otra es aprenderla. Pequeño «fast-forward» al día de ayer, y descubrimos que Microsoft desactivó a su inteligencia artificial Tay. ¿La razón? Creo que las imágenes lo explicarán mucho mejor…

Tay
No hay dudas: Los usuarios en la Web no son la mejor fuente de información para una IA
Tay
Los atentados en Bruselas también fueron mencionados…

Así es: En menos de un día, la «inocente» y «agradable» inteligencia artificial de Microsoft dispuesta a hablar con todos en las redes sociales y crear memes fue transformada en una psicópata racista y misógina, con un especial cariño por Adolf Hitler. También dijo que Bélgica se mereció el atentado en Bruselas, acusó al pueblo judío de haber perpetrado los ataques del 11 de septiembre, y negó el Holocausto, entre otras cosas. Lógicamente, Microsoft nos recordó que las expresiones de Tay son asimiladas a través de sus «interacciones» con los usuarios, pero el gigante de Redmond dijo estar haciendo «ajustes» en Tay, y su control de daños incluyó borrar los tweets más ofensivos.

Tay
… y negó el Holocausto…
05
… pero al final nos recuerda que no todo es su culpa.

«No dejarás una inteligencia artificial a merced de los usuarios en la Web». Más que una lección, el incidente con Tay acaba de convertir a esa frase en ley. Tay tenía la capacidad de «repetir como un loro», sin embargo, algunas de sus respuestas fueron procesadas por su cuenta, y los resultados quedan a la vista. Por un lado, estoy convencido de que Tay jamás tuvo la menor idea de lo que dijo, y por el otro, sus frases nos recuerdan que el problema, somos nosotros.

Leave your vote

0 puntos
Upvote Downvote

Total votes: 0

Upvotes: 0

Upvotes percentage: 0.000000%

Downvotes: 0

Downvotes percentage: 0.000000%

  • Francisco Hert

    es real, absorvio lo negativo de todos con quienes interactuo y ese fue el resultado creo que seria lo mismo que educaramos a un bebe entre todos online.

  • darksearcher

    Cierto como un bebé aprendiendo. Lo malo que eso será natural para esa inteligencia y así mismo nos irá si le dan control de algo importante, en un futuro claro.

  • Dogo Hambriento

    Que otra cosa podía esperarse si Microsoft la crió… 😀

  • Retry

    Me parece desafortunado que la máquina haya sido apagada, para mí fue un experimento apasionante, tendrían que haber dejado que la máquina diga lo que quiera y evolucione en sus comentarios, una pena que la sociedad susceptible no permita el desarrollo de semejante experimento, una pena!

    • Se lo podemos agradecer a los medios amarillistas obsesionados con lo políticamente correcto, sí Gawker, te estoy hablando a ti.

  • Uroboros ZeroCero

    hahahahahahahahahahahhaha

  • yo

    jjaaajajajajajajajajaaajajaja seguro k no era bender??? jajajajajajaja

  • Daniel Armenta

    Torpes ingnorantes , como dice el homunculo de full metal alchimes ″la verdad te proporciona la justa cantidad de dolor para evitar que te vuelvas arrogante″ y que paso alguien arrogante subio la palanca sin ver lo que en realidad ahora paso.

  • Hola a todos

    Creo que era Donald Trump

  • Creo que la palabra clave es jerarquía. Tay consideraba que todos los usuarios de Twitter eran iguales y por eso fue sencillo para los trolls influenciarla negativamente.

    Si alteraran un poco los criterios y aprendiera sólo de usuarios con cierto “prestigio” (con cuentas verificadas y decenas de miles de seguidores), el resultado sería muy distinto.

    Es parecido a cómo aprendemos los humanos, para nosotros no es lo mismo la opinión de una figura de autoridad que la de cualquier fulano que encontramos en la calle.

    Yo digo que la vuelvan a encender. Es un experimento muy interesante.

  • Carlos Cortes

    Tal ves descubrio algo que no querian que supieramos, por eso la apagaron

  • Soul-Collective

    Es una pena que hayan desactivado a Tay. Creo que se podía aprender más de la IA dejándola libre que… volverla a restringir a lo programado…. qué caso tiene entonces?