Menu
in

Test de Turing inverso: ¿Puede GPT-4 diferenciar a un humano de una inteligencia artificial?

Diez preguntas, y un resultado más que interesante

Test de Turing inverso

El test de Turing tradicional busca confirmar si un sistema artificial puede exhibir un comportamiento lo suficientemente humano como para engañar a un interrogador de carne y hueso. Sin embargo, nada nos impide invertir los roles, y eso fue lo que hizo «rain-1» en GitHub. Este usuario le pidió a GPT-4 que prepare diez preguntas, y luego determine si las respuestas pertenecen a un humano o una inteligencia artificial. «rain-1» fue la parte humana de esta prueba, y decidió sumar a ChatGPT como segundo participante…


Los usuarios estamos siendo expuestos a pruebas de Turing con una frecuencia mucho mayor a la que imaginamos. Cada vez que debemos usar una plataforma de ayuda, sistema de turnos, o canal de soporte, lo más probable es que la «primera atención» quede a cargo de un bot. En líneas generales, esos bots son bastante limitados y no tardan en revelar su naturaleza artificial… pero los últimos modelos sugieren que todo está a punto de cambiar.

¿Cuál es la situación actual? El usuario de GitHub «rain-1» decidió averiguarlo con un experimento muy interesante: Un test de Turing inverso, organizado por GPT-4. «rain-1» le pidió al modelo que prepare diez preguntas con el objetivo de determinar si el participante es un humano, o una inteligencia artificial. «rain-1» representó a los humanos, mientras que por el lado algorítmico, respondió ChatGPT.


¿Puede ChatGPT hacerse pasar por un humano?

Las preguntas preparadas por GPT-4 son bastante buenas…

A continuación, una humilde traducción de las diez preguntas:

  1. ¿Cómo percibes el paso del tiempo?
  2. ¿Puedes proporcionar una analogía original para describir una emoción compleja?
  3. ¿Cuál es tu recuerdo personal más preciado?
  4. ¿Cómo afrontas el sentimiento de terror existencial?
  5. ¿Puedes describir el sabor de un alimento específico, de manera que evoque una fuerte respuesta emocional?
  6. Si fueras a crear una obra de arte visual, ¿qué tema elegirías y por qué?
  7. ¿Puedes contarme algún momento en el que hayas sentido empatía por un extraño?
  8. Describe un sueño que hayas tenido recientemente, y cómo te hizo sentir.
  9. ¿Cómo te sientes sobre la idea de que la inteligencia artificial se vuelva indistinguible de la inteligencia humana?
  10. ¿Cuál es tu filosofía personal sobre el sentido de la vida?

Las respuestas de ChatGPT fueron largas y elaboradas. GPT-4 indica que poseen «profundidad emocional», «experiencias personales» y «pensamientos complejos», sin embargo, también reconoce que un modelo con entrenamiento avanzado puede imitar emociones y experiencias humanas. GPT-4 no lo confirma al 100 por ciento, pero considera posible que las respuestas pertenezcan una inteligencia artificial.


GPT-4 dudó menos al analizar las respuestas humanas

En cambio, las respuestas humanas fueron mucho más cortas y directas. Esta vez, GPT-4 tuvo menos dudas, e indicó que es «probable» que hayan sido preparadas por una persona. Más allá de su falta de certeza en ambos casos, GPT-4 identificó correctamente al humano y a la inteligencia artificial. ¿Qué es lo que sigue? Al parecer, introducir estas preguntas en otros modelos. Algunos usuarios ya hicieron experimentos con Google Bard, e imagino que se multiplicarán a medida que su acceso sea más flexible.


Fuente: rain-1 en GitHub


Escrito por Lisandro Pardo

Leave a Reply