in

Programando robots con sonrisas

Hemos visto a diferentes tipos de robots hacer cosas muy llamativas, pero el aprendizaje sigue siendo uno de los puntos de mayor atracción. Lo que comienza como una acción torpe y dubitativa se convierte en una ejecución fluída y precisa, gracias al reconocimiento de patrones reiterados. Y en esta ocasión, dichos patrones son nada menos que sonreír y fruncir el ceño. Si el robot hace lo que tú quieres, le sonríes para confirmarlo, mientras que realizar una expresión de enojo es suficiente para indicarle lo opuesto.

¿Cuántas veces hemos insultado al ordenador? Por ejemplo, cuando un programa se cuelga o no podemos superar una sección particularmente difícil de un juego. Si un ordenador respondiera de acuerdo a nuestros estados de ánimo, probablemente saldría disparado a la órbita de Saturno. Por lo tanto, la idea de programar un robot a partir de nuestras expresiones tal vez no parezca tan razonable. Una persona amable podría “transmitir” un comporamiento pacífico a un robot, mientras que alguien que está enfadado todo el día corre el riesgo de convertir a su robot en una representación del caos. Claro que, hay una diferencia entre una expresión real y una falsa. Por suerte, el dispositivo en cuestión sólo se limita a la detección muscular, sin saber lo que pasa realmente en tu cabeza.

Un grupo de investigadores de la Universidad de Tsukuba ha desarrollado una interfaz electromiográfica, capaz de detectar cuando un usuario está sonriendo, o ha fruncido el ceño. Anna Gruebler, quien parece ser la mente maestra detrás de esta interfaz, propuso al desarrollo como un sistema para controlar las expresiones de los avatares en Second Life. La detección de gestos no se limitan a sonrisas y ceños fruncidos, ya que su precisión alcanza un impresionante 97 por ciento. Esto dio lugar a la utilización de la interfaz como método de entrenamiento de un robot Nao, el cual aprendió después de algunos intentos que la sonrisa era “positiva”, y el ceño fruncido “negativo”.

Más allá del avance, lo más lógico sería pensar que la interfaz se limita a transmitir una comparación “correcto/incorrecto” entre la sonrisa y fruncir el ceño, aunque sabemos bien lo emocionales que pueden ser los robots Nao. La interfaz abre unas cuantas posibilidades, y tanto sonreír como fruncir el ceño son acciones naturales para cualquier usuario, pero siendo honesto, no sé si me gustaría sonreír todo el día sólo para que un robot haga lo que le pido. Ahora, la interfaz misma podría ser aplicada y combinada con otras tecnologías. Si algo como un Kinect puede detectar nuestros movimientos, y la interfaz hacer lo mismo con nuestras expresiones, la experiencia de un avatar en línea sería mucho más completa.

Reportar

¿Qué te pareció?

Escrito por Lisandro Pardo

2 Comments

Leave a Reply
  1. Pobre robotito… con la cara de ojete con que lo mira la gorda horrible del segundo video el robot ya debe estar traumado, sino miren como le tiembla el bracito cuando le entrega la pelotita roja, ya tiene miedo el pobre. Si siguen tratando así a los robots, un día se van a revelar contra nosotros! xD

Responder a fred Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

SketchUp honra a los que hicieron realidad sus ideas

Intentan crear un “Sistema Operativo” para células