YEI 3-Space Sensor: Captura de movimiento y Unreal Engine (vídeo)

56 Flares Twitter 48 Facebook 0 Google+ 8 Pin It Share 0 Email -- 56 Flares ×

Con la intervención de dispositivos como el Microsoft Kinect y otra clase de sensores, la captura de movimiento se está haciendo cada vez más accesible para una gran cantidad de entusiastas. Si a esto le sumamos la flexibilidad de ciertos motores gráficos, y una pizca de realidad virtual, se pueden obtener resultados en verdad impresionantes. Lo que están por ver fue creado utilizando un paquete de sensores YEI 3-Space combinados con el kit de desarrollo del Unreal Engine. Si esa clase de movimientos llegan a ser usados en un juego final, la industria va a tener que reescribir unas cuantas reglas…

Creo que ya lo he mencionado antes, pero uno de los primeros juegos de ordenador a los que fui expuesto fue el Prince of Persia, y todavía me asombra la forma en que Jordan Mechner logró capturar a algunos de los movimientos de su hermano David para trasladarlos al juego. El Prince of Persia original fue lanzado en 1989, pero no fue el único en desplegar una llamativa “realidad” en los movimientos del personaje. Karateka (previo a Prince of Persia), y otros clásicos como Another World y Flashback utilizaron técnicas similares. Hoy existe un acceso mucho más amplio a sensores que permiten la captura de movimiento. No es necesario recordar la gran cantidad de proyectos basados en Kinect, sin embargo, en lo personal creo que el vídeo que verán a continuación es mucho más elaborado, algo potenciado por la cantidad de sensores que intervienen.

Se trata del paquete de sensores YEI 3-Space. Cada uno de estos sensores poseen un giroscopio triaxial, compás y acelerómetro, junto con la capacidad de reportar altitud, dirección, y mediciones inerciales. Los sensores utilizan un modo de vector basado en referencias múltiples, lo cual permite incrementar la precisión de cada sensor, y tanto reducir como compensar cualquier error de registro que pueda manifestarse. También hay una importante cantidad de algoritmos en funcionamiento, que influyen tanto en el filtrado como en lo que el fabricante llama “nivel de confianza” del sensor. Estos sensores YEI 3-Space cuentan con múltiples aplicaciones, pero esta demostración de captura de movimiento es impresionante.

El motor gráfico Unreal hace un trabajo extraordinario al interpretar los movimientos alimentados por los sensores, pero la cereza en el pastel está en la utilización del HMD, generando un entorno virtual completo. El vídeo fue presentado originalmente en la edición 2012 de la conferencia ION GNSS, llevada a cabo entre el 17 y el 21 de septiembre pasado. El paquete de desarrollo de Unreal es gratuito siempre y cuando se use para objetivos no comerciales, pero la inversión principal está en los sensores mismos. El paquete utilizado en esta demo tiene un precio de 3.995 dólares, con un adicional de 150 dólares para las correas. El número puede parecer agresivo, pero los resultados hablan por sí solos.