DeepStereo: Animaciones completas a partir de un puñado de imágenes

La Web adoptó casi de inmediato a DeepDream y sus imágenes surrealistas. Una enorme cantidad de usuarios exprimió sin piedad a la «imaginación» de las redes neurales, sin embargo, no debemos perder de vista el hecho de que fueron creadas con funciones aún más complejas en mente. Una buena prueba de ello es DeepStereo, otro sistema de Mountain View capaz de desarrollar animaciones a partir de una serie de imágenes, calculando y llenando los «vacíos digitales» con una precisión más que aceptable.

Con diez o veinte imágenes en su poder, el usuario no puede ir mucho más allá de la clásica diapositiva para presentarlas en forma animada. El vídeo se postula como una excelente alternativa, pero a menos que sea sometido a una buena cantidad de post-procesamiento, el resultado filmado con un dispositivo móvil será inestable y caótico. Ahora… existe la posibilidad de obtener más información de esas imágenes. Las herramientas tradicionales se quedan en el camino, pero cuando son analizadas con la asistencia de una red neural, es posible producir datos que no están allí. Desde cierto punto de vista, esa es la forma en que trabaja DeepDream, cuyas imágenes poseen animales y estructuras salidas de la nada. DeepStereo es aún más robusto.

 

En vez de ahogar al sistema con múltiples fases de procesamiento y ajustes a medida, DeepStereo fue entrenado por Google de un extremo al otro con un objetivo específico: Al cargar varias imágenes, el sistema obtiene píxeles de diferentes ángulos, y a partir de esa información genera los píxeles que no se observan en primer lugar. El resultado al recorrer las imágenes es una animación con transiciones completas y errores mínimos, detectados principalmente en las diferencias de luz. DeepStereo también toma en consideración el color y los detalles sobre profundidad, de modo tal que una lámpara no queda atrapada dentro de una columna, o incrustada en la pared.

De más está decirlo, el trabajo de DeepStereo no es perfecto. Si la diferencia de tiempo e iluminación entre las imágenes es demasiado amplia, surgen errores durante el proceso de transformación, pero eso no erosiona su enorme potencial. Imagina una versión de Street View con transiciones suaves, o por qué no, cosas como proyectos cinematográficos y de realidad virtual respaldados por esta tecnología. Al igual que sucedió con DeepDream, no estaría mal que Google libere el código de DeepStereo, pero algo me dice que será necesario esperar un poco…

Deja tu voto

0 points
Upvote Downvote

Total votes: 0

Upvotes: 0

Upvotes percentage: 0.000000%

Downvotes: 0

Downvotes percentage: 0.000000%

9 Comments

Deja una respuesta
    • Si no tenes filmadora, y celular y tenes poco espacio en tu celular o no anda por algun motivo, sirve igual. Al diseñador cuantas mas herramientas le das, mas usa 😉

    • Me pregunto si servirá para poder grabar contenido con elevadísimo nivel de compresión. Por ejemplo, en vez de grabar un video de 1 minuto, con 30 fotos (y por ende, menos frames de video) y la aplicación del software en directo, podrían generarse animaciones que puedan ser proyectados por un costo de peso mínimo. Lo que haría falta entonces sería que el software que genere este efecto sea lo suficientemente liviano.

      • si hace lo mismo o mejor que photosynth supongo que sera mejor. pero yo lo que vi pareciera que fuera como hacer un video continuo pero de fotos.

  1. Como experimento me fascina ya que ahora mismo me planteo “esto parece un videojuego hecho con un engine poderoso, ¿Qué es lo que hace que un diseño de escenarios se vea realista o no?”

  2. Hay que recordar que los videos actuales usan codecs en los que se toma una foto y el siguiente fotograma retiene la informacion nueva y evita reusar la informacionn igual, por ejemplo, las imagenes en movimiento puede ocupar mas… Aunque pensandolo bien un video de 2 h de una camara estatica deberia pesar mas o menos 2 MB o no? Que opinan?

    El usar IA pare reemplazar pixeles polr similares me parece bastante bueno, aunque le hace falta entender los componentes de la foto, para dar mas forma de rostro a las personas y pixelar a profundidad a modo ue no se distinga la gente de cerca, pero si de lejos, o incluso hacer estatica a la gente, para que aunque el video se mueva, la cara de las personas este intacta aunque inmovil.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *