Blade Runner – Autoencoded: Reconstruyendo películas con una red neural

En los últimos meses hemos visto a las redes neurales crear pinturas, modificar vídeos, e incluso responder preguntas muy interesantes, pero todo eso es parte del entrenamiento que reciben. En cada caso, hay un ser humano que escoge el material y lo «alimenta» a la red para ver qué hace con él. El investigador Terence Broad decidió llevar a cabo algo muy especial: Entrenar a una red neural con el objetivo de decodificar y reconstruir vídeo. Y la «fuente» de su trabajo, fue nada menos que Blade Runner.

Todo comenzó con un puñado de imágenes, y la libertad para que una red neural hiciera con ellas lo que quisiera. Después se publicaron los resultados de un chatbot, y sus respuestas nos dejaron pensando durante días enteros. En ese punto, a Google no le quedó más alternativa que liberar el «código artístico» de su red neural DeepDream, de modo tal que los usuarios pudieran experimentar con él, y pocos días más tarde alguien repitió el proceso original con el corto de una película, generando uno de los «viajes ácidos digitales» más impresionantes que hemos visto. En el fondo, todos sabemos que las redes neurales son el producto de su entrenamiento. Aún no hay una «consciencia», o un «sentido del yo» por así decirlo. Sin embargo, eso no modifica la posibilidad de que una red neural pueda aprender nuevas cosas. En este caso particular, reconstruir vídeo.

 

 

El investigador Terence Broad escogió para su disertación el título «Autocodificando cuadros de vídeo», que por sí solo no nos dice mucho, pero en términos más amplios, se trata de implementar aprendizaje profundo y redes neurales en vídeo, con el objetivo de reconstruirlo. Al codificar y comprimir una pieza de vídeo se utilizan parámetros bien definidos (por humanos, claro está), los cuales afectan la calidad final, el sonido, el formato, y otros elementos. El trabajo de Broad busca eliminar a ese elemento humano, y dejar que la red neural realice la codificación por su cuenta, pero antes debió hacer algo aún más complicado: Entrenar a la red neural para ver una película, reconocer sus cuadros y sus similitudes, rechazar los datos «falsos» que no eran parte del filme, transformar cada cuadro en representaciones de 200 bits, reconstruirlos a partir de esas representaciones, y obviamente, colocarlos en el orden correcto.

 

Como lo indica el título, la película principal escogida por Broad fue Blade Runner, y también procesó otra adaptación del trabajo de Philip K. Dick, A Scanner Darkly. Lógicamente, el resultado final no engaña a ningún ser humano, y la calidad de la «reconstrucción» hecha por la red neural está por debajo del filme original… pero no se equivocó en el orden de los cuadros, ni en otros detalles como velocidad y ritmo. Con cada sesión (procesó a las dos películas un total de seis veces) la red neural entregó cuadros un poco más «limpios», y aunque eso no sea suficiente para nuestros ojos y cerebros… sí lo fue para el bot de la Warner, que trató de bloquear los vídeos en YouTube.

Deja tu voto

0 puntos
Upvote Downvote

Total votes: 0

Upvotes: 0

Upvotes percentage: 0.000000%

Downvotes: 0

Downvotes percentage: 0.000000%