Icono del sitio Blog de Tecnología – Abrima

Cómo la IA puede hacer bailar a cualquier persona en un vídeo

Los avances de la IA en aprendizaje automático, más los progresos propios de áreas como la producción audiovisual, la realidad aumentada y virtual, están generando una instancia de potenciamiento mutuo para estas tecnologías.

Siguiendo una idea que ha sido abordada con muchos enfoques a lo largo del tiempo, un equipo de investigación combinó estos recursos para generar animaciones que sigan los pasos de una fuente de captura de movimiento, pero siguiendo los movimientos con naturalidad.  

Bailes en vídeo generados por computadora

En sí, no es nuevo el intento de realizar animaciones bajo esta premisa. El desafío en este punto radica en la verosimilitud que generen los resultados, su nivel de credibilidad visual.

Abordando una de las principales debilidades de esta área hasta la fecha, un artículo de investigación, desarrollado por profesionales de Adobe Research y el University College de Londres, propone un nuevo enfoque para aprender la apariencia dinámica de un actor y sintetizar secuencias de movimiento complejas e invisibles.

Las prendas de vestir al ser irregulares, distorsionan algunas proporciones de la anatomía humana y ocultan parte de sus movimientos. Hasta ahora, este era un obstáculo en el trabajo con estos modelos, pero el sistema de IA recientemente presentado se encarga de analizar la apariencia de la persona presentada en cámara, para representar efectivamente los movimientos con los recursos brindados por sus herramientas de aprendizaje automático.

Esta herramienta se encarga de mantener resultados visuales de alta calidad, con un nivel alto de verosimilitud. Además de realizar un ajuste fino sobre ciertos detalles (bordes y recortes en general), el sistema guarda especial cuidado con la apariencia del cuerpo en movimiento, cuidando sus proporciones y la coherencia temporal de los movimientos, aún frente a la especial velocidad y dinamismo propios del baile.

Este método de síntesis de apariencia basado en video, muestra resultados de alta calidad que —según el equipo de investigación— no se han exhibido antes en vídeos filmados fuera de un estudio, en plena naturaleza. 

A nivel técnico, los autores de esta investigación señalaron: “Adoptamos una arquitectura basada en StyleGAN para la tarea de reorientación de movimiento basada en video específica de la persona. Presentamos una nueva firma de movimiento que se utiliza para modular los pesos del generador para capturar los cambios dinámicos de apariencia, así como para regularizar las estimaciones de pose basadas en un solo fotograma para mejorar la coherencia temporal. Evaluamos nuestro método en un conjunto de videos desafiantes y mostramos que nuestro enfoque logra un rendimiento de vanguardia tanto cualitativa como cuantitativamente”.

Anteriormente, conocimos un esfuerzo de Google relacionado con el baile y la IA, a través de su proyecto AI Coreógrafo, capaz de generar coreografías en base a estímulos musicales y un previo entrenamiento con pasos de baile.

En el caso de este nuevo desarrollo presentado por la gente de Adobe y la UCL, la propuesta es más cercana a la de los deepfakes, con un enfoque que resulta mucho más positivo y amigable con el trabajo audiovisual, frente a otras posibilidades más complejas conocidas previamente.

Fuente: WWWhatsNew

Salir de la versión móvil