Skip to main content

Meta se prepara para la próxima generación de contenido generado por inteligencia artificial con la presentación de Movie Gen, que pronto estará disponible en sus aplicaciones. La herramienta es capaz de producir videos HD de alta calidad en 1080p con audio sincronizado, algo que no se había visto hasta ahora.

Con esta nueva IA, los de Zuckerberg pretenden dar un mayor control a los usuarios para que, de forma muy sencilla, puedan crear vídeos con IA. Aunque parece que Meta quiera ‘democratizar’ estas tecnologías, muchas de las funcionalidades que incluyen podrían dar un vuelco también a la generación profesional de vídeos (si se integran en otros servicios similares, como Gen-3 Alpha, de Runway).

Lo más destacado

  • Muchas veces cuando se usa una IA de vídeo, al alterar el prompt cambia todo el contenido, algo que puede ser frustrante. Por primera vez, se puede editar una parte del vídeo sin necesidad de que cambie todo el contenido. Esto mejora la precisión durante el proceso creativo, un talón de Aquiles en la mayoría de herramientas similares. A partir de un vídeo propio, se puede cambiar el sujeto añadir objetos que no existen e infinidad de ediciones.
  • La posibilidad de subir una fotografía. Aunque parece secundario, es clave para asegurar la consistencia del sujeto, algo imprescindible en la creación de vídeos más largos (y una de las principales trabas para la generación de contenido de mayor calidad).
  • El audio había sido el gran olvidado en la generación de contenido audiovisual con IA. Meta quiere poner fin a este problema, proporcionando la posibilidad de generar bandas sonoras y efectos de sonido con IA.

El modelo detrás de la herramienta

Los avances técnicos detrás de Movie Gen incluyen un modelo transformer de 30 mil millones de parámetros capaz de manejar secuencias extremadamente largas de tokens de video, lo que le permite crear clips de video de 16 segundos con movimiento fluido y coherente. El equipo de desarrollo de Meta atribuye su éxito a innovaciones en la simplificación de arquitecturas de modelos, la curación eficiente de datos y nuevas técnicas de entrenamiento que optimizan tanto la síntesis de video como de audio, tal y como se explica en su ‘paper’.

Fecha de lanzamiento

Como siempre en estos casos, las compañías anuncian a bombo y platillo un nuevo servicio, pero sin concretar la fecha de lanzamiento. Ya ocurrió con Sora, de OpenAI, que todavía no sabemos cuándo se liberará al público general. En el caso de Meta, han señalado que llegará en 2025, pero no se ha concretado más. Desde la compañía afirman que todavía no está listo, ya que se requiere demasiado tiempo para generar un vídeo.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.