La herramienta promete un enfoque más profesional que Dream Machine, con opciones para escoger el estilo y afinar mejor el prompt con lenguaje cinematográfico
Runway ha anunciado Gen-3 Alpha, un nuevo modelo de IA que estará disponible en los próximos días para su uso directamente desde aplicación. El CEO de la empresa, Cristóbal Valenzuela, ha prometido en X unas velocidades de procesamiento de vértigo: 45 segundos para generar 5 de vídeo y 90 segundos para generar 10 de metraje. En palabras del cofundador, esta herramienta está «creada para artistas y por artistas».
La IA ha sido entrenada con vídeos e imágenes para mejorar los movimientos faciales y ampliar los estilos de creación disponibles. De esta forma, los usuarios pueden generar mayor variedad de vídeos siguiendo un amplio número de instrucciones. En las demos publicadas en Internet por Runway, se observa las capacidades del modelo para simular el fuego y la lluvia. Además, también prometen estar trabajando en maneras de recrear las leyes de la física y mejorar la capacidad para generar humanos fotorrealistas.
Introducing Gen-3 Alpha: Runway’s new base model for video generation.
Gen-3 Alpha can create highly detailed videos with complex scene changes, a wide range of cinematic choices, and detailed art directions.https://t.co/YQNE3eqoWf
(1/10) pic.twitter.com/VjEG2ocLZ8
— Runway (@runwayml) June 17, 2024
Esta novedad es un paso más en la búsqueda de los ‘General World Models‘, modelos de IA capaces de simular con gran detalle universos complejos. Este modelo también ha sido entrenado con lenguaje cinematográfico para responder mejor a los prompts creados por los cineastas. Para asegurar su uso responsable, Runway ha preparado un sistema de moderación C2PA que controlará el cumplimiento de las condiciones de uso de la aplicación.
La competición en la industria del vídeo generado con IA
Con el lanzamiento de Kling en China, parece que las empresas de IA que estaban trabajando en sus modelos de texto a vídeo han puesto el ‘turbo’ para lanzar sus productos. La primera en Estados Unidos fue Dream Machine y ahora Runway sigue sus pasos con este algoritmo de nueva generación que promete lograr resultados incluso más sorprendentes que las dos anteriores.
La gran ausente es Sora, de OpenAI, que de momento solo se ha probado en entornos controlados y de la que solo han trascendido algunos vídeos aislados. Sin duda, el mes de junio está siendo muy sorprendente para el mundo audiovisual. Puede que incluso quede alguna sorpresa más por ver.
Novedades en Dream Machine
La aplicación de Luma AI incorpora la posibilidad de extender los vídeos otros 5 segundos más. De esta forma, la IA toma como referencia el estilo del vídeo anterior para continuar ampliando el movimiento. Se debe proporcionar un nuevo prompt y, con cada ampliación, se consume un crédito.
Coming soon to Dream Machine – powerful editability and intuitive controls! Here’s a sneak-peak of something exciting we are working towards. #LumaDreamMachine
Sign up for early access and to be the first to know when it is ready: https://t.co/UMuEr8tMu7 pic.twitter.com/qrgPC0Nrl4
— Luma AI (@LumaLabsAI) June 17, 2024
La compañía ha aprovechado para mostrar en un vídeo el concepto de lo que quieren lograr a medio y largo plazo. La idea es que los creadores de contenido puedan inspirarse a través de esta plataforma. Para ello, quieren dar la opción de que, con tan solo un clic, los usuarios modifiquen el fondo o elementos concretos del vídeo sin necesidad de generar uno nuevo. Sin duda, estas funcionalidades podrían hacer que la herramienta sea más intuitiva y enfocada a un público menos experto que el de Runway.
Toda revolución necesita sus cronistas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.