Hoy ha sido un día especial para mi en Mundos, porque he tenido la oportunidad de conectar con personas con las que hace años no me veía, y también con nuevos contactos, para que al final sepas que habíamos surcado los mismos mares, con marineros y capitanes de barco con los que habíamos navegado ambos, aunque por separado.
La primera elección de la mañana, ha sido hoy ir a la sala NVIDIA Omniverse, para ver la sesión de Agustín Cossa titulada: «Nuevo Workflow de Producción Virtual. Menos estrés, mejores resultados«.
Ha empezado muy fuerte, con la frase: «acá tienen a un Argentino que aunque les parezca extraño, va a contarles la verdad sobre Virtual Production aunque vaya en mi contra, porque es mi trabajo«, y su ponencia ha sido realmente reveladora. ¿Qué promete la producción virtual?, ¿cuál es la realidad en muchos de los casos?, y ¿cómo puede cambiarse la manera de trabajar para cumplir esas promesas?
No he podido acabar la sesión de Agustín, una pena porque era espectacular, pero es que la jefa de prensa de Mundos, me ha dado slot para entrevistar al presentador estrella de esta edición, nada más y nada menos que Rob Bredow, vicepresidente de Lucasfilm y con una dilatada carrera en el mundo de los VFX, animación, parques temáticos, y todo lo relacionado con la imagen generada por ordenador. La entrevista ha sido en inglés, y ha durado 15 minutos, pero ahí van las preguntas que le he hecho y sus respuestas:
Jordi Alonso: Has estado en SONY Pictures Imagworks, donde llegaste a CTO y ahora eres Vice presidente en Lucasfilm/ILM. ¿Qué diferencias hay en la cultura de estos dos grandes de Hollywood?
Rob Bredow: Hay un montón de simlitudes. Coinciden en una cosa que me encanta: no hay miedo. Cuando un nuevo reto aparece y de inicio no se sabe ni cómo llevarlo a cabo, la gente se motiva con estos desafíos, y sabe que al final los sacará adelante. Es lo que más me gusta de mi trabajo.
Jordi: ¿Has trabajado en VFX siempre, o también en animación, proyectos para parques temáticos, experiencias interactivas…?
Rob: he trabajado en todo eso, y puedo decirte que en Lucasfilm haremos más películas de animación en un futuro cercano.
Jordi: ¿Tu trabajo en ILM como VP, está más en el lado creativo o en el técnico?
Rob: Un poco en ambos, pero paso mucho más tiempo con el equipo creativo, ya que François Chardavoine es el CTO y me reporta a mi.
Jordi: ¿Alembic, MaterialX, OpenEXR, ACES, Academy Software Foundation, el mundo del software abierto es algo en lo que ILM sigue apostando?
Rob: Por supuesto. Justamente yo era el CTO de SONY y Richard Kerris el CTO de ILM cuando colaboramos en el lanzamiento de Alembic.
Jordi: El impacto de las nuevas tecnologías en las producciones, con virtual production en The Mandalorian, los Deep Fakes de Harrison Ford en Indiana Jones, la IA Generativa, ¿cómo anticipas el impacto que van a tener en la industria de los VFX?
Rob: Hay mucho hype en que todas estas herramientas van a acabar con todos los pipelines, pero al final lo que nos ocupa es poner mejores herramientas en manos de nuestros técnicos y artistas. Creo que la AI Generativa va tener un gran impacto en la industria. Por ejemplo las caras que hemos hecho para Indiana Jones han sido las mejores que hemos hecho nunca, y combinan diferentes técnicas (CGI, IA Generativa, maquillaje digital, mejora digital…).
Jordi: ¿Crees que los humanos digitales van a pasar de los conciertos virtuales a los actores de Hollywood?
Rob: Nada es lo mismo que el auténtico Harrison Ford, puedes tener un modelo CGI increíble, y aplicarlo a un actor que se le parezca mucho, pero no es él, no se mueve igual, no actúa igual, y nuestro trabajo está centrado en el actor/actriz. Sí veo en cambio, un clon digital para interacciones 1:1 con la audiencia en proyectos interactivos/inmersivos.
Jordi: Desde la distancia de Europa, se ve que hay gente del mundo del cine que está dejando Los Angeles, que hay menos trabajo, que los incentivos fiscales llevan a las producciones al estado de Georgia en EEUU, a Canadá o incluso a Europa. ¿Qué está pasando? ¿Hay una crisis en ciernes?
Rob: Hace 3 ó 4 años, tuvimos el pico de producción en Hollywood al que nunca se había llegado en la historia. Netflix gastándose 18-20.000M de dólares en producciones, Disney con cifras similares, y ha habido un ajuste tras esas grandes inversiones. Eso, en conjunción con la huelga de guionistas, ha llevado a este bajón. Sinceramente esperaba que unos meses atrás ya hubiéramos recuperado un poco el crecimiento, pero no ha sido así. Creo que en breve empezarán a entrar proyectos de los guinistas y empezaremos la recuperación, lo que es cierto es que está habiendo mucha presión para hacer proyectos con menores costes sin reducir la calidad.
Tras la entrevista he ido al auditorio Azken Muga, para ver la sesión de Isidro Jiménez de Telson titulada: «El valor del artista de VFX»
Isidro me ha hecho sentir muy identificado con su ponencia, porque a pesar de que su perfil es fundamentalmente artístico y no técnico, ha llegado a las mismas conclusiones que he llegado yo tras 30 años de profesión, y ha pasado por empresas y ha tenido experiencias muy cercanas a las que yo tuve en el pasado.
Me ha gustado mucho cuando ha mostrado unos segundos de trabajos de principios de los 90, cuando trabajó de intercalador en la serie de animación Los Fruittis de d’Ocón Films, y sus primeras experiencias con el software sculpt3D en un Commodore Amiga.
Ha habido un momento simpático y especial cuando ha comentado que usó ChatGPT para buscar un título para su sesión y obtuvo las siguientes respuestas a su prompt:
«Me gustaría tener un título para una conferencia donde exaltamos al artista, al individuo por encima de la tecnología»
Al que ChatGPT ha respondido:
1. El arte triunfa: celebrando al individuo en la era tecnológica.
2. La creatividad como motor: honrando al artusta en un mundo digital
3. Más allá de los cicuitos: reconociendo el talento individual en la era de la tecnología
4. El poder del ser humano: enaltecimiento del artista en un mundo tecnológico
5. Brillando sin cables: destacando la grandeza del artista sobre la tecnología
Esto ha sido un ejemplo de lo que quería explicar: ninguna de las respuestas de chatGPT fue suficientemente buena para él, pero le ayudó a encontrar un título a partir de esas ideas inciales.
En planos de trabajos actuales, explicó cómo los artistas deben prepararse de forma concienzuda con las herramientas tecnológicas disponibles, y documentarse a fondo para poder crear los efectos visuales tan increíbles que podemos ver hoy en día, muchas veces en condiciones de trabajo poco óptimas (no haber podido estar en el rodaje de alguno de los planos o no poder haber hecho la preproducción preceptiva), y pese a ello, con el talento del artista, conseguir los objetivos.
La última sesión de la mañana a la que he asistido, ha sido a la de Ignacio Lacosta, de XReality Studios, titulada «Valor sin límites: el impacto de la producción virtual en el cine«. Una sesión muy distinta a la primera de la mañana de Agustín Cossa, ya que el optimismo de Ignacio ha estado muy contrapuesto con el pragmatismo de Agustín.
Me ha gustado ver cómo desde la sede en Madrid de su empresa, afrontan la producción de efectos visuales para cine usando virtual production, y la aplicación de técnicas de NeRF y Gaussian Splatting para capturar espacios reales 3D e incorporarlos a su pipeline.
Muy interesante su desarrollo de I+D para densificar los splats y llegar a obtener, ya no sólo un mapa de profundidad de la escena con mucha precisión, sino incluso un mapa de normales que les da una gran flexibilidad a la hora de trabajar los materiales anisotrópicos desde Unreal Engine.
A la primera sesión de la tarde sobre los efectos en la película John Wick no he podido asistir al estar en una fantástica sobremesa con otras 7 personas, pero a la segunda sí he ido: un alarde de ingenio para sobreponerse a un presupuesto muy ajustado y sacar adelante La Favorita, desde la empresa ENTROPY Studio, en una charla muy interesante de Jordi Costa y Pedro Cabrera titulada: «La favorita, creando un set extension realista«.
Básicamente han explicado casi paso a paso cómo están sacando adelante un contenido episódico usando Unreal Engine para el render y Nuke para composición, con las limitaciones y problemas de Unreal, pero también aprendiendo a superarlos para obtener unos resultados realmente interesantes. Muy remarcable la explicación de la captura volumétrica del equipo de producción de Entropy en la empresa The 4D scanner de Valladolid, para tener models 3D detallados las personas que andan por la calle en planos cercanos, y el uso de librerías de assets, fotogrametría, scripts de Houdini para cables, y presets de posiciones de cámara para la producción. Un ejemplo de una planificación excelente para ajustarse a un presupuesto limitado.
La siguiente sesión a la que he asistido ha sido a cargo de Alonso Varela, VFX SV de la empresa Jimsonweed, titulada: «Red Band & Nuclear Explosions. VFX in The Boys S.3«, Alonso ha explicado como un encargo inicial de 3 planos para poner unas bocas CGI y eliminar el humo de hacer explosionar unos maniquíes, se convirtiera en un proyecto con 505 planos de efectos visuales con digital doubles. Un trabajazo.
Y en la última sesión del día, el gran dilema: ¿voy a ver la sesión de Lil Miquela de mi amigo Jordi Barés de Rohtau, o la de Alberto Arenas de Hoghart?, pues al final la cabeza ha tirado más que el corazón y he ido a la sesión de Alberto. Muy interesante la iniciativa de un grupo de expertos denominada MEDIA PROD TECH, liderada por Manuel Meijide desde Mundos Digitales, y con soporte del Ministerio de transformación digital. Se ha hecho un repaso de las dos últimas sesiones en Sevilla y Madrid. Pronto más noticias sobre los meetups y sus informes.