Stagecraft, la tecnología de efectos visuales usada en ‘El Mandaloriano’

Por Ricardo Alejandro González Cruz.–

El Mandaloriano[1] es la primera serie de televisión en acción real situada en el universo de La guerra de las galaxias[2]. Uno de los aspectos que caracterizan a toda esta saga creada por George Lucas es la gran variedad de ambientes en los que transcurren sus historias que, al estar situadas en distintos planetas, presentan grandes oportunidades creativas. Por eso, no sorprende que siempre se haya caracterizado por sus innovaciones en el uso de efectos visuales. El Mandaloriano continúa esta tradición al valerse de un proceso que bien podría convertirse en la nueva norma para las grandes producciones por las ventajas que tiene, comparado con procesos previos que han surgido para resolver un problema específico: ¿cómo colocar a los actores en escenarios que no están realmente ahí? Las soluciones que existían se pueden dividir en dos grupos: las que utilizan proyecciones durante el rodaje y las que agregan el escenario en postproducción. Revisarlas brevemente puede ayudar a comprender la innovación que aporta el proceso usado en El Mandaloriano.

Empecemos con la retroproyección que, aunque fue utilizada por primera vez en la película de 1913, El vagabundo[3], fue hasta la década de 1930 cuando se popularizó, gracias a la llegada del cine sonoro que hizo necesario el rodaje en estudio[4]. La retroproyección permitía mostrar exteriores amplios dentro de estos espacios cerrados. El método era simple: el fondo se proyectaba, desde atrás, sobre una pantalla translúcida mientras, frente a ésta, los actores desarrollaban sus acciones[5]. Así, la cámara captaba al mismo tiempo las actuaciones y la proyección que se veía al fondo, dando como resultado un plano terminado. Como la imagen se proyectaba desde atrás, era necesario contar con un tipo de pantalla especial: las tradicionales son opacas y reflejan la luz del proyector, mientras que la de retroproyección debe dejarla pasar y distribuirla uniformemente.

Pese a su utilidad, esta técnica tiene problemas importantes. Resulta necesario contar con un gran espacio en el estudio porque, más allá del lugar en el que los actores se desenvuelven, también hay que considerar una zona detrás de la pantalla donde se pueda colocar el proyector, a suficiente distancia para que la imagen cubra el área requerida. Otro problema es la dificultad en los movimientos de cámara, que deben ser cuidadosamente planeados para que coincidan con la proyección. Además, se tiene que tener en cuenta que habrá una disminución en la calidad de la imagen proyectada que, al llegar desde atrás de la pantalla y al tener que atravesarla, puede perder luminosidad y definición, por lo que es necesario contar con un proyector muy potente. Por eso, cuando vemos las escenas terminadas es clara la diferencia entre la imagen frontal, captada directamente, y el fondo proyectado, que se ve desaturado y sin brillo. Basta mencionar que esta es la técnica que se usaba para proyectar el fondo cuando los personajes de una película iban dentro de un auto. Cualquiera que haya visto esas escenas sabe que, dejando de lado la utilidad de la técnica, el resultado no se ve realista. Los avances tecnológicos pueden hacer que se logren buenos resultados con este proceso, pero su uso no es muy común actualmente por haber alternativas mejores.

La proyección frontal es una técnica posterior que resuelve el problema de la pérdida de calidad en la imagen proyectada. Inventada en 1955 por Will Jenkins, su esquema es más complejo que el de la retroproyección: aquí el proyector se coloca en un ángulo de 90º con respecto a la cámara, dirigido a un espejo semitransparente situado en un ángulo de 45º, que refleja el fondo proyectado hacia una pantalla hecha con pequeñas esferas reflejantes de cristal. Los actores se colocan entre el espejo y esta pantalla, mientras que la cámara registra la acción a través del espejo, consiguiendo planos terminados. Comparada con la retroproyección, esta técnica crea imágenes de mayor calidad, con fondos más luminosos y claros. El espacio requerido en el estudio se reduce, al no necesitarse un lugar extra detrás de la pantalla. Sin embargo, los actores no deben moverse mucho y la cámara no tiene libertad de movimiento. Podemos ver los resultados de la proyección frontal en 2001: Odisea del espacio[6], que fue utilizada para las secuencias iniciales, proyectando paisajes africanos en el estudio de filmación[7].

diagrama

Entre los métodos que sirven para componer la escena en postproducción hay que mencionar el proceso de clave de color, también conocido como chroma key, pantalla verde o pantalla azul. Consiste en filmar al sujeto frente a un fondo azul o verde para crear un “travelling matte”, o mate (máscara de recorte) móvil. Al procesar la película filmada, se elimina el fondo mediante el uso de filtros de color, quedando solamente los sujetos, que posteriormente se colocan sobre otro fondo. Este método se aplicó por primera vez en la cinta El ladrón de Bagdad[8], de 1940, con la que el artista Larry Butler ganó el Premio de la Academia por mejores efectos especiales. Una variante hecha con máscara diferenciadora del color se usó por primera vez en el rodaje de Ben-Hur[9], de 1959[10].

Para que el chroma key funcione correctamente es importante que el sujeto filmado contraste con el fondo, que debe iluminarse con cuidado para que tenga un color uniforme y sin sombras muy marcadas. También se tiene que evitar que el sujeto tenga elementos que compartan color con el fondo, para evitar recortes no deseados. Por ejemplo, si el sujeto viste una prenda azul y se graba con pantalla azul, esa prenda puede desaparecer al retirar el fondo, dejando secciones transparentes en el sujeto. Al introducir el chroma key a las transmisiones televisivas se usaba originalmente la pantalla de color azul, igual que se hacía en el cine, aprovechando que los sensores de las cámaras usaban los canales RGB[11] y podían por lo tanto usar fondo de cualquiera de esos tres colores. Posteriormente el verde se popularizó por ser menos común en la ropa de los presentadores. Tanto verde como azul se han seguido utilizando, incluso después de que la revolución digital permitiera que el proceso pudiera efectuarse por computadora, por ser colores que no se encuentran en la piel[12].

La trilogía original de La guerra de las galaxias utilizó extensivamente el procedimiento de pantalla azul, con excelentes resultados que la volvieron un referente en la historia de los efectos especiales. La empresa fundada por George Lucas para crear estos efectos fue Industrial Light and Magic[13] (ILM). Bajo la supervisión de John Dykstra, ILM desarrolló el sistema Dykstraflex, que permite programar el movimiento de la cámara y repetirlo de forma exacta las veces que sea necesario. Ese nivel de control facilita la composición de las escenas realizadas con chroma key, ya que los elementos pueden filmarse por separado y unirse en la postproducción, con la garantía de que los movimientos de cámara van a coincidir. Después de sus espectaculares resultados en la primera cinta de la trilogía, Lucas reunió a la mayor parte de ese equipo para trabajar en la secuela, El imperio contraataca[14]. Desde entonces ILM se ha encargado de los efectos de todas las cintas de la serie, además de otras como El secreto del abismo[15], E.T. el extraterrestre[16], ¿Quién engañó a Roger Rabbit?[17], la serie de Indiana Jones[18] y la trilogía de Volver al futuro[19], entre muchas otras.

El trabajo digital ha facilitado el uso del chroma key, que ahora puede hacerse de forma rápida con programas simples de edición de video, casi con un solo clic, aunque para tener resultados profesionales es necesario cuidar el rodaje y controlar bien los ajustes del filtro digital de recorte. Su relativa facilidad de uso y los excelentes resultados que se pueden conseguir cuando está bien realizado han hecho de este proceso una herramienta básica en el trabajo de efectos visuales. En esta revolución Lucasfilm tuvo un papel importante, con dos de sus divisiones: la ya mencionada ILM hizo trabajo pionero en el campo, incluyendo el primer personaje digital en 3D fotorrealista[20] para la película El joven Sherlock Holmes[21], así como sus aportaciones en Parque jurásico[22], donde sus efectos digitales se unían a efectos prácticos para crear a los dinosaurios, además de avances en software para composición digital, mezclando metraje real y CGI con resultados sorprendentes[23]. La otra sección de Lucasfilm que logró avances en este campo fue su División de Computadoras (Computer Division), creada inicialmente para desarrollar tecnología digital para trabajo cinematográfico, como sistemas de edición no lineal para audio y cine. Esta división creó la primera escena completamente animada por computadora utilizada en una película, para Viaje a las estrellas II: la ira de Kahn[24]. También participó en el ya mencionado personaje digital de El joven Sherlock Holmes. En 1986 fue adquirida por Steve Jobs y se convirtió en Pixar, que revolucionaría la animación digital[25].

En 1999, después de casi 16 años sin una nueva película de la saga de La guerra de las galaxias, se estrenó Episodio I: La amenaza fantasma[26], la primera cinta de la trilogía de precuelas. La razón por la que Lucas esperó tanto tiempo para hacer esta trilogía es que necesitaba que los avances tecnológicos llegaran al punto que le permitiera realizarlas como deseaba: “Con el Episodio I no quería contar una historia limitada (…). Tenía que mostrar asuntos más grandes. Para hacer eso, necesitaba encontrar una forma de lograrlo, y eso es lo que la tecnología digital me trajo (…). El Episodio I no fue realizable durante un largo tiempo, así que esperé hasta tener la tecnología para hacerlo.”[27] Esta tecnología se utilizó en todo el proceso de producción, desde previsualizaciones digitales hasta un extenso trabajo de postproducción en más de 1900 planos de efectos visuales, con escenarios y personajes hechos por computadora. Además, fue la primera gran producción que se rodó completamente con cámaras digitales[28].

El chroma key permite libertad en los movimientos de cámara, especialmente cuando se usa un sistema de control de movimiento. La integración de gráficos generados por computadora en escenas realizadas con pantalla verde puede generar muy buenos resultados. Sin embargo, tiene una gran deficiencia, comparado con los métodos que usan la proyección: al ser un proceso de postproducción, sus resultados no se ven durante el rodaje. Actores y realizadores tienen que imaginarse cómo se verá la escena terminada, metidos en un escenario completamente verde. Quienes gustan de ver fotos y videos detrás de cámaras sabrán que se ha vuelto muy común, especialmente en grandes producciones con multitud de efectos digitales, que el set de grabación sea un enorme volumen verde con algunos actores usando trajes de captura de movimiento e interactuando con la nada. Difícilmente es un ambiente propicio para adentrarse en la escena y lograr una interpretación convincente.

Ilustración: DIEGO LLANOS MENDOZA. © 2020
Ilustración: DIEGO LLANOS MENDOZA. © 2020

Un proceso ideal tendría que unir la libertad de trabajo del chroma key con la inmediatez de la proyección. Eso es precisamente lo que consigue Stagecraft, el proceso que se ha hecho famoso por su utilización en El Mandaloriano. En palabras de Greg Fraser, co-cinematógrafo y coproductor de la serie: “Queríamos crear un ambiente que no solo fuera propicio para la composición de los efectos, sino para su captura en tiempo real, fotorealista y en cámara, de forma que los actores estuvieran en ese ambiente con la iluminación correcta, todo al momento (del rodaje)”[29]. Jon Favreau, creador de la serie, había trabajado con tecnología similar en sus anteriores cintas, El libro de la selva[30] y El rey león[31]. Sus experiencias en esos proyectos fueron útiles al desarrollar el modo de trabajo para El Mandaloriano.

Con el sistema Stagecraft se trabaja en un set con un muro curvo de 6 metros de altura por 54 metros de circunferencia, cubierto con 1326 pantallas LED que abarcan un fondo semicircular de 270 grados. A esto se suman un techo y un espacio detrás de cámaras con más pantallas, que se puede mover dependiendo de las necesidades de la toma[32].

En todas estas pantallas se colocan los escenarios armados digitalmente, de forma que el ambiente se pueda ver durante el rodaje. Esto ofrece múltiples ventajas: es más fácil para los actores adentrarse en la escena al poder ver el ambiente en el que se desarrolla, los realizadores pueden ver el plano completo en tiempo real sin tener que imaginarse el fondo, además de que se pueden obtener tomas prácticamente terminadas desde el rodaje, disminuyendo el trabajo en postproducción. Además de estas ventajas, que pueden resultar obvias, hay otra que se ha mencionado menos, pero que también es muy importante: los escenarios proyectados en las pantallas contribuyen a iluminar la escena y pueden aparecer en las superficies reflejantes, como la armadura del protagonista. Estas siempre son complicadas en el trabajo con chroma key: el color del fondo aparece sobre ellas y debe ser retirado cuidadosamente, después el ambiente que se agrega en la postproducción debe ser colocado como reflejos sobre estas superficies. Todos esos problemas desaparecen con el proceso Stagecraft, al estar incluido todo el ambiente desde la toma de la imagen. Pero, tal vez lo más revolucionario del proceso es su capacidad de renderizar los escenarios en tiempo real y ajustarlos al movimiento de la cámara, mediante la incorporación de un motor de videojuegos.

Un motor de videojuegos es un ambiente de desarrollo de software que incluye, entre otras cosas, sistemas de física, inteligencia artificial, gráficos y sonido, así como un motor de render, que principalmente sirve como base para el desarrollo de videojuegos, pero puede tener aplicaciones en otros campos, como la arquitectura, la realidad virtual, la industria automotriz o, en este caso, la producción televisiva[33]. El motor utilizado en el rodaje de El Mandaloriano es Unreal Engine, de Epic Games[34], uno de los más populares actualmente. Con la incorporación de este motor es posible crear modelos 3D, agregarles materiales hechos con fotografías para darles acabados realistas, y renderizar las secciones necesarias con suficiente velocidad para permitir un efecto de paralaje consistente con el movimiento de la cámara. Esto era esencial dadas las necesidades del proyecto y el set: considerando el área cubierta por las pantallas LCD en el estudio, generar gráficos fotorrealistas constantes en todas ellas sería un desperdicio de poder de procesamiento. Unreal Engine permite calcular la zona que es captada por la cámara en cada momento, para enfocar ahí el procesamiento de imágenes de alta calidad y dejar un acabado inferior en las zonas fuera de cuadro. Así, estas zonas requieren menos recursos, pero sirven para iluminar la escena y crear reflejos[35]. Un conjunto de cámaras de rastreo de movimiento colocadas en el set se encarga de transmitir al sistema la ubicación exacta de la cámara principal. La información de su ubicación y del tipo de lente que usa, permite a Unreal Engine no solo calcular la zona que queda a cuadro, también le ayuda a ajustar el escenario al movimiento de la cámara, desplazando los elementos digitales de acuerdo a la distancia que mantiene con respecto al punto de vista para crear un efecto de paralaje que da mayor realismo a la escena.

El proceso Stagecraft ya está siendo utilizado en producciones cinematográficas[36], como Cielo de medianoche[37] y The Batman[38]. Además, seguramente aprovechando el interés generado por El Mandaloriano, Sony ha anunciado que pondrá a la venta sistemas de pantallas LCD para producción audiovisual[39]. Este proceso puede ser el inicio de una nueva revolución en efectos visuales, así como una mayor colaboración entre las industrias del cine y los videojuegos. Habrá que estar atentos a su desarrollo. Como el senador Palpatine le dice a Anakin Skywalker en el Episodio I: “Observaremos tu carrera con gran interés”. 

[Publicado el 11 de mayo de 2021]
[.925 Artes y Diseño, Año 8, edición 30]

Referencias

  • Konigsberg, I. (2004). Diccionario técnico Akal de cine. Ed. Akal. Madrid.

[1] The Mandalorian. Serie creada por Jon Favreau. Estados Unidos, 2019.

[2] Star Wars. Dir. George Lucas. Estados Unidos, 1977.

[3] Algunos ejemplos de sus aportaciones están en The Drifter. Dir. Norman Dawn. Estados Unidos, 1913.

[4] Konigsberg, I. (2004). Diccionario técnico Akal de cine. Ed. Akal, Madrid. p. 476.

[5] https://filmschoolrejects.com/rear-projection/

[6] 2001, A Space Oddyssey. Dir. Stanley Kubrick. Reino Unido y Estados Unidos, 1968.

[7] Konigsberg, I. (2004). p. 452-453.

[8] The Thief of Baghdad. Dir. Michael Powell, Ludwig Berger y Tim Whelan. Reino Unido, 1947.

[9] Ben-Hur. Dir. William Wyler. Estados Unidos, 1959.

[10] Konigsberg, I. (2004). p. 443-444.

[11] Por los nombres de los colores en inglés: Red, Green, Blue.

[12] Por esa razón no se usa pantalla roja, al ser un color muy presente en la piel.

[13] https://www.ilm.com/

[14] The Empire Strikes Back. Dir. Irvin Kershner. Estados Unidos, 1980.

[15] The Abyss. Dir. James Cameron. Estados Unidos, 1989.

[16] E.T. The Extra-Terrestrial. Dir. Steven Spielberg. Estados Unidos, 1982.

[17] Who Framed Roger Rabbit. Dir. Robert Zemeckis. Estados Unidos, 1988.

[18] A partir de Raiders of the Lost Ark. Dir. Steven Spielberg. Estados Unidos, 1981.

[19] A partir de Back to the Future. Dir. Robert Zemeckis. Estados Unidos, 1985.

[20] https://www.ilm.com/vfx/young-sherlock-holmes/

[21] Young Sherlock Holmes. Dir. Barry Levinson. Estados Unidos, 1985.

[22] Jurassic Park. Dir. Steven Spielberg. Estados Unidos, 1993.

[23] https://www.ilm.com/vfx/jurassic-park/

[24] Star Trek II: The Wrath of Khan. Dir. Nicholas Meyer. Estados Unidos, 1982.

[25] https://www.pixar.com/our-story-pixar

[26] Star Wars. Episode I: The Phantom Menace. Dir. George Lucas. Estados Unidos, 1999.

[27] https://www.starwars.com/news/star-wars-episode-i-the-phantom-menace-oral-history

[28] https://www.starwars.com/news/5-groundbreaking-digital-effects-in-star-wars

[29] https://ascmag.com/articles/the-mandalorian

[30] The Jungle Book. Dir. Jon Favreau. Estados Unidos, 2016.

[31] The Lion King. Dir. Jon Favreau. Estados Unidos, 2019.

[32] https://ascmag.com/articles/the-mandalorian

[33] https://interestingengineering.com/how-game-engines-work

[34] https://www.unrealengine.com/en-US/blog/forging-new-paths-for-filmmakers-on-the-mandalorian

[35] https://ascmag.com/articles/the-mandalorian

[36] https://screenrant.com/batman-movie-mandalorian-visual-effects-technology/

[37] Midnight Sky. Dir. George Clooney. Estados Unidos, 2020.

[38] The Batman. Dir. Matt Reeves. Estados Unidos, 2022.

[39] https://www.techradar.com/news/the-mandalorians-microled-displays-could-kill-off-the-green-screen-for-good-heres-why

Lic. en Diseño y Comunicación Visual por la FAD UNAM. Ha formado parte del equipo de desarrollo de diversos proyectos audiovisuales, como aplicaciones interactivas, animación, cine y televisión, para clientes como Fomento Cultural Banamex, Grupo Santillana, Corazón Films, Corazón Televisión, Argos Soluciones Creativas y Telemundo. Ha impartido diplomados con opción a titulación en la FAD UNAM y desde 2014 es profesor de licenciatura en el Plantel Taxco de esta misma institución. Le gusta ir al cine pero casi nunca come palomitas.

EDICIONES

artículo anterior

Artistas, diseñadores y artesanos de joyería en Taxco. Seminario de análisis histórico y recuento de experiencias

artículo siguiente

‘Revestimientos’. Entrevista con Betsabeé Romero

otros artículos

ir alinicio

Don't Miss