EDIT

{{article.title}}

modified {{article.lastModStr}}
{{videoUrlObj.title || videoUrlObj.oEmbed.title}}
{{videoUrlObj.description || videoUrlObj.oEmbed.description}}
{{ article.videoUrls | totalDuration }}

En los siguientes sub-capítulos vamos a aprender sobre atributos útiles y consejos que nos ayudarán a manipular correctamente las salidas de RenderMan en la composición :
  • Manejo de Color
  • Composición en Fusion
  • Composición en Nuke
  • Re-Iluminación
  • Composición en 3D
  • Deep Compositing (composición con data de profundidad)
  • Corrección de Color y Ajustes Finales

Antes de empezar, por favor, abra el archivo adjunto TGT_Compositing.zip , lo que asegurará la mejor interacción posible con este entrenamiento.

Manejo de Color - Color Management


De manera muy similar a lo explicado en el entrenamiento Linear Workflow para RenderMan, es muy importante que las imágenes sean compuestas en gamma lineal. Si no entendemos un correcto manejo de color, corremos el riesgo de fusión impropia de canales alfa, transformaciones de color incorrectos, problemas del grano de la película y bandas de color. Los valores de luz y sombra que alcanzamos originalmente serán empastados y frustrantes para trabajar con ellos si no respetamos un manejo de color y gamma correcto.
Trabajar en gamma lineal funciona mejor cuando las imágenes tienen el espacio de color y profundidad correcto, es decir, las imágenes deben ser creadas con suficiente profundidad y en el formato correcto, si no, corremos el riesgo de velocidades de disco ineficientes, al igual que insuficiente metadata para la imagen, lo que nos devuelve a los mismos problemas que hemos mencionado antes.
Vamos a simplificar bastante las cosas y vamos a dividir todo un flujo de trabajo de composición en tres sencillos pasos:

Composición básica de flujo de trabajo

Como podemos ver, es necesario que existan ciertas normas para que nuestras imágenes se comporten correctamente mientras las componemos, pero una cosa esta clara, siempre es mejor hacer todos los cálculos en el espacio de gamma lineal. Vamos a entrar en detalle para entender por qué.

Gamma Lineal - Linear Gamma (Linear Workflow)

Gamma Lineal es un término que se escucha mucho y rara vez se entiende. Fue inventado para compensar las limitaciones de luminancia de un tubo de rayos catódicos (CRT) en monitores antiguos, pero hoy en día se entiende principalmente como una forma de compensación de valor y color para la visión humana. Bueno, te estarás preguntando cómo esto afecta a un render... bueno, la composición de imágenes es sólo un montón de operaciones matemáticas sencillas, por lo que los cambios en el gamma de la imagen original, van a afectar de forma inconsistente lo que el compositor está haciendo con la imagen, es decir, si cambiamos el valor en 1, se espera un cambio igual de luminancia. Podemos empezar a ver cómo esto se torna en problema si cada imagen tiene su propio gamma, ya que los cálculos serán diferentes para cada imagen.

Es por eso que se llama Gamma Lineal, porque estamos convirtiendo todo tipo de curvas de color a una simple y confiable curva lineal, con la que siempre podemos tener resultados precisos.

Composicion sRGB y composicion de Gamma Lineal

En el ejemplo anterior, podemos ver cómo el color resultante de la composicion de forma incorrecta (sRGB) puede resultar en colores de transición sucios e indeseables. A la derecha, con la gamma lineal, colores se mezclan de forma natural y la transición alfa (alpha channel) es perfectamente limpia. Esta estética es aún más evidente cuando la composicion de elementos generados por un renderizador se combinan con una toma de pelicula, porque si no modificamos nuestras imágenes, vamos a empezar a ver franjas negras alrededor de nuestras composiciones.

Un flujo de trabajo con Gamma Lineal se puede visualizar de la siguiente forma:

Flujo de trabajo optimo con Gamma Lineal

Formatos de punto flotante modernos ya operan con una curva lineal (openEXR), pero muchos formatos tradicionales como JPG, TIF, TGA y PNG no lo hacen. Operan en un antiguo espacio de color sRGB compensatorio. Aquí es donde tenemos que transformar todas estas curvas sRGB a formato lineal, de modo que nuestro compositor pueda hacer todas las operaciones de manera uniforme y confiable a través de múltiples formatos de imagen.

En la imagen de abajo, podemos ver como el compositor Fusion funciona en espacio de color lineal. Todas las operaciones han sucedido en el espacio lineal, incluyendo nuestro grano de película, después de lo cual tenemos que añadir una curva de gamma sRGB a nuestra imagen para la salida final. Tambien podemos hacer esto en el nodo saver final para la salida de la imagen, o podemos hacerlo de forma manual a través de un nodo de gamma. Ambos tienen la capacidad de agregar el espacio de color sRGB a nuestra imagen final.

Una vez que añadimos el espacio de color sRGB, la imagen será visible en cualquier monitor moderno, así como cualquier emisión de television de alta definición estándar, ya que rec 709 comparte la misma cromaticidad.

Fusion - Manejo de Color

Consejo

Cambiar el flujo de trabajo a Gamma Lineal no tiene como motivo principal visualizar data, sino que la manipulación de dicha data de la mejor manera posible

Este flujo de trabajo de Gamma Lineal difiere entre Nuke y Fusion. Fusion tiene espacio de color y manejo de gamma incluido en cada loader y saver, que también tiene una herramienta de gamma incluida, pero la decision de manejar la gamma es manual y cae en la responsabilidad del usuario. Nuke por otra parte, hace lo posible para hacer todo de forma automática, con preferencias globales de color, lo cual se encarga de todas la imágenes que entran, siempre y cuando se configure para el tratamiento de ciertas imágenes con el mismo estándar, por ejemplo, una imagen de 8-bits siempre tiene un espacio de color sRGB y una imagen de 32 bits siempre será lineal. Esto mantiene la consistencia (y ahorra muchos dolores de cabeza) cuando se crean texturas, 3D y composición.

Nuke - Manejo de Color

La automatización de todo sin entender, puede ser un mal presagio para el usuario, que no sabrá lo que está sucediendo detrás de las escenas. Lo que nos lleva al siguiente punto:

Espacios de color

Modelos de color y espacio de color sRGB

Un espacio de color o Color Space (a veces llamado perfil de color ) es la forma en que un formato de imagen codifica el color y gamma. La mayoría de los espacios de color pertenecen a uno de los modelos de color más populares: RGB y CMYK . Vamos a utilizar el espacio de color sRGB para este entrenamiento (The Grand Tour), ya que es el estándar para la web y también lleva la misma cromaticidad como la televisión de alta definición estándar de espacio de color Rec- 709.

Consejo

Recuerde que el programa de composición necesita datos lineales para proporcionar la imagen más precisa, así que imagínese que el espacio lineal es como si la imagen no tuviera un espacio de color, siendo por tanto una forma verdaderamente imparcial de la interpretación de color y gamma .

Tipos de Imagen

openEXR

Vamos a utilizar OpenEXR (o comúnmente conocido como EXR) como nuestro principal Tipo de imagen. Desarrollado por ILM, EXR es la manera estándar y más extensa de representar imágenes de punto flotante. Para compensar los tamaños de archivos grandes, EXR es compatible con muchos tipos y niveles de compresión, dentro de éstas son las imágenes de Half-float, o imágenes de punto flotante con la mitad de los datos, que es lo que he usado para The Grand Tour. Deshacerse de la mitad de los datos suena como una gran pérdida, pero en realidad poseen más que suficiente data para la mayoría de los usos, excepto las imágenes de pura data, como Z , Wp y Wn, en la que necesitamos precision de 32-bit flotante por cada canal.

En otras palabras, ya que estamos transformando las curvas gamma de ida y vuelta, y manipulando las imágenes constantemente, necesitamos toda la data que podemos conseguir. Esta mentalidad nos ayudará a evitar artefactos de imagen tales como artefactos de bandas y compresión. Por esto qué es importante trabajar con los tipos de imágenes de precision flotante como EXR, ya que pueden llevar a millones de colores por canal, a diferencia del estándar de 8 bits de sólo 255 colores por canal.

Al igual que TGA tiene compresión RLE y TIFF tiene LZW, hay varios tipos de compresión dentro del formato EXR. Opté por usar ZIP (o deflate), ya que es un formato de compresión sin pérdidas (lossless) y muy rápido para descomprimir en el compositor Fusion. Una de las principales cosas a tener en cuenta es la forma en que su compositor esta renderizando la imagen. Fusion procesa la imagen completa, sin scanlines, mientras que Nuke procesa la imagen por cada linea (scanline), por lo que la elección de la compresión correcta es clave. Nuke parece prosperar con compresión ZIPS (nota la " s "), ya que comprime cada línea de la imagen por separado. Compression ZIP, comprime cada 16 líneas de la imagen.

Analicemos nuestras composiciones de forma mas practica y veamos como aplicar lo aprendido hasta ahora.

Composición de Fusion


Fusion y Nuke nos permiten componer imágenes en un espacio nativo de 32 bits por canal, donde nuestra data de punto flotante se utilizará en todo su potencial. En la imagen de abajo podemos ver una visión no muy legible de toda la composición...no se preocupen, vamos a visualizarla con más detalle. Abramos nuestro proyecto de Fusion que se encuentra dentro de los archivos adjuntados.

En un proyecto pueden haber varios métodos para iniciar una composición. Algunos compositores prefieren reconstruir el "beauty pass" o imagen final por completo, usando cada AOV. Este método ofrece el mayor control, pero puede ser muy lento y pesado para el disco duro. Yo opté por usar los AOV para aislar y corregir el color de la imagen final según sea necesario, confiando más en la finalización de la imagen que salga directo del renderizador. Esto es por lo general mucho más rápido para el disco duro, porque no se carga cada imagen, si no solo lo necesario. Este método es menos complicado y especialmente util para imagenes que necesitan ser " stereoscopic", donde la composición debe mantenerse al mínimo.

Para la composición de Fusion, estamos usando un plugin de aberración cromática de la suite Krokodove, pero también podríamos dividir los tres canales de color y ligeramente moverlos como lo estamos haciendo en Nuke.

Composición de Fusion (Flow)

Entender el concepto de Concatenación es crucial para armar una composición eficiente y limpia, que no degrade la imagen.

Como veremos con más detalle en el subcapítulo de re-iluminacion, tenemos que combinar nuestra metadata AOV con nuestro render principal (o beauty pass). Para poder entregarle al compositor la metadata correcta, tenemos que utilizar el nodo llamado Channel Booleans. Al igual que el nodo shuffle en Nuke, un Channel Boolean puede reasignar un canal a otro, en nuestro caso, vamos a reasignar el color de nuestros AOV a formatos de data.

Composicion de la data AOV

Debido a que hemos alimentado esta data al flujo de nodos, Fusion ahora puede utilizar la data para cualquier nodo que utilize data de vectores. Es decir, la data no se pierde en las sucesivas herramientas o nodos y se puede utilizar en cualquier momento por otras herramientas. Abajo, podemos ver con más detalle cómo se puede utilizar la herramienta Máscara de volumen (Volume Mask Tool) para crear máscaras en 3D y luego usarlas para aislar el efecto de correctores de color, herramientas de sombreado (Shader Tool) o una combinación. Esta máscara 3D es la base para la re-iluminacion en Fusion.

Mascara de Volumen

En la siguiente imagen podemos ver cómo, gracias a la data de posición, las máscaras se están pegando a nuestra escena, lo que nos permite usarlas para corregir el color y cambiar los valores de nuestro render sin tener que animar mascaras. En nuestro caso, hemos utilizado la mascara para limitar a una herramienta de corrector de color (Color Correction Tool) a ciertos lugares, lo cual dará énfasis visual a lugares específicos, como la parte superior del árbol, lo cual guía la mirada del espectador desde la parte superior izquierda hacia abajo a nuestra nave voladora. También aislamos y corregimos el pasto con la ayuda del AOV specular, que estaba siendo aislado por las máscaras 3D. Esto ayudó a añadir algunas variaciones a la saturación y luminancia del pasto en lugares claves, dando la impresión de azar en el color.

Mascara de 3D en Fusion

También estamos utilizando el AOV llamado moss para aislar el musgo en la escena, la cual se puede utilizar como una máscara para la corrección de color. Esta mascara la usamos con un nodo corrector de color para modificar la saturación y el contraste en un 50%. Es difícil anticipar el equilibrio de color exacto durante la producción de la imagen en Maya, así que tener que hacer cambios sutiles de color en post-producción es muy útil.

Pase AOV de musgo

Aquí podemos ver las nubes creadas con Fluidos en Maya. Las hice juntas, asi que estamos usando máscaras para aislar el fondo del primer plano. También podríamos haber renderizado ambas nubes por separado.

También podemos ver compuesto el matte painting 3D para nuestro fondo de cielo y la nube con forma de tetera. Estamos utilizando una imagen de la nube como textura doblada por medio de un nodo 3D en Fusion. Para lograr esto, estamos utilizando la geometría del cerro en formato FBX importado como referencia de posición y la cámara Maya ASCI importada para hacer calzar perfectamente el Matte Painting.

Nubes

El siguiente paso es añadir algunas partículas de polvo animadas en 3D, lo que ayudará a añadir un poco de vida a la escena. Estamos de nuevo utilizando la composición 3D para lograr esto a través de partículas 3D de Fusion.

También estamos haciendo un poco de equilibrio ligero al nivel de luminancia después de combinar nuestras imágenes con el Matte Painting, así como el uso de varios AOV para corregir el color de la composición.

El SSS AOV (dispersion de piel - sub surface scattering) se utiliza para agregarle colores vibrantes al personaje y hongos. El AOV de reflexión (specular indirect) se utiliza para aislar el parabrisas de la nave y añadir un reflejo del sol en el borde. Finalmente, la palabra Turbo se aísla con el AOV de incandescencia (glow - incandescence) para añadirle importancia adicional.

Particulas de Fusion y AOV para corrección de color

A continuación, le añadimos un poco de riqueza al color en el centro de la imagen para ayudar a que el enfoque visual sea para la nave y el personaje. También hemos compuesto el polvo que deja la nave al pasar, el cual es un render de fluidos de Maya por separado a nuestro render principal. Hice esto con el fin de tener la flexibilidad de manipular los valores de los fluidos en Maya de manera más eficiente y tener un mayor control del efecto global en post-producción.

Polvo de la nave y corrección de color

Otra gran razón para separar el polvo del coche en un render aparte, es utilizar este render como una máscara para los efectos. En este caso estamos usando el polvo del coche para difuminar el fondo, lo que añade un efecto de distorsión de calor y hace que el polvo se separe visualmente del fondo.

Polvo de la nave - No difuminado vs. difuminado

Finalmente, se aplica la corrección de color y otros efectos que simulan a una película clásica, como una viñeta, aberración cromática y grano de película. Entraremos a ver estos conceptos en más detalle en el subcapítulo de corrección de color.

Más importante aún, tenemos que quemar el perfil de color sRGB para la salida de 8 bits, por ejemplo usando TGA o Quicktime, porque hemos estado trabajando en espacio de gamma lineal y eso es demasiado oscuro para visualizarlo correctamente en un televisor o monitor.

Como podemos ver, el uso de pases AOV para manipular una imagen en post-producción nos da un buen espacio para la experimentación creativa en tiempo real.

Corrección de color y ajustes finales

Composición de Nuke


Fusion y Nuke tienen el mismo flujo de trabajo con diferentes herramientas, con la diferencia que Nuke ofrece una verdadera herramienta de re-iluminación interactiva en 3D y una herramienta de composición de profundidad (deep compositing), lo que Fusion compensa con sus herramientas de volumen.

En su mayor parte, las herramientas estándar como brillo, desenfoque, corrección de color, etc ... tendrán las mismas operaciones matemáticas en ambas aplicaciones, pero ya que manejan valores y gamma diferente es casi imposible coincidir perfectamente con la composición de Fusion. Por esto, aproveche de cambiar la imagen levemente y mejor hice una nueva versión mas caricaturesca en vez de la estética naturalista de la imagen de Fusion.

Como podemos ver en la imagen de abajo, intente seguir una progresión de nodo muy similar a la composición original de Fusion, empezando con la composición de pases de datos AOV en nuestra imagen. Vamos a abrir los archivos de proyecto de Nuke, para seguir el análisis de la composición.

Nuke composición

Para combinar los pases de data con el render principal, estamos usando un nodo copy para copiar el color de los pases AOV y pasarlos a los canales de datos. Para la herramienta Relight, necesitamos pases de data normal y position, los cuales no son estándar en Nuke, por lo que necesitamos crearlas usando el nodo relight para que puedan estar disponibles dentro del menú desplegable del nodo copy. Veremos esto en mas detalle en el subcapítulo de re-iluminación.

Esto asegurará que tengamos la metadata disponible durante toda la secuencia de nodos.

Juntamos la data de los AOV

Después de haber colocado las luces y haber terminado el proceso de re-iluminación, necesitamos transformar la salida RGB a escala de grises (luminancia) para conducir un nodo corrector de color. Esto nos permitirá cambiar los valores del render original, en lugar de combinar nueva información de color que puede destruir la gama de colores o rango dinámico original.

Re-iluminacion (Relight)

Esta es nuestra mascara para la re-iluminación. Como algunos de ustedes se habrán dado cuenta, es ligeramente diferente a la de Fusion, porque quería exagerar la iluminación en el primer plano y en algunos otros lugares claves para hacer que la estetica luciera caricaturesca, a diferencia del enfoque naturalista de la composición que hice en Fusion. La intensidad del efecto es también mucho más exagerada.

Usando un CC (Color Correct) y Hue Correct node estamos manipulando la saturación de la imagen, al igual que la gamma y gain, para así añadir colores vibrantes y contrastar ciertas partes de la imagen donde necesitamos crear enfoque.

Resultado de re-iluminación

Es aquí donde empezamos a usar nuestros AOV's para manipular nuestra imagen. Estamos usando el Specular AOV para hacer resaltar el vidrio del vehículo con un tinte de color naranja, para unir los tonos al los del sol. También estamos utilizando el moss (musgo) AOV para agregarle saturación a nuestro musgo. Para hacer esto, estamos convirtiendo los canales de color RGB AOV en canales RGB estándar y posteriormente en información alfa para enmascarar los correspondientes nodos correctores de color.

También estamos componiendo nuestras nubes en dos partes, una nube para el primer plano y otra para el fondo. Por último, estamos fusionando nuestra pintura mate en 3D, que estamos creando con una imagen de cielo y una imagen de una nube con forma de tetera, los cuales son asignadas a tarjetas 3D (cards) para obtener un paralaje (parallax) mas aparente.

Pintura Matte y AOV's

Continuando el uso de nuestros AOV's, estamos utilizando el SSS (subsurface) AOV hacer hincapié en la piel del personaje y los hongos. La incandescencia AOV nos está permitiendo aislar el signo "Turbo" en el coche.
También estamos haciendo un poco de trabajo manual para añadir un ligero resplandor del sol en el espacio negativo formado entre el árbol y el coche, como si la luz del sol estuviera filtrándose a través de las nubes.

Estamos componiendo nuestro polvo del coche también. Para empezar estamos haciendo un poco de corrección de color y subiendo el gain, lo que hará que resalte en la imagen. Tambien estamos utilizando la luminancia del polvo para difuminar el fondo, esto va a simular una bruma de calor del tubo de escape y ayudara a resaltar el polvo del fondo.

AOV's y polvo

En la última parte de la composición es donde añadiremos los ajustes finales a nuestra imagen. Estamos cambiando la imagen de varias maneras, incluyendo un cambio de tonalidad en medio de la imagen, añadiendo nuestro grado de color principal y la adición de una viñeta de lente.

Para finalizar los efectos "vintage" o de película clásica, estamos añadiendo una aberración cromática en los bordes de la imagen y un poco de grano de película, que no sólo ayuda con la estética, pero es crucial para eliminar las bandas de color, mediante la introducción de ligeros cambios de color entre los valores que no pueden ser representados por una salida de 8-bits.

Corrección de color final y finiquitado

Comparando las imágenes, podemos ver la diferencia entre la imagen final de Fusion (mas real) y la de Nuke (mas caricaturesca).

Imagenes Finales

Re-Iluminacion - Relighting


Como comentábamos anteriormente, gracias a Re-iluminación, mejorar nuestra toma no tiene que limitarse a la corrección y efectos de color. A pesar de que las técnicas son diferentes en Fusion y Nuke, ambos utilizan los mismos pases AOV, así que vamos a entenderlos un poco mas detalladamente.

El AOV llamado World Position o Wp, guarda en data (vector) la geometría en relación a la posición en el espacio del "mundo" de la escena. Esta data también puede ser codificada en el espacio de la "cámara", pero la necesitamos en el espacio del "mundo" para que conserven su posicionamiento global independiente de la animación de la cámara. Esto significa que podemos escoger un valor de píxel en la composición y este representará una posición absoluta en el espacio, lo cual es crucial para hacer máscaras 3D, re-iluminación, etc ...

World Position AOV

Como podemos ver, estos AOV's pueden ser difíciles de visualizar en su forma RAW (data), a veces incluso invisible (como es el caso de la profundidad Z), pero estos valores se pueden reordenar a un rango de valores razonable (de 0-1 por ejemplo) mediante la normalización de estos valores en composición (Normalized). Cada software tiene una forma de normalizar valores (Fusion tiene un normalizador incorporado en el visor, por ejemplo), pero la normalización sólo debe utilizarse para fines de visualización, ya que la aplicación necesita los datos en su formato original RAW para usarlos correctamente, por lo tanto nunca normalizes la data de AOV dentro de las operaciones de composición.

Consejo

Si no puedes visualizar cierta data, no te preocupes, tu compositor igual la pueda usar.

Nuestro World Normal AOV o Wn tambien esta en espacio del "mundo" y le comunica al compositor acerca de la superficie de nuestros objetos, o la dirección de un punto en el espacio de la escena. El compositor necesita esta data para determinar las características de las superficies que esta re-iluminando.

Normal AOV

Tambien usamos el tradicional pase AOV de profundidad Z ( Z Depth). Los pases Z han sido usados por muchos años como un truco para hacer neblina, desenfoque de lente, perspectiva atmosférica entre otros trucos en composición. En nuestro caso, lo estamos usando para que el programa de composición entienda la profundidad de la escena.

Z Depth AOV

Consejo

Es muy importante renderizar nuestros AOVs o pases con la mayor profundidad de colores y la menor compresión posible, para que así tengamos rangos amplios y asi los mejores resultados posibles.

Ahora que entendemos los AOVs de data un poco mejor, veamos como podemos usarlos en Fusion y Nuke.

Fusion

En Fusion, al igual que Nuke, podemos usar nuestra data de 32-bits por canal de forma nativa. A pesar que no hay una herramienta dedicada a la re-iluminación con luces en 3D, Fusion tiene una colección de herramientas de volumen, que al juntarlas con la herramienta 2D shader nos da la posibilidad de hacer lo mismo y aun mas. Como discutimos anteriormente, estamos usando los AOV Wp, Wn y Z. Esto va a darle toda la información necesaria a Fusion.

A diferencia que Nuke, Fusion puede interpretar información de Posición y Normal sin tener que crear los canales, asi que solo hay que convertir la data a canales de color.

Para convertir la data a color, necesitamos usar la herramienta Channel Booleans. Esta herramienta puede efectuar muchas operaciones matemáticas, pero nosotros solo vamos a usar la opcion de Aux Channels ,donde vamos a poder redireccionar la data en nuestros AOVs a ciertos canales auxiliares. Para lograr esto necesitamos prender la opcion Extra Channels donde podemos reasignar la data al canal auxiliar deseado. dentro del menu, podemos elegir los canales entrantes, en este caso vamos a redireccionar los canales r, g, b a los canales x, y, z respectivamente, para Normal y Position. El canal auxiliar Z buffer leera la luminancia (o lightness) entrante en el canal Z. Cada redireccion necesita su propia herramienta Channel Booleans.

Como podemos ver en la imagen siguiente, el pase final (beauty) es seguida por todos los pases de data, para que asi la informacion siga pasando por la composición.

Channel Booleans

Una vez que tenemos la data, podemos empezar a hacer nuestras mascaras de volumen usando la herramienta VolumeMask. Podemos elegir la posición para nuestra máscara, al arrastrar el icono "Pick ..." sobre la ventana que contiene la imagen de la herramienta VolumeMask. Podemos hacer esto de forma interactiva, lo que nos ayudará a modificar el porte de la mascara.

La máscara resultante es recortada por el canal alfa de la imagen principal (Beauty), con el fin de limitar las operaciones de Re-iluminacion al cerro.

Fusion - Nodo Volume Mask

Teniendo las mascaras de volumen donde las queremos, podemos utilizar varios métodos para cambiar la imagen original. Uno de los métodos es el uso de una herramienta llamada Shader. Los controles son muy similares a los del propio nodo de Re-Iluminacion (Relight) en Nuke, excepto la herramienta de Shader de Fusion es 2D y no tiene forma de ajuste en 3D. La herramienta compensa estas limitaciones ajustando la altura y el ángulo de reflexión. También podemos añadir una imagen de reflexión, si es necesario.

Fusion - Nodo Shader

Al igual que Nuke, el principal método para re-iluminar es el uso de herramientas de corrección de color para modificar la saturación, tono y gamma de la imagen original. El hecho de que estamos utilizando imágenes 32-bits nos permite obtener una imagen limpia y sin bandas de color o artefactos, a pesar de que la estamos modificando bastante, porque nuestro rango de color y gama de colores es muy amplia.

Nuke

Nuke ofrece re-ilumacion verdadera, donde luces de 3D pueden interactuar con un nodo Relight con la capacidad de modificar el valor diffuse y specular del shader.

Para que Nuke interprete la data de color en los AOV, tenemos que cambiar el color de las imágenes a data de Position, Normal y Z. Para transformar el color a data, vamos a utilizar un nodo de copia (copy), pero primero necesitamos crear un nuevo layer de Position y Normal, debido a que no están disponibles.

Para crear un nuevo layer, tenemos que utilizar el visor Nuke o un nodo Relight. Por ejemplo, crea un nodo Relight y en el menú desplegable elige new (para un nuevo layer). Aquí vamos a hacer un layer llamado Normal y vamos a asignar a cada canal (r, g, b) el canal correspondiente. Siga el mismo procedimiento para un nuevo layer llamado Position.

Nodo Relight - Creación de canales

Después de hacer estos nuevos layers, Nuke los hará disponibles en los nodos de copia ( copy), lo que permite usar los AOV Position y Normal para uso en re-iluminación.

Copiar AOVs a data de posición

Como podemos ver en la imagen siguiente, necesitamos conectar un shader en el nodo Relight, así como las luces y data de la cámara. Estamos utilizando la geometría de la escena en formato FBX para ver una simple representación de esta mientras colocamos nuevas luces. vale notar que el nodo Relight funciona sin la geometria, pero se recomienda para un resultado mas consistente con la imagen original.

Nuke - Composición para Relight

La salida del nodo Relight tendrá información de shading (diffuse y specular), pero en lugar de depender de los resultados del shader, convertiremos la imagen resultante en una máscara de luminancia, la cual usaremos para corregir el color de nuestra imagen.

Consejo

No se olvide de activar la caja "use alpha" en el nodo Relight, para que el efecto solo sea efectivo dentro de los límites del canal alfa.

Composición en 3D


El uso de Composición en 3D ha ido en aumento en los últimos años. Compositores 2D tradicionales como Shake carecian de herramientas 3D, pero aplicaciones como Nuke y Fusion tienen motores 3D integrados, lo que permite al usuario ampliar las limitaciones de composición en 2D y cerrar la brecha entre la producción y post-producción.

Se utilizó la composición 3D para componer la imagen del cielo con nuestra tetera de nube y añadimos algunas partículas de polvo atmosférico en la escena.

El flujo de trabajo consiste en la exportación de la geometría en formato FBX y data de la cámara de Maya, con el fin de utilizar Fusion para generar partículas, el cielo y la nube con forma de tetera. Para ello, he exportado la cámara de maya en formato .ma, así Fusion leerá las curvas de animación de forma nativa. Fusion también soporta archivos de formato Alembic, por si necesitamos importar nuestra vegetación para obtener una mejor representación de la escena si es necesario.

Nuke sigue muchos de los mismos principios para la importación de datos como Fusion, pero no puede importar archivos Maya .ma para la cámara, por lo que necesitamos generar archivos FBX para nuestra cámara. Debido a la interpolacion de data que ocurre en las curvas de animación, lo mejor es hacer bake a la animación de la cámara antes de exportar, lo que crea un valor por cada cuadro y evita interpolar curvas.

Consejo

Para asegurarse de que la cámara coincida 100% en composición, hay que cambiar el "Film Aspect ratio" de la cámara a el mismo valor que el "Device Aspect Ratio" en los "Render Settings" en Maya. En nuestro caso, este valor es 1.850. Desafortunadamente Maya siempre crea las cámaras con un valor de 1.50, por lo que siempre hay que cambiarlo!

Para crear nuestro cielo, asignamos una textura a un nodo Image Plane con una imagen de textures.com, con el mismo método, hemos añadido nuestra nube con forma de tetera en nuestro cielo. Las nubes de fluidos que creamos en Maya añaden el toque final al cielo.

Cielo en Fusion

En la siguiente imagen podemos ver cómo el uso de simple geometría nos ayuda a representar nuestra escena, así somos capaces de posicionar nuestras partículas y juzgar mejor el espacio donde nuestro cielo se ve mejor. Es crucial tener una buena relación espacial para representar el paralaje necesario. No tener la geometría de referencia podría llevar a posicionar el cielo demasiado cerca, asi visualmente reduciendo el tamaño de la escena, porque no hay suficiente cambio de perspectiva.

Espacio de 3D en Fusion

Consejo

Asegúrese de usar FBX en lugar de OBJ para la exportación de la geometría, ya que permite la lectura de la data mas rapidamente y nos da muchas más opciones para la interpretación de la escena 3D en Fusion.

Composición con Canal de Profundidad - Deep Compositing


A pesar de que opté por no usar Deep Images (imagenes con canal de profundidad) en TGT, se han convertido en una parte muy importante de muchas producciones de efectos visuales. Cuando empecé The Grand Tour, la molestia en el flujo de trabajo sobrepasaba los beneficios. Esto ya no es el caso, ya que tanto RenderMan como Nuke tienen una muy buena integración. Veamos cómo usar Deep Images puede ser de gran ayuda.

Deep Compositing se refiere al uso de Deep Image Data como parte del proceso de composición para combinar elementos dentro de elementos transparentes, intercalados, volumétricos o dispares que de otro modo serían imposibles de combinar con una composición tradicional de 2D. En otras palabras, en softwares como Nuke, podemos utilizar Deep Image Data para componer objetos a través de piel, vidrio, nubes, hojas transparentes, etc., sin ninguno de los trucos que limitan a las técnicas tradicionales de composición como el uso de mapas Zdepth, donde el filtrado, transparencia y precisión de sub-píxeles son un problema.

Para general Deep Data en RenderMan for Maya necesitamos seguir algunos pasos simples, como se describe en la documentaci ón.

1) En el Outputs tab del Final pass, crea un nuevo custom output llamado color Ci. Donde la palabra color representa el tipo de data y Ci representa el Color del Rayo Incidente (Incident Ray Color). Este output puede er cualquier AOV que deseemos, pero usamos Ci porque es facil visualizar color.

Create custom channel

2) Una vez que el canal este disponible en la lista, haz click derecho y elige Create Output from Channels (Crea Output a base de este canal). Ahora deberíamos ver el canal arriba en la lista de AOV's que serán renderizados.

Create Ci Output

3) Seleccione el nuevo canal Ci de la lista de salidas AOV y elige el formato de imagen DeepImage (.dtex).

4) Agrega el atributo de subimagen (Deep Image Subimage), de modo que nuestra imagen en disco tenga la extensión .rgba, esta extensión es necesaria para que Nuke entienda el archivo.

Asignar formato DeepImage (dtex) y Subimage

Consejo

Tambien es posible desactivar la salida primaria si no la necesitan. Ahora que hemos generado la data Deep Image, vamos a aprender cómo utilizarla en Nuke.

A continuación se muestra la visualización de la data Deep Image dentro de Nuke. Estamos utilizando un nodo DeepReColor para componer la imagen principal y la data de Deep Image, luego pasamos la información a un nodo DeepToPoints para visualizar la data en 3D. Esto es crucial para posicionar nuevos elementos en la composición, por ejemplo unas luces y un texto, pero es importante acordarse que es solamente para visualizar, no es parte de la composición final.

El nodo DeepHoldout será el nodo de composición (merge) principal para la data Deep Image, este nodo creará un holdout (recorte) donde está el texto. A continuación, compondremos el render tradicionalmente al revés, debido a que el texto hizo un recorte, por lo tanto usaremos el texto como fondo (background) y el recorte como nuestro primer plano (foreground), exponiendo así el texto a través de la retención.

Nuke - Deep Data script

Podemos usar la data de puntos (DeeptoPoints) para posicionar con precisión nuestros elementos 3D y cualquier iluminación necesaria para la escena. En esta escena de ejemplo, tenemos un simple texto que dice "SMILE" mapeado a una tarjeta en 3D. Estamos iluminando el texto con varias luces en Nuke tipo point light para simular la direccionalidad de la luz en el render original y la iluminación indirecta de las coloridas paredes saturadas.

DeepToPoint - viewport

Y voila! Nuestra imagen final con nuestro texto creado en Nuke se compuso a través de la geometría de intersección. Somos libres de iluminar nuestro texto "SMILE" para compensar la falta de iluminación indirecta (GI) en la composición.

Composición de Deep Data en 3D

Manipulacion de Color y Ajustes Finales


Cuando estas terminando una imagen, es muy importante tratar cualquier problema pendiente, como la bandas de color (Color Banding), la adaptación al grano presente en el pietaje o simplemente añadir una viñeta para simular una luminancia desigual en el lente. La cantidad de efectos necesarios en una imagen o toma puede variar dependiendo de la complejidad y la ambición del creador, pero por sobre todo, el color debe ser siempre una prioridad. Es por eso que la corrección y modificacion de color son una parte muy importante de cualquier proceso de post-producción.

Correccion de Color

Color Correction (Correccion de Color) manipula colores y valores a un estándar en una secuencia, efectivamente modificando los valores mínimos, medianos y máximos a un cierto rango y valor que permitirán que una secuencia se vea cohesiva. Esto ayuda a crear consistencia a lo largo de una secuencia de tomas. Para una película, esto también incluye balance de blancos y sincronización de color químico, pero en nuestro caso, digitalmente se puede crear un balance de blancos más predecible, por lo tanto la Corrección de Color normalmente se limita a nivelar la luminancia y saturación a las tomas filmadas (pietaje). En el caso de nuestra imagen o de una tipica produccion animada, la corrección de color puede ser mucho más sencilla.

Manipulacion de Color

Color Grading (Manipulacion de Color) es la última transformación de color de una imagen y por lo tanto nuestra última herramienta creativa visual. Sirve como una manera de modificar nuestro equilibrio del color en los niveles bajos, medios y altos y asi dar una nueva gama de colores a nuestra imagen para crear una nueva estetica o tono emocional, generalmente atada al avance de la historia. En nuestro caso estamos utilizando una paleta de colores cálidos, por lo que nuestros medios y altos se desplazan hacia el naranja y el amarillo, mientras que los bajos se desplazan hacia el azul para complementar los tonos de color naranja y resaltar el calor del sol.

Consejo para manipulacion de color

Nota las diferencias entre la corrección de color y la Manipulacion de color, la primera se ocupa del color técnicamente y la otra es una herramienta creativa.

Grano de Película - Film Grain

Agregar grano de película fue crucial para alcanzar una estetica mas tradicional de pietaje con negativo. Teniendo en cuenta que muchas herramientas de simulacion de grano dan resultados monocromáticos o distribuido uniformemente, me aseguré de ajustar el tamaño, la intensidad y la cantidad de grano en cada canal de color, con el fin de simularlo mejor. Esta es una de las herramientas donde realmente vemos las ventajas de trabajar con la correcta gestión del color (Color Management), porque al trabajar con una curva de respuesta logarítmica, el grano variará su intensidad a medida que cambia la exposición de la imagen, y gracias al amplio rango de valores ayudamos a la curva de registro a simular el pietaje de películas con mucha mayor precisión.

En la imagen de abajo, podemos ver las diferencias de trabajar con imagenes tradicionales de 8 bits y de punto flotante. En la imagen de 8 bits se aprecia una respuesta de grano equitativo a travez de la imagen, lo que lleva a un grano de película desagradable y destructivo a la imagen, mientras que la segunda imagen produce resultados sutiles y con diferencias en los valores, ayudando al realismo de la simulacion.

Grano equitativo vs grano sutil

Aberración Cromática - Chromatic Aberration

Para mantener la imagen de acuerdo con nuestra estetica retro-futuro, le dimos a nuestra imagen una ligera aberración cromática en los bordes de la imagen, esto simula una película de época (vintage) donde la convergencia de color no era tan precisa y creaba cambios y difuminado de canales y franja púrpuras. Podemos conseguir este efecto en post-produccion cambiando cada canal de color (RGB) muy levemente en direcciones opuestas, creando asi un cambio en color. Este efecto puede llegar a ser más exagerado con lentes más anchos, antiguos o de menor calidad, incluso difuminando algunos de los canales, pero tenemos que aplicarlo muy ligeramente para que no degrade la imagen a un nivel inapropiado. Muy importante notar que estamos limitando estos efectos usando una máscara para sólo afectar los bordes de la imagen, que es usualmente donde los lentes distorcionan la imagen.Para la composicion de Fusion, usamos aberración cromática de la herramienta Krokodove.

Chromatic Aberration

Artefacto de Resplandor - Lens Flare

Un Lens Flare (artefacto de resplandor) es un artefacto del iris del lente cuando la luz se filtra dentro del lente de la cámara y dentro del diafragma, por eso usualmente tenemos artefactos en forma de hexágono u otras formas geométricas que coinciden con la forma del diafragma de la lente. Utilicé un Lens Flare en ciertos momentos de la animación para añadir realismo a la toma (aunque sea una criatura peluda montando un aerodeslizador...), utilicé el brillo del vidrio de la nave como mi fuente para el resplandor. Este efecto necesita ser sutil, porque los elementos brillantes y móviles pueden ser muy distractivos, especialmente las formas abstractas como estas. Este efecto puede ser muy útil para crear un sentido de realismo, porque asociamos tales artefactos con un lente de cámara real ... y los productores piensan que es genial ...

RESUMEN


  • Usar buen manejo de color es crucial para lograr resultados predecibles y precisos en post-produccion.
  • Usa AOV de data para re-iluminar las escenas en post-produccion y añadir cambios en dirección de arte de último minuto.
  • Usa Composicion en 3D para expandir las capacidades en la aplicacion de composicion y asi unir los flujos de trabajo 2D y 3D.
  • Conozca las ventajas de usar Deep Compositing y cómo puede beneficiar su flujo de trabajo de composición para escenas muy complejas.



Project Assets
Tags
  • {{tag.name}}

Log in to post a comment

{{ commentBody.length || "0"}} / 10 characters

No Comments, Yet

Comments