¿Qué es un Proxy?

En el mundo del internet, un Proxy es una especie de intermediario entre un computador y un servidor o el resto de la Web. De este modo se puede entender un Proxy en el mundo de la edición audiovisual como un archivo intermedio derivado del material original grabado en cámara para la edición de dicho material.

En otras palabras, el archivo Proxy es una versión del material original en un códec más manejable para los computadores en los cuales se va a llevar a cabo la edición. Ya que dichos computadore no suelen ser tan poderoros como aquellos utilizados para procesos más complejos como la correción de color, efectos visuales o masterización final y además necesitan manejar una mucho mayor cantidad de material que esos procesos, entonces normalmente se generan proxies para realizar lo que se llama la edidción offline.

La edidicón offilne no es otra cosa que el ensamblaje y montaje de las imágenes, utilizando proxies de menor calidad, menor tamaño y con menor bitrate que el material bruto original. Posteriormente, esta edición offline es «conformada» con el material original para los procesos finales de corrección de color o la realización de efectos visuales.

Un Proxy entonces tiene la particularidad de tener un menor bitrate, lo que produce que tome menos espacio en disco duro y es más fácil de decodificar, pero con una pérdida de cálidad que sin embargo durante el proceso de edición no es tan crítica. Hay proxies de diversos tipos que funcionan en mejor o mayor grado dependiendo del sistema que se quiera utlizar para la edidción, el programa como tal y la cantidad de material que se maneje en el proyecto.

Si se tiene un computador realtivamente poderoso y el espacio en disco duro no es problema o si la cantidad de material no es mucha, se puede elegur un Proxy con una resolución y bitrate mayor durante el proceso de edidicón, produciendo mejor calidad de imágen durante el proceso offline. Pero si el presupuesto o las herramientas limitan la capacidad de manejo de un códec con mayor bitrate y resolución, entonces el Proxy irá decayendo en calidad, disminyendo su bitrate y/o resolución.

Como anécdota práctica de un proyecto real de una serie documental en la que estamos trabajando actualmente, utlizamos diversos códecs y resoluciones para nuestros proxies. En el proyeto mencionado hay centenares de horas de material de archivo de épocas en el que la alta definición todavía no existía, proveniente de fuentes como Digi Betas, VHS y digitalizados a veces de forma precaria. O simplemente se nos pone a la disposición screeners de baja calidad que posteriormente serán conformados con las fuentes originales. El proyecto también inlcuye material original grabado en 4K ó 5K por supuesto en mucho menor cantidad que el material de archivo. De modo que para importar las decenas de hora de material de archivo de baja calidad utlizamos un códec en una resolucón igual al formato original, normalmente 720 x 576 (SD) con un códec que comprime la imagen e aproximadamente una relacion de 26 a 1. Esto nos permite ahorar una enorme cantida de espacio en disco duro, aunque sacrificamos la calidad de imagen, que de todas maneras es bastante precaria en el material original. Mientras que el material original de 4K ó 5K es importado en DnXHD 36 para el proceso offline.

Hoy en día los proxies más comunes durante el proceso de edición offline son los que prouducen los códecs DNxHD, producido por AVID y el ProRes, producido por Apple. En el pasado, se podía entender entonces que los editores utlizando Final Cut Pro de Apple, como programa de montaje, eligieran el ProRes como Proxy de trabajo, mientras los editores utlizando AVID, eligieran el DNxHD. Hoy en día ambos códecs corren casi inperceptiblemente bien y rápdido en ambos sistemas y la elección de uno u otro códec puede que dependa más bien del sistema operativo en el que se esté trabjando. Ya que el ProRes es producido por Apple, los editores trabajando en Windows, aunque hoy en día puedan reproducir el ProRes en el programa, se les hará difícil o caro (comprando una licencia o plugin de Apple) hacer renders en este códec. Por lo tanto los usuarios de Windows prefieren utilizar el DNxHD, que es interoperativo y funciona perfectamente en ambas plataformas. De igual forma, ambos códces corren perfectamente bien en otros programas como el Premiere de Adove o Davinci Resolve.

Los códecs DNxHD y ProRes, cómo hemos visto un artículo previo, tienen distintos «sabores» que permiten jugar con parámetros para encontrar el Proxy más adecuado según el sistema que se tenga. Es así como ProRes de hecho tiene específicamente una version que se llama justamente ProRes Proxy, mientras que los usuarios que trabajen con el DNxHD, normalmente elijen el DNxHD36 que es lo sufucientemente «ligero» para cualquier sistema de edidición, con una calidad aceptable para todo el proceso offline.

Hoy en día, casi todos los programas de edición tienen una forma relativamente sencilla de intercambiar el material Proxy por el material de alta calidad original para hacer revisiones, renders de alta calidad o «conformar» la edición final para los proceso posteriores aunque el nivel de sencillez de este intercambio y los dolores de cabeza que pueden producir varia de programa a programa. Premiere, por ejemplo ha desarrollado este flujo de trabajo hasta un punto en que tan solo basta un click para cambiar entre Proxy y material original, si se llevan a cabo los pasos necesarios de creación y vinculado del material desde un principio. Resolve es otra herramienta que permite de forma sencilla la creación de proxies durante la edición para aliviar la carga durante la edición. Avid es un poco más complicado en este sentido, pero con unos cuantos clicks extras y si se ha sido organizado y consecuente durante la creación de proxies manteniendo la metadata original, puede también lograrse.

Sin embargo las producciones más complicadas y de mayor presupuesto, utilizarían herramientas extras para la vinculación de los proxies de edición al material bruto original. Resolve es una herramienta muy popular para el «conforming» del material offline proveniente de diversos sistemas de edición, para generar la secuencia final «online» que no es otra cosa que la secuencia de edición con todo el material bruto de cámara original que entrará entonces a los procesos prosteriores de etalonaje y finalización.

En próximos artículos veremos específicamente cómo podemos crear Proxies utlizando Resolve para la edición offline en Avid, manteniendo la metadata necesaria para poder conformar la ediciñon offline proveniente de Avid de nuevo en Resolve para el etalonaje final, un flujo de trabajo común en las producciones de largometrajes de ficción y documentales.

Previsualización y Realidad Virtual (VR) – Herramientas de Postproducción en la Preproducción

La previsualización, o previs, como es conocida en la industria, es una poderosa herramienta de preproducción que como su nombre lo indica permite previsualizar planos o escenas completas de forma que la visión del director pueda ser comunicada visualmente a todos los departamentos y hacer mucho más fácil y precisa la planificación y la elaboración del presupuesto de producción.

La previsualización puede ser tan sencilla como un pequeño Storyboard con figuras hechas de simples líneas. Los Storyboards pueden variar en dificultad y detalle y pueden incluso contartarse dibujantes y artistas de stroyboard que pueden prácticamente dibujar la película entera en base a un guión creando verdadras novelas gráficas como las conocemos de los cómics. Uno de los grandes exponentes e impulsadores del uso del Storyboard fue Alfred Hithcock quien solía planear al detalle sus películas a través de Storyboards elaborados que o él mismo dibujaba o les encargaba a ilustradores profesionales. Sus storyboards eran tan detallados y precisos, que en el set raramente tenía que mirar por el visor de la cámara cuando ponía en escena una toma, ya que daba por sentado que todos los departamentos harían realidad lo que había comunicado visulamte y él ya sabía exactamente como esa toma debía verse.

A pesar de que los Storyboards son una gran herramienta de previsualización y es una de las formas más sencilla y económicas de planear una toma, existen un par de limitaciones cuando se trata de escenas con efectos elaborados, stunts o coreografías intrincadas, en las cuales el ritmo y la coordinación entre actores y equipo técnico es fundamental. Con la llegada de la tecnología digital y el abaratamiento de los computadores, empezaron, sobretodo en Hollywood a crearse herramientas de previsualización más elaboradas que permitían tomar todos los elementos arriba mencionados. Es entonces como a través de un software pueden crearse y animarse escenas completas que pueden «traducir» información como el tipo de lente que se debe o se quiere usar en la toma, la iluminación necesaria, el «blocking» de actores con respecto a los equipos, las dimensiones necesarias de un set específico o simular los efectos especiales y stunts de una escena de acción. Más aun, como la escena es creada virtualmente y animada con indicaciones precisas, pueden editarse una con otra para crear prácticamente secuencias completas e incluso la película entera, donde el ritmo de las tomas y sus requerimientos técnicos son analizados al detalle permitiendo su planificación y presupuesto de forma eficaz.

Por supuesto, este tipo de previsualización puede llegar a ser muy costosa y requiere de personal calificado que probablemente sea prohibitivo para muchas producciones que no cuenten con el presupuesto de preproducción para ello. Sin embargo en los últimos tiempos han salido herramientas realmente poderosas e incluso muchas de ellas bastante accesibles como por ejemplo Cinetracer, que permiten en ciertos casos y con un esfuerzo técnico aceptable una satisfoctoria previsualización .

Cinetracer

Cinetracer, por ejemplo es una herramienta creada con un motor de videojuego «game engine» llamado Unreal, gratuito por cierto, con el cual se crean video juegos populares como los que conocemos de las diversas consolas. Es por esto que el nivel de interacción y virtualización de escenas, lo hace ideal para la previsualización cinematográfica.

Con el advenimiento y popularización de las tecnologías de Realidad Virtual (VR), era entonces natural que estas poderosas herramientas pronto fueran adaptadas a las técnicas de previsualización. Qué mejor forma que visitar una locación remota por ejemplo que a través de un video del lugar en 360º donde se pueda analizar si el área es apta para la escena que se tiene planeada. O mejor aun, usando los sensores y capacidades de tracking de las gafas de VR, poder «pasear» por la escena interactuando con elementos virtuales como utilería u otras superficies físicas. Pero yendo más allá, qué tal si en base a nuestro guión pudiésemos construir nuestros sets en realidad virtual, con las dimensiones del set real a utlizarse o construirse y además diseñar todos los elementos a usar en la toma, como las luces, el tipo de cámara con los lentes específicos, la utilería por supeusto, el decorado, prácticamente todo lo que necesitamos para el rodaje e insertar al camarógrafo o director de fotografía en ese set virtual para que con una cámara virtual capture exactamente la escena como el director la visualiza, reproducirla, hacer ajustes, experimentar, etc y tener después esa escena virtual capturada com un clip de video tradiconal que puede ser editado, musicalizado si se quiere, etc. y así previsualizar la película entera si se desea sin rodar un solo segundo de «película» (o archivo digital) que puede costar millones de dólares.

Para la realización de efectos especiales y efectos visuales es una herramienta invaluable ya que pueden probarse elementos, técnicas y herramientas en el mundo virtual, antes de tomar decisiones que puedan comprometer el presupuesto o la viabilidad de una producción. Con la llegada de las cámaras 360º, los motores de videojuegos como Unreal o Unity esto es hoy en día la herramienta de previsualización más avanzada que existe. Una de estas herramientas es DeepSpace creada por la compañía de efectos visuales Planet X con base en Amsterdam y al ver el video de presentación se hace evidente lo poderosa que es la herramienta a la hora de previsualizar y planificar escenas complejas y efectos especiales o visuales. La herramienta permite que el camarógrafo manipule físicamente una cámara virtual que tiene integrada un sensor que permite «capturar» la escena virtual que es creada previamente por el equipo de programadores con las indicaciones del director en cuanto al set real a usarse y este puede «caminar» con la cámara por el espacio virtual, viendo en el «viewfinder» virtual lo que vería la cámara real, modelada según las características de las cámara reales disponibles en el mercado, como las Arri o Red, así como los lentes a utilizar. Por supuesto todo tiene su precio y sería improbable permitirse el presupuesto para previsualizar toda una película de este modo. Pero sin lugar a dudas la previsualización en Realidad Virtual puede asimismo ahorrar mucho dinero, dolores de cabeza e incluso implementar medidas de seguridad, que anteriormente hubiesen sido prácticamente imposible de preveer.

DeepSpace © Planet X

Con el acceso a software gratuito como Unity o Unreal, cámaras económicas de 360º e incluso modelos 3D gratuitos disponibles en la red, con algo de conocimiento técnico o con algún amigo «nerd» capaz de ayudarte, la previsualización en realidad virtual usando gafas comerciales como el Oculus, HTC o incluso el teléfono móvil, es algo que realmente está al alcance de todo realizador hoy en día sin importar su presupuesto.

Desmitificando los efectos visuales (VFX) de cine

Los efectos visuales (Visual Effects) es una de las cosas más misteriosas y fascinantes de la creación cinematográfica. Pero ¿qué significa realmente la creación de VFX? ¿cómo se aplican? ¿cuánto cuestan? y ¿son realmente necesarios?. Estas son algunas de las preguntas que un taller al cual asistí recientemente en Hamburgo intenta responder.

Lo primero que hay que aclarar es la diferencia entre efectos visuales y los efectos especiales. En pocas palabras, los efectos especiales son todo el tipo de efectos que se realizan en cámara, durante el rodaje, mientras que los efectos visuales son aquellos que se crean en las postproducción, hoy en día casi exclusivamente en computadora. De modo que por ejemplo la simulación de lluvia con mangueras y otros dispositivos que arrojan al agua en el set para dar la sensación de lluvia directamente frente a la cámara, es un efecto especial. Mientras que si esa misma lluvia es generada por computadora a través de partículas animadas por ejemplo, después de haber rodado la escena en el set «seco» estaríamos hablando de efectos visuales.

Los efectos visuales así mismo pueden catergorizarse en dos tispos: 2D y 3D y dentro de estos dos tipos hay una variedad de rubros que conforman toda la paleta de efectos visuales que incluyen entre otros:

  • La rotoscopia
  • El Matte painting (en 2D y 3D)
  • El chroma key (pantalla verde y pantalla azul)
  • El modelado 3D y subsecuentes procesos como rigging, texturización, composición, etc.
  • La animacón (2D y 3D)

Entre otros.

Hablemos de algunos de estos efectos especiales que comunmente vemos en las películas más taquilleras de Hollywood, pero incluso en algunas en las que los efectos son mucho menos obvios.

En las grandes películas de acción com opor ejemplo «Transformers» la acción real es complementada con elementos creados por computador que interactúan con los actores y el ambiente. Entonces tenemos robots creados con técnicas de modelado y animación 3D que son «insertados» o compuestos dentro de una escena real filmada en cámara con los actores en ella.

VFX en Transformers

En el video anterior se puede apreciar el desglose de los efectos en el que vemos que varias técnicas son utilizadas para crear la escena final. A menudo la utización de pantallas de croma (Chroma Screens o Chroma Keys) verdes o azules son utlizadas para poder insertar transparencias en la escena de modo de llenar esas transparencias con otros elementos generados posterirmente en la postproducción.

Supongo que muchos están familiarizados con estos procesos de creación de efectos y siemrpe se fascinan al ver estos «making of» donde se puede echar un vistazo al proceso de creación de estas imágenes cargadas de elementos visuales creados por computador

Pero sin embargo a veces existen películas en las que las mismas técnicas son utlizadas pero sin resultados tan obvios pero sin embargo fundamentales para establecer la narrativa de la escena. Un ejemplo es la película «Carnage» (Un Dios Salvaje) de Roman Polanski, en la que se utlizaron pantallas de croma, matte paintings y extensiones de set para recrear la ciudad de Nueva York en la que se desarrolla la trama, pero a la cual el director jamás hubiese podido viajar para rodar debido a su situación legal.

VFX en Carnage

No solo la escena que vemos arriba es completamente ambientada en la ciudad de Nueva York a través de las pantallas azules rodándola en prácticamente cualquier parque del mundo (Francia en este caso). Sino que la cinta que transcurre prácticamente todo el tiempo dentro de un departamento, usa las mismas técnicas reemplazando las vistas de las ventanas por paisajes neoyorquinos para darle sentido a la trama.

Estos dos ejemplos tan opuestos, es simplemente para ilustrar que los efectos visuales son una herramienta narrativa de gran poder sin importar el universo diegético en el que son implementadas. Sin embargo, como todo en la realización cinematográfica, su calidad, efectividad y vialbilidad van a depender del presupuesto y herramientas al alcance de la producción.

Una de las primeras cosas que un supervisor de efectos visuales hará al analizar un guión cinematográfico, es tratar de convencer a sus productores de realizar la menor cantidad de efectos visuales posibles. Suena paradógico, ya que es precisamente trabajo que a simple vista pareciera que estaría rechazando, pero tiene una razón básica. En principio, cualquier cosa que pueda ser recreada en escena, en el set, siempre tiene el potencial de ser más realista y de mayor efectividad que un efecto creado por computador que además será varios ceros más caro y llevará mayor tiempo y recursos en completar. De modo que el trabajo inicial del VFX Supervisor es identificar las escenas que pueden resolverse con efectos especiales, remitiendo al productor a un diseñador de producción, director de arte o supervisor de efecto especiales, para intentar evaluar las posibilidades de recrear dichos efectos durante el rodaje mismo. Luego, aquellos elementos que sean imposibles de recrear durante el rodaje, ya sea por limitaciones espaciales, por seguridad o simplemente porque no existen en la vida real, pueden ser desglosados y analizados y en donde sea posible, mezclados con efectos especiales frente a la cámara.

De modo que por ejemplo una calle que tiene la limitiación de tener un muro al final de ella, pero que en el guión se presenta como una calle larga de varias cuadras, puede ser filmada con una pantalla cormática y elementos creados por computadora pueden extender la calle real para hacerla ver como si tuviera realmente varias cuadras de extensión. Algo parecido a la escena de Carnage arriba en la que el horizonte de un sencillo parque es reemplazado por el skyline de Nueva York.

Otro ejemplo pudiera ser el de un burro que habla con los humanos. En películas con grandes presupuestos como la nueva versión de «El Libro de la Selva», animales enteros son creados con realidad fotográfica en computador y se insertan en platós reales interactuando con humanos o con otros elementos reales de la escena:

VFX en el Libro de la Selva

Mientras que en nuestro ejemplo del burro, un animal real entrenado podría utlizarse en escena interactuando con los actores, mientras tan solo el hocico es recreado en postproducción para producir el efecto de que está hablando y luego compuesto sobre la cabeza real del burro. De este modo se estaría ahorrando una enorme cantidad de tiempo y dinero en la creación del burro completo en 3D.

Otro dato interesante es que por lo general un supervisor de efectos visuales (VFX Supervisor) puede estimar el costo de los efectos necesarios de una produccón considerando el presupuesto y el grado de dificultad y elaboración de los efectos de necesarios utilizando una sencilla fórmula en la que dependiendo del presupuesto global de la película y el grado de dificultad se establece una tabla comoa la siguiente:

Grado de dificultad de efectos baja: 5% del presupuesto global de la película

Grade de dificultad medio: 10% del presupuesto

Grado de dificultado alto: 15% del presupuesto.

Así una película de ciencia ficción en la que se presupone una enorme cantidad de efectos visuales, con un presoupeusto de 10 millones de dólares, dichos efectos podrían costar al rededor de un millón y medio de dólares (15% del presupuesto). Mientras que un drama con efectos sencillos con un presupuesto de 1 millón, podría arrojar un gasto de unos 50 mil dólares en efectos visuales (5%). Esto es por spuesto una simple fórmula para tenerla como referencia de partida y todo presupuesto sería ajustado y exactamente calculado una vez se haga el dessglose definitivo y el análisis de los efectos requeridos. Pero para los mortales cineastas independientes es una buena referencia.

En conlusión, al pensar en hacer películas con efectos visuales, la recomendación es siempre pensar en alternativas que resuelvan el efecto en cámara (efecto especial) antes de convertirlo en un efecto visual (en postproduccón) y tratar de llegar al compromiso máximo entre lo que se graba en escena y se compone luego digitalmente. Los efecots visuales son caros y requieren de mucho tiempo y recursos para su efectiva ejecución, pero con una adecuada planificación que comienza desde antes del rodaje, continúa con este y se exteiende hasta las posptroducción, puede suponer un recurso invalorable en todo tipo de producción sin importar su presupuesto y grado de complejidad.

photo credit: vincentag Cthulhu on the loose via photopin (license)

¿Qué es un codec?

Al comenzar cualquier proyecto audiovisual una de las primeras decisiones técnicas que hay que tomar es en qué formato capturar las imágenes. Dentro de esa decisión está el tipo de cámara que voy a utilizar para ello y al decidir el tipo de cámara, tengo que decidir simultáneamente qué “codec” voy a utilizar. O puede ser que la cámara que se vaya a utilizar esté determinada por el tipo de “codec” que quiero utilizar. Para poder elegir el “codec” correcto tengo que tener en cuenta el flujo de trabajo completo hasta el momento de realizar la copia Master final. 

Pero qué es exactamente un ”codec”. Codec es un acrónimo compuesto por las palabras en inglés “compressor-decompressor” y apunta entonces a la forma en que la información digital va a ser comprimida y descomprimida, codificada y decodificada, haciendo que el tamaño del archivo sea mucho menor y más manejable que las imágenes sin compresión o crudas (RAW).

Esto permite que el flujo de trabajo pueda ser mucho más manejable por las capacidades computacionales de las distintas estaciones de trabajo involucradas durante todo el proceso, pero también puede presentar problemas potenciales si no se tiene en cuenta las características del determinado codec a utilizar. 

La codificación del material registrado es un proceso técnico que cada codec maneja de forma distinta y por lo tanto tiene finalidades y usos distintos. Existen los codecs utilizados para la reproducción optimizada en internet, como el H264, que logra reducir el tamaöo de los archivos considerablemente para el uso efectivo del ancho de banda disponible del usuario en Internet, con una decente calidad de imagen, que hace que sea el codec preferido para intercambiar archivos a través de la red. 

Los mismos fabricantes de cámaras como por ejemplo Canon o Sony utilizan codecs propios para la captura de la imagen con la menor pérdida de calidad posible. Es entonces cuando usamos por ejemplo el Codec XAVC-I de sony o el XFAVC de Canon.

Otros codecs conocidos y ampliamente usados durante todo el proceso de postproducción y también para la copia Master del producto es el ProRes, desarrollado por Apple y viene en distintos «sabores» dependiendo de la relación calidad / tamaöo de archivo que se busque. De modo que hay un ProRes “proxie”, utilizado para procesos de edición offline, ProRes LT y el ProRes422 HQ qué es el preferido para la duplicación de Masters, ó el de más alta calidad el ProRes4444 que conserva toda la información de color de la imagen y es el preferido para procesos de correción de color o efectos visuales, si no se quiere o se puede obtener la data “cruda” (RAW).

Nótese los números que forman parte del codec en el ProRes 422 ó el ProRes4444. Ese 422 ó 4444 apuntan a una de las características principales de los codecs disponibles en el mercado y tienen que ver con cómo el códec maneja la información de color de la imagen o lo que es conocido como el Submuestreo de crominancia (Chroma subsampling).

El Submuestreo de crominancia es la forma en que los codecs “comprimen” la información de color para ganar espacio en el archivo al desechar información de color en algunos  pixeles de la imagen y se denota en forma de relaciones. De modo que un Submuestreo de crominancia 4:4:4 denota que no ha sido desechada ninguna información de color en ninguno de los pixeles y por lo tanto la imagen es lo más fiel posible en su reproducción cromática. Eso es lo que hace el ProRes4444, por ejemplo, el preferido para procesos de corrección de color o manipulación de imagen, ya que utiliza un Submuestreo de crominancia 4:4:4 como el nombre lo sugiere.

Entretanto una relación de 4:2:2 indica que la mitad de los píxeles de la imagen pierde información y el 4:2:0, suprime información de color en  el 75% de los pixeles. De nuevo entonces el ProRes 422 sugiere la relación de 4:2:2 que es un compromiso aceptable entre fidelidad cromática (en general imperceptible para el ojo humano) y tamaöo de archivo para la transferencia y manipulación de datos. De igual forma codecs que sub-muestran la crominancia en relación 4:2:0 son prácticamente inservibles para la manipulación posterior del color, la elaboración de efectos visuales o la realización de chroma key, ya que la pérdida de información cromática haría extremadamente difícil la manipulación del color para obtener el efecto deseado

No entraremos en detalles técnicos de lo que la nomenclatura de las relaciones 4:4:4, 4:2:2 ó 4:2:0 implican ya que es matemáticamente complejo y escapa del alcance de este artículo, pero existe abundante información al respecto en la red y en manuales técnicos para el que se interese en profundizar.

Otra de las características fundamentales de un codec y determinantes en la calidad y tamaño final del archivo, es la profundidad de Bit o profundidad de color. Básicamente la cantidad de colores que están presentes en una imagen. De modo que un codec con una profundidad de 8-bits, contiene una cantidad de 16 millones de colores, 10-bits, un millardo de colores y 12 bits 68 millones de colores. Como se puede inferir, a mayor cantidad de bits, mayorl la cantidad de colores y por lo tanto la calidad de imagen. De igual forma entonces es conveniente utilizar la mayor cantidad de bits cuando se requiere una manipulación de imagen exhaustiva para efectos especiales, corrección de color y otros procesos, pero lo que también supone un tamaño considerable de archivo.

Una de las consecuencias más evidentes al utilizar imágenes de poca profundidad de color como las de 8-bits, es cuando la imagen contiene gradientes de colores, como por ejemplo el cielo de amanecer o atardecer y se observan pequeñas bandas pixeladas entre los distintos tonos de azul (conocido como banding). Al capturar la misma imagen con 10 bits de profundidad, el codec es capaz de reproducir los sutiles cambios de color en la gradiente y por lo tanto generar una imagen limpia de y de mayor calidad. La mayoría de las cámaras profesionales y semiprofesionales de hoy en día pueden capturar imágenes de por lo menos 10-bits, pero en la creación de efectos visuales y gráficos hay que prestar atención a estos parámetros para no cometer errores.

8 bits
10 bits

Finalmente, el codec comprime la imagen con una tasa de sampleo o “Bit Rate”, lo que indica cuánta información en determinado tiempo es capturada y se denomina en Megabits por segundo (Mbps ó Mb/s). Este parámetro es el indicativo más importante de la calidad de la imagen de un archivo. Evidentemente a mayor tasa de sampleo, mayor calidad de imagen, ya que el codec intenta comprimir mayor o menor cantidad de pixeles en un segundo. Por ejemplo un archivo de video de mayor resolución (por ejemplo 4K) tendrá exactamente el mismo tamaño que un archivo de menor resolución (HD) comprimido a la misma tasa de sampleo. El primero, al tener más pixeles que comprimir a a la misma tasa que el segundo  se verá completamente pixelado al reproducirlo a la resolución original.

Por lo tanto, este es el parámetro esencial a la hora de definir el pixelado o la calidad de imagen del archivo de video que se quiere. Para reducir un archivo de tamaño, basta con reducir la tasa de sampleo, tomando en cuenta que este irá perdiendo calidad en la imagen. 

De modo que así también podemos identificar codecs de mayor o menor calidad según su mismo nombre. Por ejemplo los codecs DNxHD175, DNxHD85 ó DNxHD35 nos dan pista de su calidad relativa a la tasa de sampleo. De modo que el 175 del primero, indica una tasa de sampleo de 175 Megabits por segundo y por lo tanto tendrá una mejor calidad que el DNxHD35 que tan sólo comprime a 35 Mbps y es mejor utilizado durante la edición “offline” para conservar espacio en el disco

A través de la tasa de sampleo se puede calcular fácilmente cuánto espacio en disco duro o tarjeta de memoria necesitaremos disponible para guardar determinado tiempo de material capturado. Así, si estoy capturando con un codec a una velocidad 100 Mbps y sabemos que un Byte contiene 8 bits (bits siempre se denomina con b y Bytes con B), entonces 100 Mbps son (100/ 8) 12,5 MB (Megabytes) multiplicado por 60 segundos, son 750 MB. Osea que una hora de material me opcupa (750 x 60) 45.000 MB o lo que es lo mismo 45GB (Gigabytes).

Como hemos visto, existen varios parámetros a tomar en cuenta a lahora de escoger un codec para la captura de imágenes, la transcodificación y creación de proxies para la edición, la manipulación de imágenes para la creación de efectos visuales o correción de color y para la realización del Master final

Como ejemplo general, en los flujos de trabajo que yo manejo personalmente a diario (para largometrajes y series documentales), utilizamos el codec XAVC-I para la captura en cámara (Sony FS7), luego transcodificamos a DnxHD36 para la edición offline en Avid, H264 para la creación de screeners o copias de trabajo y finalizamos el Master a DNxHD185X o creamos “deliverables” para diversos canales de televisión que aceptan Masters en ProRes422HQ, AVC-Intra 100 (MPEG-4) ó DNxHD185X. Cuando el espacio en disco duro es suficiente y hay limitaciones de tiempo, podemos decidir transcodificar el material original XAVC-I directamente en DNxHD185X y editar directamente en una calidad «online» manteniendo este codec durante todo el proceso hasta la creación del master en el mismo codec.

Una última consideración importante es que el codec no debe ser confundido con su contenedor (container). Este es como el empaque en el cual el codec es presentado, por lo que podemos tener un codec H264 presentado en un contenedor .mp4 ó .mov. Podemos tener un contenedor .mxf que puede contener ó un codec DNxHD ó XAVC por ejemplo. 

Flujos de trabajo en la «nube» durante la edición de la serie Chernobyl

El editor Simon Smith, explica en un artículo de RedShark News, algunos de los procesos durante la edición de la serie de HBO.

Una de las cosas que me llamó la atención es el uso de la tecnología de «nube» para optimizar el flujo de trabajo que involucraba varios países y zonas horarias, además de aprovechar la tecnología para intentar llegar a aquello que llaman el equilibrio entre trabajo y familia, al establecer una rutina diaria que involucra pasar mayor tiempo con sus hijos, mientras dedica las horas necesarias para realizar el trabajo.

El flujo de trabajo comienza entonces desde el momento en que un equipo en locación en Lituania, transcodifica el material grabado a proxies DNxHD 36 para la inyección en el AVID. Este material, producto de tres cámaras simultáneas, es enviado vía Internet a la bahía de edición de Smith en su casa de Londres, desde donde descarga el material gracias a una conexión de fibra de unos 90Mbits/segundo.

Su rutina comeinza entonces iniciando la descarga, llevando a sus hijos al colegio para regresar a su casa ya con el material descargado y listo para ser inyectado en el AVID. Entonces se dedica a visualizar por completo el material rodado del día anterior, por lo general un par de horas con tres cámaras, en su teatro casero de 100 pulgadas.

El trabajar desde casa y a su propio ritmo, le permitía de igual forma involucarse en las tareas caseras de bañar a sus hijos, llevarlos a la cama, mientras se dejaban en claro que a la hora de trabajar, ese tiempo debía ser respetado.

La tecnología que pemiitía esta felxibilidad en cuanto al lugar de trabajo se llama Everest y no solo permitía que Smith trabajara desde casa, sino que también hacía posible que todos los involucrados en el proyecto pudieran participar desde sus localizaciones respectivas como el director en Nueba York, productores en Los Angeles, co-productores en Londres, la compositora en Berlín o el equipo en Lituania, en sesiones de edición como si estuvieran todos al mismo tiempo reunidos en la sala de edición de Smith.

A través de Everest, el editor podía compartir su monitor por medio de un browser Chrome y todos podían ver el Timeline del Avid, reproducir la edición, escuchar el audio y con la cámara WEB verse las caras de modo de compartir notas, comentarios y direcciones.

Evercast

Este tipo de tecnologías, son las que se están haciendo más habituales en el mundo moderno de colaboraciones sin fronteras, lo que permite la optimización de procesos en diversas etapas de la creación audiovisual y son las que junto a otras soluciones como frame i.o., teradici o las soluciones de Avid y Adobe, irán dictando los flujos de trabajo moderno y decentralizados.

Aquí el artículo original (en inglés) de RedShark News