Covid-19 y Edición Remota

Como todos en el mundo entero, el Coronoa Virus nos ha afectado en todas las ramas de nuestra vida profesional y personal. Una de las cosas que ha impulsado es el teletrabajo, cosa que las compañías en todo el mundo están implementando para proteger a sus trabajadores e impedir la propagación del virus.

Para algunas industrias administrativas, me puedo imaginar que el teletrabajo no presenta mayor problema y los requerimientos técnicos son mínimos en esta era donde todo el mundo tiene por lo menos un teléfono inteligente, si no una laptop con la cual trabajar en casa.

Pero la industria cinematográfica presenta unos desafíos mayores ya que maneja inemsa cantidad de datos y requiere hardware y software especializado que no necesariamente tiene todo el mundo en casa.

En el caso específico de la compañía en la cual trabajo, hemos estado diseñando un plan de contingencia para el teletrabajo y así poder mandar a nuestro equipo de editores a casa y aun honrar los deadlines que tenemos para los distintos proyectos en postproducción.

Esto es algo nuevo para todos y aunque la tecnología ha avanzado a niveles impensables, todavía es un reto encontrar un Workflow que funcione y que entre en un presupuesto manejable. Específicamente un proyecto que se encuentra en postproduccion para una plataforma de streaming, que tiene unos deadlines estrictos, presenta un desafío particular y es en base a ese proyecto que hemos establecido las siguientes opciones para editar remotamente, sincronizar los equipos y colaborar cada quien desde casa.

En principio son 3 niveles de sofistiación y presupuesto que hemos divisado y son los siguientes:

  1. Edición remota completamente en la nube
  2. Híbrido de edición remota en la nube y local
  3. Edicón remota complemtamente local

La primera opción es la más sofisticada, cara y difícil de implementar pero la más efectiva, conveniente y segura. Es también lo que pienso es el futuro de la postproducción colaborativa sin limimtaciones geográficas. Sin embargo la tecnología en su estado actual y los costos, son algo prohibitivos para producciones independientes. Sin embargo consiste en lo siguiente:

Edición remota utilizando máquinas virtuales y amacenamiento de datos directamente en la nube.

Significa que cualquier editor en cualquier parte del mundo puede tener acceso a una Estación de Trabajo potente en una máquina virtual, utilizando el hardware disponible para cada quien que puede ir de una simple laptop o cualquier tipo de ordenador que no necesariamente tiene que ser un ordenaror configurado para editar. En principio cualquiera con una laptop y acceso a Internet puede conectarse a través de un navegador a una máquina virtual, la cual está configurada con el hardware y software necesario para editar. Las opciones incluyen el software de Adobe, Avid, Resolve o cuaquier cosa que pueda instalarse en Windows (por los momentos estas máquinas son solo posibles en un ambiente de Windows). Esto funciona a través de lo que se llama PC over IP y son comañías como Teradici las que hacen posible la optimización de la conexión entre tú laptop (cliente) y la máquina virtual.

Adicionalmente, necesitas el dispositivo de almacenamiento virtual en donde estarán todos tus archivos de audio y video que necesitas para editar. Como la máquina virtual está conectada a este hardware, el desempeño es ideal para manejar cualquier proeycto de edición. Tu laptop o computador local solo funciona como un controlador virtual y por lo tanto no requiere de mayor capcidad de procesamiento. Pudiera compararse como un teclado MIDI sencillo que está conectado a un sistema de procesdores virtuales en las que puedes recrear una orquesta entera.

Todo tu material de video tendría que ser subido a esa nube que utlizará la máquina virtual. Esa nube puede ser un servicio como AWS de Amazon, Microsoft Azure o Google Cloud services. Estas soluciones tienen la velocidad y capacidad suficientes para manejar ese flujo de datos que necesitas para la edición de video. Dependiento de tú ubicación geográfica la latencia será menor o mayor (el tiempo que tarda el sistema en reaccionar al presionar una tecla), pero según las soluciones que existen, esta latencia es tan mínima que es prácticamente inperceptible si existe un Data Center cercano a tu ubicación física. Todas estas compañías mencionadas tienen Data Centers en todo el mundo por lo que es muy probable que exista uno a corta distnacia de tu ubicación por lo que la latencia será mínima.

Por supuesto esta solución requiere del alquilar en la nube del almacenamiento mencionaro que dependiendo de la cantidad de material que requieras, puede ir de unos cientos a unos cuantos miles de dólares AL MES. La conexión a la máquina virtual a través de Teradici costaría unos cuantos cientos al mes adicionalmente, además de las licencias de los programas que requieres.

Algunas comañías que tienen soluciones completas para esto son BeBop technologies y la misma AVID. Con Avid, si tienes el Hardware Nexis, puedes complementarlo con almacenimeinto en la nube por un costo de unos $5.000 al año extra por unos 10 TB. Adicionlamente necesitarías el Media Composer Cloud Remote. Esta solución está en su infancia y por lo tanto puede que no esté disponible en tu ubicación.

Por ejemplo BeBop no puede vender licencias de AVID Cloud Remote fuera de los Estados Unidos, pero si tu Workflow es basado en Premiere, ellos pueden ayudar.

La segunda opción de nuestra lista, la opción híbrida, presupone que cada editor tenga su propia estación de trabajo en casa. Adicionalmente cada uno obtendría un NAS como el Synology DS1618+ en el cual se sincornizarían todos los archivos simultánemanete, además de funcionar como RAID para editar. Es importante que el Synology tenga disco duros de una velocidad de 7200 RPM para que sean lo suficientemente rápido para la edición.

El Flujo de Trabajo funcionaría de la siguiente manera:

  • Cada editor tiene su propia estación de trabajo o recibiría de nosotros una laptop potente para editar en préstamo.
  • Cada editor recibe un Synology con el material actual.
  • El manager de postprouducción como la central, en este caso mi trabajo, también con una estación de trabajo local recibde igual forma un Synology con el material.
  • Los Synologys se pueden configurar para crear carpetas que pueden sen sincronizadas entre Synologys, por lo que si la central produce nuevos proxies o archivos en su Synology local, se sincroniza automáticamente en los Synologys remotos de los otros editores. La velocidad de esta sincronizacoón por supuesto dependerá de la velocidad de conexión de cada uno de los involucrados.
  • Los editores trabajan localmente con sus estaciones de trabajo y sus Synologys locales y producen nuevos Bins que son entonces también guradados en alguna de las carpetas compartidas, con lo cual todos los mimebros del equipo pueden tener el proyecto actualizado en todo momento.

En nuestro caso concreto es más que todo material de archivo que llega constantemente y tiene que ser procesado para los editores. El material de archivo llega a través de un servidor centralizado de la compañía, que también es un Synology, lo bajo yo en mi servidor, lo convierto y creo proxies en Resolve para el Avid, lo inyecto en nuevos bins en el avid y estos proxies, más los nuevos bins son guardados en la carpeta compartida del Synology, por lo que una vez sincronizados por internet, están inmediatamente diposnibles para que ellos copien los nuevos Bins en su proyecto local y puedan seguir editando. Ellos crean nuevos Bins de sus versiones de edición, los guardan a diario en la carpeta compartida y cada uno de nosotros los copia en el proyecto local. De este modo teneoms todos los involucrado el mismo proyecto con la misma Data en todo momento.

La tercera opción de la lista es la opción más rudimentaria y menos óptima. Consiste simplemente en copiar todo el material en RAIDS como los Lacies Big y cada quien edita local en sus máquinas. Nuevo material tendría que ser enviado a través de correo en pequeños disco duros y cada miembro del equipo copiaría en su RAID local el material nuevo. No habría sincronización simultanea y probabelmente las versiones de los proyectos sean distintias. Se pudieran usar servicios de transferencia como WeTransfer, google drive o dropbox para enviar archivos pequeños como los Bins o comprar Teras de almacenimiento para enviar los proxies.

Cada uno de las 3 opciones mencionada tiene sus pros y contras. Una de las principales consideraciones con las opciones 2 y 3 es que los niveles de seguridad tienen que ser aceptados y aprovados por el estudio para el cual estamos produciendo. En la opción 3 la utilizacion de Dropbox o WeTransfer no sería acepatada porque los protocolos de seguridad no son aprobados por ellos. En la opción 2, los Synologys tienen una configuración de seguridad que los harían aceptable para el estudio. Por supuesto la opción 1 es la más segura ya que los protocolos de seguridad están incluidos en todo el sistema.

Luego de evaluar todas estas opciones para nuestro caso particular, nos hemos decidido por una variación de la opción 3, sencillamente porque hay elementos que fueron ofrecidos directamente por el estudio para el cual producimos. Y es que este estudio (servicio de streaming) tiene un sistema propio de nube para intercambiar archivos pesados de data utilizando el sistema Aspera que permite la transmisión de datos a alta velocidad por medio de una conexión normal de internet.

El Aspera de IBM utiliza el ancho de banda de la conexión local, optimiza las zonas de la conexión no utilizadas para crear una conexión paralela de alta velocidad que permite el envío de datos rápida y efectivamente. Esto es un plugin que se instala en el Browser y que el servicio de nube utiliza como software añadido para subir y bajar datos. Hoy en día casi todos los canales de televisión para los que trabajamos utilizan este sistema para la entrega de Masters.

De modo que nuestro Workflow final para la edición remota se ve de esta manera:

  • Cada editor recibe un RAID (Lacie Big de 32TB – 24 TB netos en RAID 5) con los proxies de edición ya disponibles. Adicionalmente un RAID para la central (yo).
  • Cada editor y la central reciben laptops con una licencia de AVID o utilizan su propio sistema disponilbe en casa.
  • Cada miembro del equipo recibe acceso a la nube del estudio. En esta nube se crean carpetas para proxies, bins y material de archchivo.
  • Los encargados del archivo suben los materiales a la nube. La central los baja y procesa los proxies en Resolve y los Bins en Avid.
  • Los proxies producidos y los bins son subidos a la nube del estudio a través de Aspera en una estructura definida y acordada por todos.
  • Los editores bajan a través de Aspera este material y lo inyectan en sus sistemas respectivos. Los proxies en la carpeta de Avid MediaFiles tal y como fueron subidos a la nube y los Bins en el proyecto local respectivo. De esta modo la estructura de Avid MediaFIles es idéntica en las 3 estaciones.
  • Al final del día los editores suben a la nube del estudio los bins de edición trabajados y tanto la central como los otros editores pueden bajarlos e integrarlos a su proyecto local.
  • La central produce los playouts necesarios de los bins producidos y sube los clips a la plataforma de revisión del estudio, una especie de Frame i.o. y es compartida con los productores y directores para revisión y notas.

Este Flujo de Trabajo es automáticamente aprobado por el estudio y sus protocolos de seguridad porque son sus propias plataformas. Adicionalmente utilizamos el servicio de Aspera que permite la rápida transmisión de datos y todos podemos estar sincronizados desde su propia casa. Este sistema es el que iremos poniendo en marcha en los próximos días a media que la compañía se prepara para la cuarentena y el teletrabajo, minetras cumple con sus deadlines. Ya iré reportando cómo funciona.

Finalmente, como parte del Flujo de Trabajo de la edición remota e independiente de cualquiera de los sistemas listados aquí, necesitamos una forma de que los directores y productores puedan interactuar en tiempo real con los editores para acompañar la sesión y dirigir y dar notas durante el proceso. Para lograr esto también existen varias opciones de distintos grados de sguridad, presupuestos y optimización. Aquí mencionaré algunos, incluyendo la que nosotros probaremos.

En primer lugar existe la opción aprobada por el estudio con el cual trahajamos y por lo tanto la que probaremos nosotros. Se llama Evercast y funciona como una especie de cuarto virtual de teleconferencia, e donde pueden interactuar hasta 8 usuarios simultáneamente mientdas el editor comparte su timeline y su monitor de video con los participantes, de modo que los productores y directores pueden interactuar en tiempo real en la sesión de edición. Es una solución que permite la transmisión de audio y video en sincronización y sin latencia aparente, además de encriptar la transmisión por lo que la hace lo suficientemente segura para el estudio para el cual producimos y por lo tanto aprobada por ellos. Aquí he hablado de este sistema antes y hay un pequeño video de Demo.

Por otro lado existen otras opciones como Zoom o la misma Google Hangouts. Zoom permite la transmisión de audio y video sincronizado, además de poder compartir la pantalla del editor, lo cual la hace una buena opción. De hecho otra producción de la compañía para la que trabajo está usando esta herramienta en la cual el productor en Alemania acompaña la sesión de edición en Hong Kong. A raíz de la cirsis del Coronavirus, Zoom abrió de forma gratuita su plataforma para los habitantes de china, por lo que la hace ideal para esta producción. Sin embargo para el estudio de la otra producción en cuestión en este artículo, los protocolos de seguridad puede que no sean los necesarios para ser aprobados por ellos. Sin embargo es algo que pudiera evaluarse.

Recientemente encontré un artículo que hace uso de algunos elementos de Black Magic Design como el Web Presenter, también utilizando Zoom para crear una solución casera para compartir en tiempo real la sesión de edición. Instrucciones paso a paso pueden encontrarla en el artículo original aquí.

Finalmente se pueden usar otras plataformas de revisión que incluso permiten la inteegración directa con algunos NLEs como Frame i.o., PIX o simplemente Vimeo o Wistia. Cada alguna de ellas ofrecen distintos puntos de precio, funcionalidades y niveles de seguridad. Dropbox y Google Drive también tienen players de video integrados que permiten la revisión de clips entre usuarios remotes.

Frame i.o.

Si utilizaas el Synology como servidor principal, también puedes compartir archivos de video en un player integrado que puede ser compartido con usuarios de todo el mundo.

En definitva, esta crisis globalizada en el mundo moderno ha obligado a pensar en formas de trabajo no-convencionales, pero sobretodo ha probado que es posible y que en el futuro cada vez más la colaboración global podrá ser accesible sin mayores problemas para todo el mundo.

En este artículo de Frame i.o. se puede inclusive ver lo que el futuro cercano va a ofrecer: Cámaras que graban directamente en la nube, producen proxies y hacen el material accesible para cualquier editor, diseñador de efectos o colorista prácticamente inmediatemente y simultáneamente en cualquier parte del mundo.

Si alguno está desarrollando algún Flujo de Trabajo de Edición remota o en la nube, comenta!

+++

(algunos Links pueden ser afiliados)

¿Qué es un Proxy?

En el mundo del internet, un Proxy es una especie de intermediario entre un computador y un servidor o el resto de la Web. De este modo se puede entender un Proxy en el mundo de la edición audiovisual como un archivo intermedio derivado del material original grabado en cámara para la edición de dicho material.

En otras palabras, el archivo Proxy es una versión del material original en un códec más manejable para los computadores en los cuales se va a llevar a cabo la edición. Ya que dichos computadore no suelen ser tan poderoros como aquellos utilizados para procesos más complejos como la correción de color, efectos visuales o masterización final y además necesitan manejar una mucho mayor cantidad de material que esos procesos, entonces normalmente se generan proxies para realizar lo que se llama la edidción offline.

La edidicón offilne no es otra cosa que el ensamblaje y montaje de las imágenes, utilizando proxies de menor calidad, menor tamaño y con menor bitrate que el material bruto original. Posteriormente, esta edición offline es “conformada” con el material original para los procesos finales de corrección de color o la realización de efectos visuales.

Un Proxy entonces tiene la particularidad de tener un menor bitrate, lo que produce que tome menos espacio en disco duro y es más fácil de decodificar, pero con una pérdida de cálidad que sin embargo durante el proceso de edición no es tan crítica. Hay proxies de diversos tipos que funcionan en mejor o mayor grado dependiendo del sistema que se quiera utlizar para la edidción, el programa como tal y la cantidad de material que se maneje en el proyecto.

Si se tiene un computador realtivamente poderoso y el espacio en disco duro no es problema o si la cantidad de material no es mucha, se puede elegur un Proxy con una resolución y bitrate mayor durante el proceso de edidicón, produciendo mejor calidad de imágen durante el proceso offline. Pero si el presupuesto o las herramientas limitan la capacidad de manejo de un códec con mayor bitrate y resolución, entonces el Proxy irá decayendo en calidad, disminyendo su bitrate y/o resolución.

Como anécdota práctica de un proyecto real de una serie documental en la que estamos trabajando actualmente, utlizamos diversos códecs y resoluciones para nuestros proxies. En el proyeto mencionado hay centenares de horas de material de archivo de épocas en el que la alta definición todavía no existía, proveniente de fuentes como Digi Betas, VHS y digitalizados a veces de forma precaria. O simplemente se nos pone a la disposición screeners de baja calidad que posteriormente serán conformados con las fuentes originales. El proyecto también inlcuye material original grabado en 4K ó 5K por supuesto en mucho menor cantidad que el material de archivo. De modo que para importar las decenas de hora de material de archivo de baja calidad utlizamos un códec en una resolucón igual al formato original, normalmente 720 x 576 (SD) con un códec que comprime la imagen e aproximadamente una relacion de 26 a 1. Esto nos permite ahorar una enorme cantida de espacio en disco duro, aunque sacrificamos la calidad de imagen, que de todas maneras es bastante precaria en el material original. Mientras que el material original de 4K ó 5K es importado en DnXHD 36 para el proceso offline.

Hoy en día los proxies más comunes durante el proceso de edición offline son los que prouducen los códecs DNxHD, producido por AVID y el ProRes, producido por Apple. En el pasado, se podía entender entonces que los editores utlizando Final Cut Pro de Apple, como programa de montaje, eligieran el ProRes como Proxy de trabajo, mientras los editores utlizando AVID, eligieran el DNxHD. Hoy en día ambos códecs corren casi inperceptiblemente bien y rápdido en ambos sistemas y la elección de uno u otro códec puede que dependa más bien del sistema operativo en el que se esté trabjando. Ya que el ProRes es producido por Apple, los editores trabajando en Windows, aunque hoy en día puedan reproducir el ProRes en el programa, se les hará difícil o caro (comprando una licencia o plugin de Apple) hacer renders en este códec. Por lo tanto los usuarios de Windows prefieren utilizar el DNxHD, que es interoperativo y funciona perfectamente en ambas plataformas. De igual forma, ambos códces corren perfectamente bien en otros programas como el Premiere de Adove o Davinci Resolve.

Los códecs DNxHD y ProRes, cómo hemos visto un artículo previo, tienen distintos “sabores” que permiten jugar con parámetros para encontrar el Proxy más adecuado según el sistema que se tenga. Es así como ProRes de hecho tiene específicamente una version que se llama justamente ProRes Proxy, mientras que los usuarios que trabajen con el DNxHD, normalmente elijen el DNxHD36 que es lo sufucientemente “ligero” para cualquier sistema de edidición, con una calidad aceptable para todo el proceso offline.

Hoy en día, casi todos los programas de edición tienen una forma relativamente sencilla de intercambiar el material Proxy por el material de alta calidad original para hacer revisiones, renders de alta calidad o “conformar” la edición final para los proceso posteriores aunque el nivel de sencillez de este intercambio y los dolores de cabeza que pueden producir varia de programa a programa. Premiere, por ejemplo ha desarrollado este flujo de trabajo hasta un punto en que tan solo basta un click para cambiar entre Proxy y material original, si se llevan a cabo los pasos necesarios de creación y vinculado del material desde un principio. Resolve es otra herramienta que permite de forma sencilla la creación de proxies durante la edición para aliviar la carga durante la edición. Avid es un poco más complicado en este sentido, pero con unos cuantos clicks extras y si se ha sido organizado y consecuente durante la creación de proxies manteniendo la metadata original, puede también lograrse.

Sin embargo las producciones más complicadas y de mayor presupuesto, utilizarían herramientas extras para la vinculación de los proxies de edición al material bruto original. Resolve es una herramienta muy popular para el “conforming” del material offline proveniente de diversos sistemas de edición, para generar la secuencia final “online” que no es otra cosa que la secuencia de edición con todo el material bruto de cámara original que entrará entonces a los procesos prosteriores de etalonaje y finalización.

En próximos artículos veremos específicamente cómo podemos crear Proxies utlizando Resolve para la edición offline en Avid, manteniendo la metadata necesaria para poder conformar la ediciñon offline proveniente de Avid de nuevo en Resolve para el etalonaje final, un flujo de trabajo común en las producciones de largometrajes de ficción y documentales.

Previsualización y Realidad Virtual (VR) – Herramientas de Postproducción en la Preproducción

La previsualización, o previs, como es conocida en la industria, es una poderosa herramienta de preproducción que como su nombre lo indica permite previsualizar planos o escenas completas de forma que la visión del director pueda ser comunicada visualmente a todos los departamentos y hacer mucho más fácil y precisa la planificación y la elaboración del presupuesto de producción.

La previsualización puede ser tan sencilla como un pequeño Storyboard con figuras hechas de simples líneas. Los Storyboards pueden variar en dificultad y detalle y pueden incluso contartarse dibujantes y artistas de stroyboard que pueden prácticamente dibujar la película entera en base a un guión creando verdadras novelas gráficas como las conocemos de los cómics. Uno de los grandes exponentes e impulsadores del uso del Storyboard fue Alfred Hithcock quien solía planear al detalle sus películas a través de Storyboards elaborados que o él mismo dibujaba o les encargaba a ilustradores profesionales. Sus storyboards eran tan detallados y precisos, que en el set raramente tenía que mirar por el visor de la cámara cuando ponía en escena una toma, ya que daba por sentado que todos los departamentos harían realidad lo que había comunicado visulamte y él ya sabía exactamente como esa toma debía verse.

A pesar de que los Storyboards son una gran herramienta de previsualización y es una de las formas más sencilla y económicas de planear una toma, existen un par de limitaciones cuando se trata de escenas con efectos elaborados, stunts o coreografías intrincadas, en las cuales el ritmo y la coordinación entre actores y equipo técnico es fundamental. Con la llegada de la tecnología digital y el abaratamiento de los computadores, empezaron, sobretodo en Hollywood a crearse herramientas de previsualización más elaboradas que permitían tomar todos los elementos arriba mencionados. Es entonces como a través de un software pueden crearse y animarse escenas completas que pueden “traducir” información como el tipo de lente que se debe o se quiere usar en la toma, la iluminación necesaria, el “blocking” de actores con respecto a los equipos, las dimensiones necesarias de un set específico o simular los efectos especiales y stunts de una escena de acción. Más aun, como la escena es creada virtualmente y animada con indicaciones precisas, pueden editarse una con otra para crear prácticamente secuencias completas e incluso la película entera, donde el ritmo de las tomas y sus requerimientos técnicos son analizados al detalle permitiendo su planificación y presupuesto de forma eficaz.

Por supuesto, este tipo de previsualización puede llegar a ser muy costosa y requiere de personal calificado que probablemente sea prohibitivo para muchas producciones que no cuenten con el presupuesto de preproducción para ello. Sin embargo en los últimos tiempos han salido herramientas realmente poderosas e incluso muchas de ellas bastante accesibles como por ejemplo Cinetracer, que permiten en ciertos casos y con un esfuerzo técnico aceptable una satisfoctoria previsualización .

Cinetracer

Cinetracer, por ejemplo es una herramienta creada con un motor de videojuego “game engine” llamado Unreal, gratuito por cierto, con el cual se crean video juegos populares como los que conocemos de las diversas consolas. Es por esto que el nivel de interacción y virtualización de escenas, lo hace ideal para la previsualización cinematográfica.

Con el advenimiento y popularización de las tecnologías de Realidad Virtual (VR), era entonces natural que estas poderosas herramientas pronto fueran adaptadas a las técnicas de previsualización. Qué mejor forma que visitar una locación remota por ejemplo que a través de un video del lugar en 360º donde se pueda analizar si el área es apta para la escena que se tiene planeada. O mejor aun, usando los sensores y capacidades de tracking de las gafas de VR, poder “pasear” por la escena interactuando con elementos virtuales como utilería u otras superficies físicas. Pero yendo más allá, qué tal si en base a nuestro guión pudiésemos construir nuestros sets en realidad virtual, con las dimensiones del set real a utlizarse o construirse y además diseñar todos los elementos a usar en la toma, como las luces, el tipo de cámara con los lentes específicos, la utilería por supeusto, el decorado, prácticamente todo lo que necesitamos para el rodaje e insertar al camarógrafo o director de fotografía en ese set virtual para que con una cámara virtual capture exactamente la escena como el director la visualiza, reproducirla, hacer ajustes, experimentar, etc y tener después esa escena virtual capturada com un clip de video tradiconal que puede ser editado, musicalizado si se quiere, etc. y así previsualizar la película entera si se desea sin rodar un solo segundo de “película” (o archivo digital) que puede costar millones de dólares.

Para la realización de efectos especiales y efectos visuales es una herramienta invaluable ya que pueden probarse elementos, técnicas y herramientas en el mundo virtual, antes de tomar decisiones que puedan comprometer el presupuesto o la viabilidad de una producción. Con la llegada de las cámaras 360º, los motores de videojuegos como Unreal o Unity esto es hoy en día la herramienta de previsualización más avanzada que existe. Una de estas herramientas es DeepSpace creada por la compañía de efectos visuales Planet X con base en Amsterdam y al ver el video de presentación se hace evidente lo poderosa que es la herramienta a la hora de previsualizar y planificar escenas complejas y efectos especiales o visuales. La herramienta permite que el camarógrafo manipule físicamente una cámara virtual que tiene integrada un sensor que permite “capturar” la escena virtual que es creada previamente por el equipo de programadores con las indicaciones del director en cuanto al set real a usarse y este puede “caminar” con la cámara por el espacio virtual, viendo en el “viewfinder” virtual lo que vería la cámara real, modelada según las características de las cámara reales disponibles en el mercado, como las Arri o Red, así como los lentes a utilizar. Por supuesto todo tiene su precio y sería improbable permitirse el presupuesto para previsualizar toda una película de este modo. Pero sin lugar a dudas la previsualización en Realidad Virtual puede asimismo ahorrar mucho dinero, dolores de cabeza e incluso implementar medidas de seguridad, que anteriormente hubiesen sido prácticamente imposible de preveer.

DeepSpace © Planet X

Con el acceso a software gratuito como Unity o Unreal, cámaras económicas de 360º e incluso modelos 3D gratuitos disponibles en la red, con algo de conocimiento técnico o con algún amigo “nerd” capaz de ayudarte, la previsualización en realidad virtual usando gafas comerciales como el Oculus, HTC o incluso el teléfono móvil, es algo que realmente está al alcance de todo realizador hoy en día sin importar su presupuesto.

Desmitificando los efectos visuales (VFX) de cine

Los efectos visuales (Visual Effects) es una de las cosas más misteriosas y fascinantes de la creación cinematográfica. Pero ¿qué significa realmente la creación de VFX? ¿cómo se aplican? ¿cuánto cuestan? y ¿son realmente necesarios?. Estas son algunas de las preguntas que un taller al cual asistí recientemente en Hamburgo intenta responder.

Lo primero que hay que aclarar es la diferencia entre efectos visuales y los efectos especiales. En pocas palabras, los efectos especiales son todo el tipo de efectos que se realizan en cámara, durante el rodaje, mientras que los efectos visuales son aquellos que se crean en las postproducción, hoy en día casi exclusivamente en computadora. De modo que por ejemplo la simulación de lluvia con mangueras y otros dispositivos que arrojan al agua en el set para dar la sensación de lluvia directamente frente a la cámara, es un efecto especial. Mientras que si esa misma lluvia es generada por computadora a través de partículas animadas por ejemplo, después de haber rodado la escena en el set “seco” estaríamos hablando de efectos visuales.

Los efectos visuales así mismo pueden catergorizarse en dos tispos: 2D y 3D y dentro de estos dos tipos hay una variedad de rubros que conforman toda la paleta de efectos visuales que incluyen entre otros:

  • La rotoscopia
  • El Matte painting (en 2D y 3D)
  • El chroma key (pantalla verde y pantalla azul)
  • El modelado 3D y subsecuentes procesos como rigging, texturización, composición, etc.
  • La animacón (2D y 3D)

Entre otros.

Hablemos de algunos de estos efectos especiales que comunmente vemos en las películas más taquilleras de Hollywood, pero incluso en algunas en las que los efectos son mucho menos obvios.

En las grandes películas de acción com opor ejemplo “Transformers” la acción real es complementada con elementos creados por computador que interactúan con los actores y el ambiente. Entonces tenemos robots creados con técnicas de modelado y animación 3D que son “insertados” o compuestos dentro de una escena real filmada en cámara con los actores en ella.

VFX en Transformers

En el video anterior se puede apreciar el desglose de los efectos en el que vemos que varias técnicas son utilizadas para crear la escena final. A menudo la utización de pantallas de croma (Chroma Screens o Chroma Keys) verdes o azules son utlizadas para poder insertar transparencias en la escena de modo de llenar esas transparencias con otros elementos generados posterirmente en la postproducción.

Supongo que muchos están familiarizados con estos procesos de creación de efectos y siemrpe se fascinan al ver estos “making of” donde se puede echar un vistazo al proceso de creación de estas imágenes cargadas de elementos visuales creados por computador

Pero sin embargo a veces existen películas en las que las mismas técnicas son utlizadas pero sin resultados tan obvios pero sin embargo fundamentales para establecer la narrativa de la escena. Un ejemplo es la película “Carnage” (Un Dios Salvaje) de Roman Polanski, en la que se utlizaron pantallas de croma, matte paintings y extensiones de set para recrear la ciudad de Nueva York en la que se desarrolla la trama, pero a la cual el director jamás hubiese podido viajar para rodar debido a su situación legal.

VFX en Carnage

No solo la escena que vemos arriba es completamente ambientada en la ciudad de Nueva York a través de las pantallas azules rodándola en prácticamente cualquier parque del mundo (Francia en este caso). Sino que la cinta que transcurre prácticamente todo el tiempo dentro de un departamento, usa las mismas técnicas reemplazando las vistas de las ventanas por paisajes neoyorquinos para darle sentido a la trama.

Estos dos ejemplos tan opuestos, es simplemente para ilustrar que los efectos visuales son una herramienta narrativa de gran poder sin importar el universo diegético en el que son implementadas. Sin embargo, como todo en la realización cinematográfica, su calidad, efectividad y vialbilidad van a depender del presupuesto y herramientas al alcance de la producción.

Una de las primeras cosas que un supervisor de efectos visuales hará al analizar un guión cinematográfico, es tratar de convencer a sus productores de realizar la menor cantidad de efectos visuales posibles. Suena paradógico, ya que es precisamente trabajo que a simple vista pareciera que estaría rechazando, pero tiene una razón básica. En principio, cualquier cosa que pueda ser recreada en escena, en el set, siempre tiene el potencial de ser más realista y de mayor efectividad que un efecto creado por computador que además será varios ceros más caro y llevará mayor tiempo y recursos en completar. De modo que el trabajo inicial del VFX Supervisor es identificar las escenas que pueden resolverse con efectos especiales, remitiendo al productor a un diseñador de producción, director de arte o supervisor de efecto especiales, para intentar evaluar las posibilidades de recrear dichos efectos durante el rodaje mismo. Luego, aquellos elementos que sean imposibles de recrear durante el rodaje, ya sea por limitaciones espaciales, por seguridad o simplemente porque no existen en la vida real, pueden ser desglosados y analizados y en donde sea posible, mezclados con efectos especiales frente a la cámara.

De modo que por ejemplo una calle que tiene la limitiación de tener un muro al final de ella, pero que en el guión se presenta como una calle larga de varias cuadras, puede ser filmada con una pantalla cormática y elementos creados por computadora pueden extender la calle real para hacerla ver como si tuviera realmente varias cuadras de extensión. Algo parecido a la escena de Carnage arriba en la que el horizonte de un sencillo parque es reemplazado por el skyline de Nueva York.

Otro ejemplo pudiera ser el de un burro que habla con los humanos. En películas con grandes presupuestos como la nueva versión de “El Libro de la Selva”, animales enteros son creados con realidad fotográfica en computador y se insertan en platós reales interactuando con humanos o con otros elementos reales de la escena:

VFX en el Libro de la Selva

Mientras que en nuestro ejemplo del burro, un animal real entrenado podría utlizarse en escena interactuando con los actores, mientras tan solo el hocico es recreado en postproducción para producir el efecto de que está hablando y luego compuesto sobre la cabeza real del burro. De este modo se estaría ahorrando una enorme cantidad de tiempo y dinero en la creación del burro completo en 3D.

Otro dato interesante es que por lo general un supervisor de efectos visuales (VFX Supervisor) puede estimar el costo de los efectos necesarios de una produccón considerando el presupuesto y el grado de dificultad y elaboración de los efectos de necesarios utilizando una sencilla fórmula en la que dependiendo del presupuesto global de la película y el grado de dificultad se establece una tabla comoa la siguiente:

Grado de dificultad de efectos baja: 5% del presupuesto global de la película

Grade de dificultad medio: 10% del presupuesto

Grado de dificultado alto: 15% del presupuesto.

Así una película de ciencia ficción en la que se presupone una enorme cantidad de efectos visuales, con un presoupeusto de 10 millones de dólares, dichos efectos podrían costar al rededor de un millón y medio de dólares (15% del presupuesto). Mientras que un drama con efectos sencillos con un presupuesto de 1 millón, podría arrojar un gasto de unos 50 mil dólares en efectos visuales (5%). Esto es por spuesto una simple fórmula para tenerla como referencia de partida y todo presupuesto sería ajustado y exactamente calculado una vez se haga el dessglose definitivo y el análisis de los efectos requeridos. Pero para los mortales cineastas independientes es una buena referencia.

En conlusión, al pensar en hacer películas con efectos visuales, la recomendación es siempre pensar en alternativas que resuelvan el efecto en cámara (efecto especial) antes de convertirlo en un efecto visual (en postproduccón) y tratar de llegar al compromiso máximo entre lo que se graba en escena y se compone luego digitalmente. Los efecots visuales son caros y requieren de mucho tiempo y recursos para su efectiva ejecución, pero con una adecuada planificación que comienza desde antes del rodaje, continúa con este y se exteiende hasta las posptroducción, puede suponer un recurso invalorable en todo tipo de producción sin importar su presupuesto y grado de complejidad.

photo credit: vincentag Cthulhu on the loose via photopin (license)

¿Qué es un codec?

Al comenzar cualquier proyecto audiovisual una de las primeras decisiones técnicas que hay que tomar es en qué formato capturar las imágenes. Dentro de esa decisión está el tipo de cámara que voy a utilizar para ello y al decidir el tipo de cámara, tengo que decidir simultáneamente qué “codec” voy a utilizar. O puede ser que la cámara que se vaya a utilizar esté determinada por el tipo de “codec” que quiero utilizar. Para poder elegir el “codec” correcto tengo que tener en cuenta el flujo de trabajo completo hasta el momento de realizar la copia Master final. 

Pero qué es exactamente un ”codec”. Codec es un acrónimo compuesto por las palabras en inglés “compressor-decompressor” y apunta entonces a la forma en que la información digital va a ser comprimida y descomprimida, codificada y decodificada, haciendo que el tamaño del archivo sea mucho menor y más manejable que las imágenes sin compresión o crudas (RAW).

Esto permite que el flujo de trabajo pueda ser mucho más manejable por las capacidades computacionales de las distintas estaciones de trabajo involucradas durante todo el proceso, pero también puede presentar problemas potenciales si no se tiene en cuenta las características del determinado codec a utilizar. 

La codificación del material registrado es un proceso técnico que cada codec maneja de forma distinta y por lo tanto tiene finalidades y usos distintos. Existen los codecs utilizados para la reproducción optimizada en internet, como el H264, que logra reducir el tamaöo de los archivos considerablemente para el uso efectivo del ancho de banda disponible del usuario en Internet, con una decente calidad de imagen, que hace que sea el codec preferido para intercambiar archivos a través de la red. 

Los mismos fabricantes de cámaras como por ejemplo Canon o Sony utilizan codecs propios para la captura de la imagen con la menor pérdida de calidad posible. Es entonces cuando usamos por ejemplo el Codec XAVC-I de sony o el XFAVC de Canon.

Otros codecs conocidos y ampliamente usados durante todo el proceso de postproducción y también para la copia Master del producto es el ProRes, desarrollado por Apple y viene en distintos “sabores” dependiendo de la relación calidad / tamaöo de archivo que se busque. De modo que hay un ProRes “proxie”, utilizado para procesos de edición offline, ProRes LT y el ProRes422 HQ qué es el preferido para la duplicación de Masters, ó el de más alta calidad el ProRes4444 que conserva toda la información de color de la imagen y es el preferido para procesos de correción de color o efectos visuales, si no se quiere o se puede obtener la data “cruda” (RAW).

Nótese los números que forman parte del codec en el ProRes 422 ó el ProRes4444. Ese 422 ó 4444 apuntan a una de las características principales de los codecs disponibles en el mercado y tienen que ver con cómo el códec maneja la información de color de la imagen o lo que es conocido como el Submuestreo de crominancia (Chroma subsampling).

El Submuestreo de crominancia es la forma en que los codecs “comprimen” la información de color para ganar espacio en el archivo al desechar información de color en algunos  pixeles de la imagen y se denota en forma de relaciones. De modo que un Submuestreo de crominancia 4:4:4 denota que no ha sido desechada ninguna información de color en ninguno de los pixeles y por lo tanto la imagen es lo más fiel posible en su reproducción cromática. Eso es lo que hace el ProRes4444, por ejemplo, el preferido para procesos de corrección de color o manipulación de imagen, ya que utiliza un Submuestreo de crominancia 4:4:4 como el nombre lo sugiere.

Entretanto una relación de 4:2:2 indica que la mitad de los píxeles de la imagen pierde información y el 4:2:0, suprime información de color en  el 75% de los pixeles. De nuevo entonces el ProRes 422 sugiere la relación de 4:2:2 que es un compromiso aceptable entre fidelidad cromática (en general imperceptible para el ojo humano) y tamaöo de archivo para la transferencia y manipulación de datos. De igual forma codecs que sub-muestran la crominancia en relación 4:2:0 son prácticamente inservibles para la manipulación posterior del color, la elaboración de efectos visuales o la realización de chroma key, ya que la pérdida de información cromática haría extremadamente difícil la manipulación del color para obtener el efecto deseado

No entraremos en detalles técnicos de lo que la nomenclatura de las relaciones 4:4:4, 4:2:2 ó 4:2:0 implican ya que es matemáticamente complejo y escapa del alcance de este artículo, pero existe abundante información al respecto en la red y en manuales técnicos para el que se interese en profundizar.

Otra de las características fundamentales de un codec y determinantes en la calidad y tamaño final del archivo, es la profundidad de Bit o profundidad de color. Básicamente la cantidad de colores que están presentes en una imagen. De modo que un codec con una profundidad de 8-bits, contiene una cantidad de 16 millones de colores, 10-bits, un millardo de colores y 12 bits 68 millones de colores. Como se puede inferir, a mayor cantidad de bits, mayorl la cantidad de colores y por lo tanto la calidad de imagen. De igual forma entonces es conveniente utilizar la mayor cantidad de bits cuando se requiere una manipulación de imagen exhaustiva para efectos especiales, corrección de color y otros procesos, pero lo que también supone un tamaño considerable de archivo.

Una de las consecuencias más evidentes al utilizar imágenes de poca profundidad de color como las de 8-bits, es cuando la imagen contiene gradientes de colores, como por ejemplo el cielo de amanecer o atardecer y se observan pequeñas bandas pixeladas entre los distintos tonos de azul (conocido como banding). Al capturar la misma imagen con 10 bits de profundidad, el codec es capaz de reproducir los sutiles cambios de color en la gradiente y por lo tanto generar una imagen limpia de y de mayor calidad. La mayoría de las cámaras profesionales y semiprofesionales de hoy en día pueden capturar imágenes de por lo menos 10-bits, pero en la creación de efectos visuales y gráficos hay que prestar atención a estos parámetros para no cometer errores.

8 bits
10 bits

Finalmente, el codec comprime la imagen con una tasa de sampleo o “Bit Rate”, lo que indica cuánta información en determinado tiempo es capturada y se denomina en Megabits por segundo (Mbps ó Mb/s). Este parámetro es el indicativo más importante de la calidad de la imagen de un archivo. Evidentemente a mayor tasa de sampleo, mayor calidad de imagen, ya que el codec intenta comprimir mayor o menor cantidad de pixeles en un segundo. Por ejemplo un archivo de video de mayor resolución (por ejemplo 4K) tendrá exactamente el mismo tamaño que un archivo de menor resolución (HD) comprimido a la misma tasa de sampleo. El primero, al tener más pixeles que comprimir a a la misma tasa que el segundo  se verá completamente pixelado al reproducirlo a la resolución original.

Por lo tanto, este es el parámetro esencial a la hora de definir el pixelado o la calidad de imagen del archivo de video que se quiere. Para reducir un archivo de tamaño, basta con reducir la tasa de sampleo, tomando en cuenta que este irá perdiendo calidad en la imagen. 

De modo que así también podemos identificar codecs de mayor o menor calidad según su mismo nombre. Por ejemplo los codecs DNxHD175, DNxHD85 ó DNxHD35 nos dan pista de su calidad relativa a la tasa de sampleo. De modo que el 175 del primero, indica una tasa de sampleo de 175 Megabits por segundo y por lo tanto tendrá una mejor calidad que el DNxHD35 que tan sólo comprime a 35 Mbps y es mejor utilizado durante la edición “offline” para conservar espacio en el disco

A través de la tasa de sampleo se puede calcular fácilmente cuánto espacio en disco duro o tarjeta de memoria necesitaremos disponible para guardar determinado tiempo de material capturado. Así, si estoy capturando con un codec a una velocidad 100 Mbps y sabemos que un Byte contiene 8 bits (bits siempre se denomina con b y Bytes con B), entonces 100 Mbps son (100/ 8) 12,5 MB (Megabytes) multiplicado por 60 segundos, son 750 MB. Osea que una hora de material me opcupa (750 x 60) 45.000 MB o lo que es lo mismo 45GB (Gigabytes).

Como hemos visto, existen varios parámetros a tomar en cuenta a lahora de escoger un codec para la captura de imágenes, la transcodificación y creación de proxies para la edición, la manipulación de imágenes para la creación de efectos visuales o correción de color y para la realización del Master final

Como ejemplo general, en los flujos de trabajo que yo manejo personalmente a diario (para largometrajes y series documentales), utilizamos el codec XAVC-I para la captura en cámara (Sony FS7), luego transcodificamos a DnxHD36 para la edición offline en Avid, H264 para la creación de screeners o copias de trabajo y finalizamos el Master a DNxHD185X o creamos “deliverables” para diversos canales de televisión que aceptan Masters en ProRes422HQ, AVC-Intra 100 (MPEG-4) ó DNxHD185X. Cuando el espacio en disco duro es suficiente y hay limitaciones de tiempo, podemos decidir transcodificar el material original XAVC-I directamente en DNxHD185X y editar directamente en una calidad “online” manteniendo este codec durante todo el proceso hasta la creación del master en el mismo codec.

Una última consideración importante es que el codec no debe ser confundido con su contenedor (container). Este es como el empaque en el cual el codec es presentado, por lo que podemos tener un codec H264 presentado en un contenedor .mp4 ó .mov. Podemos tener un contenedor .mxf que puede contener ó un codec DNxHD ó XAVC por ejemplo. 

Flujos de trabajo en la “nube” durante la edición de la serie Chernobyl

El editor Simon Smith, explica en un artículo de RedShark News, algunos de los procesos durante la edición de la serie de HBO.

Una de las cosas que me llamó la atención es el uso de la tecnología de “nube” para optimizar el flujo de trabajo que involucraba varios países y zonas horarias, además de aprovechar la tecnología para intentar llegar a aquello que llaman el equilibrio entre trabajo y familia, al establecer una rutina diaria que involucra pasar mayor tiempo con sus hijos, mientras dedica las horas necesarias para realizar el trabajo.

El flujo de trabajo comienza entonces desde el momento en que un equipo en locación en Lituania, transcodifica el material grabado a proxies DNxHD 36 para la inyección en el AVID. Este material, producto de tres cámaras simultáneas, es enviado vía Internet a la bahía de edición de Smith en su casa de Londres, desde donde descarga el material gracias a una conexión de fibra de unos 90Mbits/segundo.

Su rutina comeinza entonces iniciando la descarga, llevando a sus hijos al colegio para regresar a su casa ya con el material descargado y listo para ser inyectado en el AVID. Entonces se dedica a visualizar por completo el material rodado del día anterior, por lo general un par de horas con tres cámaras, en su teatro casero de 100 pulgadas.

El trabajar desde casa y a su propio ritmo, le permitía de igual forma involucarse en las tareas caseras de bañar a sus hijos, llevarlos a la cama, mientras se dejaban en claro que a la hora de trabajar, ese tiempo debía ser respetado.

La tecnología que pemiitía esta felxibilidad en cuanto al lugar de trabajo se llama Everest y no solo permitía que Smith trabajara desde casa, sino que también hacía posible que todos los involucrados en el proyecto pudieran participar desde sus localizaciones respectivas como el director en Nueba York, productores en Los Angeles, co-productores en Londres, la compositora en Berlín o el equipo en Lituania, en sesiones de edición como si estuvieran todos al mismo tiempo reunidos en la sala de edición de Smith.

A través de Everest, el editor podía compartir su monitor por medio de un browser Chrome y todos podían ver el Timeline del Avid, reproducir la edición, escuchar el audio y con la cámara WEB verse las caras de modo de compartir notas, comentarios y direcciones.

Evercast

Este tipo de tecnologías, son las que se están haciendo más habituales en el mundo moderno de colaboraciones sin fronteras, lo que permite la optimización de procesos en diversas etapas de la creación audiovisual y son las que junto a otras soluciones como frame i.o., teradici o las soluciones de Avid y Adobe, irán dictando los flujos de trabajo moderno y decentralizados.

Aquí el artículo original (en inglés) de RedShark News