Ir a contenido

País

Noticias Atelsa

SOLUCIONES HDR

¿Qué es HDR?

High Dynamic Range (HDR) y la tecnología complementaria Wide Color Gamut (WCG) se combinan para proporcionar mejores imágenes. HDR ofrece un mayor rango dinámico, dando luces más brillantes y sombras más profundas y claras. WCG amplía la paleta de colores disponibles para reproducir más fielmente el mundo que vemos. Esto se logra sin cambios significativos en los estándares de señal existentes, por lo que no requiere un cambio completo de infraestructura.

 

¿Por qué debería preocuparme por HDR?

Desde el inicio de la televisión en la primera mitad del siglo XX, hasta el desarrollo de la televisión digital (DTV) en la década de 1980, los estándares de televisión han avanzado para producir mejores imágenes, incluida la estandarización de transmisiones en blanco y negro, la introducción de color y transición a la creación, procesamiento y entrega digital. Sin embargo, desde entonces, el impacto más notable ha sido la creación de imágenes más grandes a través del desarrollo de la televisión de alta definición (HD) y ultra alta definición (UHD).

Sin embargo, los píxeles individuales se han limitado a restricciones similares que existían hace más de 70 años. HDR ahora ha introducido técnicas y tecnología que nos permiten crear mejores píxeles que producen mejores imágenes, incluidos reflejos más brillantes, sombras más detalladas y una paleta de colores mucho más amplia. Estas mejoras tienen un mayor impacto en la experiencia del espectador que las imágenes más grandes en la mayoría de los casos.

¿Cómo funciona HDR?

HDR introduce un cambio en la curva que asigna el brillo de la luz a las palabras clave digitales que se transmiten y procesan. Estas curvas de transferencia están optimizadas para proporcionar reflejos más brillantes y mejores detalles en las sombras. HDR impone un mínimo de codificación de 10 bits, que es la norma para la mayoría de las transmisiones y la producción profesional, por lo que gran parte de la infraestructura existente puede manejar señales HDR. Es importante evitar los códecs de 8 bits, ya que estos mostrarán artefactos mucho más distintos en HDR. De manera similar, BT.2020 Wide Color Gamut emplea primarios optimizados y mapea un rango más amplio para abarcar aproximadamente el 99% de los colores que el ojo humano puede ver en la naturaleza. Esta gama de colores más amplia se asigna a las mismas palabras de código de 10 bits que se emplean en la codificación tradicional BT.709. Aunque el rango dinámico (HDR) y la amplia gama de colores (WCG) se definen de forma independiente,

Estándares HDR

Hay dos estándares principales de uso común para HDR en la producción de transmisiones: Cuantificación perceptiva (PQ) y Log-Gamma híbrido (HLG). Estas son más que simples "curvas gamma" diferentes, pero cada una representa un enfoque diferente para HDR. Tanto HLG como PQ pueden emparejarse (y generalmente lo hacen) con el espacio de color BT.2020 para una amplia gama de colores. Cabe señalar que el S-Log3 de Sony entra en la conversación aquí; S-Log3 no se considera un formato de producción HDR (y nunca un formato de transmisión), pero es muy común en los flujos de trabajo en vivo y ofrece un rango dinámico extendido en comparación con el SDR tradicional. Afortunadamente, la mayoría de los convertidores compatibles con HDR, como Gator-Toolbox, también pueden manejar S-Log3, por lo que un flujo de trabajo compatible con HDR generalmente también puede admitir fuentes S-Log3. Esto ha permitido que HLG sea el preferido en muchas producciones HDR en vivo.

Construcción de un sistema HDR

HDR y WCG pueden atravesar la mayoría de las infraestructuras SDI e IP existentes, ya que el video se codifica en el mismo transporte de 10 bits que SDR. El uso de metadatos integrados a través de SMPTE ST 352 Video Payload ID en SDI y metadatos de colorimetría en SDP para entornos ST 2110 puede comunicar a un receptor cómo interpretar los datos de píxeles. Es importante que el equipo de procesamiento HDR pueda recibir e interpretar estos metadatos y tener la capacidad de anularlos en los casos en que el equipo anterior no los haya conservado adecuadamente. El equipo también debe proporcionar la capacidad de crear con precisión estos metadatos en función del flujo de trabajo de producción actual para que el equipo posterior pueda detectar correctamente la codificación de video.

Tenga en cuenta que el video HDR/WCG no se puede combinar directamente con las señales SDR tradicionales. Así como es necesario normalizar a una resolución y velocidad de fotogramas comunes, todos los medios deben normalizarse a un estándar de color común para combinarlos en una configuración de producción, por lo que se requiere la conversión HDR en estos flujos de trabajo. Hay muchos factores a considerar al convertir entre SDR y HDR/WCG. Se debe desarrollar una estrategia de conversión completa antes de lanzar convertidores al sistema. Debe tener una buena comprensión de cuál es su material de origen (¿SDR? ¿HLG? ¿PQ?) Considere cómo se sombrearán sus cámaras. Además, los niveles de blanco pueden ser más flexibles en la producción HDR, por lo que debe comprender cómo afecta eso a su flujo de trabajo de extremo a extremo. También deberá considerar si la conversión de luz de pantalla (para una apariencia rica en HDR) o la conversión de luz de escena (para una apariencia más natural) son apropiadas en cada etapa de su cadena de producción. Ross Gator-Toolbox es flexible para adaptarse a una amplia gama de estos parámetros, lo que lo convierte en una opción versátil para su flujo de trabajo de producción.

Flujos de trabajo simples

En algunos casos simples, es posible que deba incorporar una pequeña cantidad de fuentes HDR en su producción SDR (o viceversa). En estas situaciones, una simple conversión de asignación directa lo logrará fácilmente. La capacidad está integrada en ciertos conmutadores de producción Acuity y Carbonite y en Gator-Toolbox. Por ejemplo, la producción interna de un estadio deportivo que realiza la transición a HDR se beneficia de la simplicidad de una función de conversión de utilidad de mapeo directo para ayudar a monitorear señales HDR, controlar pantallas LED SDR heredadas o incorporar una pequeña cantidad de fuentes SDR heredadas en las pantallas LED HDR durante la transición. período.

Flujos de trabajo avanzados

En muchas situaciones, es necesario producir versiones HDR y SDR simultáneamente para servir tanto a los espectadores emergentes con capacidad HDR como a la audiencia SDR establecida más grande. A menudo no es factible ejecutar producciones separadas para HDR y SDR, por lo que se han desarrollado flujos de trabajo híbridos para crear contenido HDR y SDR a partir de una sola producción. En estas situaciones, las conversiones deben coincidir para que el contenido de HDR y SDR coincida, y que el viaje de ida y vuelta (es decir, SDR->HDR->SDR) conserve el aspecto del material original. Estos flujos de trabajo proporcionan recetas para trabajar con cámaras SDR, cámaras HDR, inserciones SDR graduadas y HDR. Ofrecen pautas sobre el sombreado y el monitoreo de la cámara durante todo el proceso e indican el tipo y la posición en la cadena de señal para los dispositivos de conversión HDR.

Estos flujos de trabajo avanzados generalmente implementan tablas de búsqueda 3D (3D-LUT) para crear el aspecto general del mapeo de tonos entre SDR y HDR. Un 3D-LUT proporciona un mapa RGB personalizado de los espacios de color de origen a destino, lo que proporciona una flexibilidad completa en el proceso de mapeo de tonos. Permiten un ajuste muy preciso de los colores cuando se realiza el mapeo de tonos entre estándares (por ejemplo, ¿cómo se asigna un púrpura particular en el espacio de color BT.2020 a BT.709, donde ese púrpura no existe?). Se empaquetan como un conjunto para incluir conversiones entre cada uno de los formatos admitidos. Gator-Toolbox ofrece soporte 3D-LUT opcional, incluido con paquetes LUT de BBC y NBCU. Además, puede cargar su propio 3D-LUT para respaldar las conversiones requeridas en su flujo de trabajo.

Artículo anterior NewTek estrena el nuevo panel de control Flex nativo NDI
Artículo siguiente Comprender la relación entre el tamaño del sensor y la selección de lentes

Dejar un comentario

* Campos requeridos