Guía completa: ¿Cuál es la diferencia entre los tipos de HDR?

Guía completa: ¿Cuál es la diferencia entre los tipos de HDR?

bruno martinez avatar
En nuestra guía definitiva sobre el tema, descubre la diferencia entre los tipos de HDR existentes y elige el que mejor se adapta a tu contenido

Atrás quedaron los días en que la resolución era el atributo más importante de una pantalla: ya sea en teléfonos inteligentes, computadoras portátiles, tabletas o televisores, lo que determina la calidad de una pantalla hoy en día es la capacidad de reproducir colores, momento en el cual el estándar en Tecnología HDR utilizado (HDR, HDR10, HDR10+, HLG, Dolby Vision o Advanced HDR), se vuelve decisivo. Pero cual es la diferencia entre el Tipos HDR existen y cual es mejor?

Año tras año, los smartphones insignia lanzados presumen de tener pantallas con la última tecnología HDR. En 2020, la línea iPhone 12 dio un paso más y se convirtió en el primero capaz de reproducir, grabar y editar contenido en Dolby Vision, un tipo específico de HDR. Para comprender la importancia de esta tecnología para las fotos que tomamos y las películas que vemos en nuestros teléfonos celulares, pero no solo en nuestros teléfonos, debemos comprender que es hdr y cómo difiere cada estándar en el mercado. ¿Vamos allá?

¿Qué es HDR?

Comparación entre hdr y sdr para mostrar la diferencia entre los tipos de hdr, comenzando con la explicación de qué es la tecnología.
Un buen HDR (derecha) permite diferenciar las sutiles variaciones de contraste en una escena (imagen: Playback/AWS)

Sigla de Alto rango dinámico, o 'High Dynamic Range' en portugués, HDR, en su forma más simple, consiste en una serie de técnicas utilizadas para capturar y mostrar imágenes. Buscan hacer cámaras y pantallas habilitadas con tecnología capaces de grabar y mostrar contenido con una variación de contraste más y más grande. Cuando vemos un negro intenso junto a un gris muy oscuro, es la variación de contraste, es decir, la diferencia de luces y sombras de uno a otro, lo que nos permite diferenciarlos.

La función de HDR es hacer que esta variación sea cada vez más notoria y, para eso, hace que las cámaras y las pantallas sean más sensible diferencias de contraste, permitiéndoles captar y reproducir un mayor número de tonos entre los negro y el blanco absoluto.

En pocas palabras, el objetivo de HDR es hacer que los colores y el contraste de una imagen digital sean tan precisos como los de una imagen real, visto sin la intermediación de pantallas o cámaras. Esto, en sí mismo, representa un gran desafío, ya que nuestros ojos han evolucionado durante millones de años hasta lo que son hoy.

¿Cómo funciona HDR en las cámaras?

Una imagen de una casa de piedra que muestra cómo se lleva a cabo la construcción hdr de la foto.
En las cámaras, el HDR surge de la superposición de múltiples imágenes con diferentes exposiciones (Imagen: Farbspiel Photography

Como vimos arriba, la imagen HDR está presente en cámaras e Telas🇧🇷 Con eso, no tiene sentido tener contenido grabado en HDR y mostrarlo en una pantalla con SDR. Rango dinámico estándar o Rango Dinámico Estándar, en portugués. Del mismo modo, su televisor HDR no podrá transformar contenido SDR en HDR. Aunque esto es posible, según algunos Investigadores franceses informaron en 2017, es algo que requiere convertir el contenido usando inteligencia artificial, y no, todavía no se puede hacer con nuestros televisores o teléfonos inteligentes.

Entendiendo que HDR, para funcionar, debe estar presente tanto en la cámara que captura el contenido como en la pantalla que lo muestra, se hace más fácil entender cómo funciona en cada uno de los dos. En las cámaras, la técnica HDR más simple consiste en toma 3 fotos a la vez, uno de alta sensibilidad a la luz, uno medio y otro de baja sensibilidad a la luz. Luego, el software de posprocesamiento, que varía entre cada modelo de cámara, superposición las tres imágenes y crear una sola foto.

En esta foto generada después de la superposición, la variación entre el punto más claro y el más oscuro es mayor, por lo que hay una ampliación el rango dinámico original de esa cámara. Para comprender cómo se aplica la imagen HDR en los videos, imagine que la cámara hace este trabajo con cada cuadro (o cuadro) del video. Es por eso que muchas cámaras de teléfonos inteligentes, por ejemplo, no pueden grabar en alta resolución y con HDR, termina siendo mucha información para que sus sensores y procesadores los manejen.

Comparación de contraste usando una foto de un lago con un bosque de fondo.
Aunque parece que solo interfiere con la luz y la sombra de las imágenes, al aumentar el contraste también se intensifica el color. Mira la foto (Imagen: Wikipedia)

Como se indicó anteriormente, el resultado de la superposición dependerá del software de posprocesamiento utilizado en la cámara. Si no sabe hacer un buen trabajo, la imagen le saldrá rara, con una gran variación de contraste, pero que no se corresponde con la realidad. Asimismo, el HDR no debe simplemente producir colores más fuertes: la imagen debe ser más viva no porque esté más saturada, sino porque la diferencia en los tonos de cada color es más notoria y, en consecuencia, más fiel a la realidad.

Cuando hablamos de contraste, es común pensar solo en blanco y negro. Sin embargo, el contraste también se refleja en los colores, ya que todo color está compuesto de luz y sombra, y que la proporción entre cada una de estas (luz y sombra) producirá una tono diferente de ese color Tanto en cámaras como en pantallas, HDR busca que las diferencias de tono en cada color sean más notorias, aunque sean sutiles. el hdr jamais debe hacer que los colores chillones.

Presentamos el iphone xs con smart hdr, otro modelo hdr que se muestra a través de varias fotos seguidas sobre un fondo negro.
A medida que avanza, la tecnología HDR se mezcla con la inteligencia artificial, buscando aún más precisión (Imagen: Reproducción/Apple)

Una vez entendido esto, volvamos a la superposición de imágenes: la forma en que se superpondrán las imágenes depende del fabricante de la cámara. Es por eso que vemos tal diferencia en el HDR de la Google Pixel En relación al iPhone, por ejemplo. Actualmente, la mayoría de fabricantes utilizan inteligencia artificial para mejorar la superposición de imágenes, así como para retocarlas incluso después de haber sido superpuestas. Forma parte de la llamada fotografía computacional, que busca sortear las limitaciones técnicas de las cámaras de los smartphones con una dosis de inteligencia.

Por su funcionamiento, HDR es un tipo de tarta, cuya receta hace cada fabricante a su manera y, al igual que las tartas, es bueno entender la diferencia entre los tipos de HDR para elegir el que más te gusta. Google, por ejemplo, mejora el HDR de los smartphones de línea Píxel utilizando técnicas avanzadas de IA y superponiendo no solo 3 imágenes sino más de 10. La cantidad de imágenes que se superpondrán también no es fijo, depende de cuántos la IA considere necesarios.

Esto dependerá, entre otros factores, de las condiciones de luz e incluso del movimiento de la cámara: si mueves mucho el brazo, la IA entiende que no puede tomar tantas fotos, o todo estará fuera de orden. borrosa🇧🇷 Este es un cálculo complejo, ¿no? Además, esta fragmentación no ayuda al consumidor a comprender cuál es la diferencia entre los tipos de HDR.

¿Y cómo funciona HDR en los televisores?

Demostración de la tecnología dolby vision comparada con la tecnología sdr usando una foto de una guacamaya roja.
La diferencia entre SDR y HDR es la cantidad de información que se muestra en la pantalla, lo que da como resultado imágenes más ricas (Imagen: Dolby Labs)

Ahora que sabemos cómo funciona el HDR en las cámaras y que varía según cada fabricante que decida utilizarlo, estamos más cerca de responder a nuestra pregunta principal: ¿cuál es la diferencia entre los tipos de HDR existentes? No solo, sino principalmente cuando hablamos de televisores, hay una serie de siglas (HDR, HDR10, HDR10+, HLG, Dolby Vision, HDR Advanced y otras) para confundirnos. ¿En qué se diferencian y cuál de estos 'HDR' podría considerarse el mejor?

Bueno, una vez que comprenda cómo funciona HDR en las cámaras, es fácil concluir que una consecuencia de la superposición de imágenes es un aumento en la cantidad de información (medida en metadatos) presente en la foto o video. Básicamente, HDR en TV 'lo hace más claro' para la pantalla, perdón por el juego de palabras, que son los puntos más brillantes y más oscuros de la imagen, además de detallar mejor la variación entre ellos. En consecuencia, la pantalla solo hará un buen trabajo si representa toda esta información adicional. con precisión.

Vela bajo platillo iluminando el ambiente, representativa de la cantidad de luz que emite una vela en un espacio de un metro cuadrado.
En luminometría, 1 'nit' equivale a 1cd/m², es decir, la luz que emite una vela en un espacio de 1 m² (Imagen: Reproducción/Metrología)

En este sentido, una pantalla HDR común es aquella que, por sus especificaciones técnicas, consigue mostrar un amplio espectro de tonos claros y oscuros, tanto en blanco y negro como en color. A efectos métricos, esta variación se mide en liendres, una unidad de medida no oficial (ya que no está presente en el Sistema Internacional de Unidades) pero que es muy utilizada en tecnología y que equivale a 1 candela por metro cuadrado (1cd/m²). Se usa “nit” en lugar de “1cd/m²” porque tiene un nombre claramente (jaja) más comercial.

Básicamente, cuantas más nits tiene un televisor, más brillante puede emitir. En general, un mayor número de liendres también significa un mayor capacidad de contraste, ya que a medida que aumenta la cantidad máxima de luz emitida, el espectro tonal entre la luminosidad total y la oscuridad total se hace más amplio. En definitiva, cuanto mayor sea su capacidad máxima de brillo, más eficiente se vuelve el televisor en la diferenciación de tonos. intermediarios, logrando la precisión necesaria para mostrar contenido HDR en la TV.

Influencia de la luz medida en nits, siendo 2000 nits en el cielo, 500 directamente al sol, 000 en la parte oscura del suelo, 30 en la sombra de la canoa y 300 en la región donde incide la luz en la canoa.
Os liendres también se utilizan para medir la incidencia de la luz en entornos reales, como el de la foto (Imagen: Reproducción/Dock10)

En enero de 2016, una alianza formada por varios fabricantes de pantallas, llamada Ultra HD Alliance, estableció dos estándares para poder decir que un televisor tenía tecnología HDR: en el primero debe variar entre 1000 e 0,05 liendres de brillo, y en el segundo debe variar entre 540 e 0,0005 liendres de brillo Con eso, cada televisor que alcanzó estas métricas puede llevar la etiqueta HDR 'básico', incluso si esto no resulta en una mejora en la imagen final.

Como puede imaginar, la falta de una estandarización más amplia hizo que HDR, en los televisores, fuera un recurso cuyas ventajas reales no siempre estuvieron presentes. Me bastaba con tener un televisor con una capacidad de brillo superior a los 1.000 nits que podría llamarlo HDR y competir con pantallas que, además, añadían otras tecnologías para ser la mejor en el mercado, ¿correcto? Bueno, si no hubieran inventado los diferentes estándares HDR que nos causan tanta confusión, esto sucedería mucho más a menudo.

Las diferencias entre hdr10 y hdr10+, dos modelos de tecnología de imágenes de alta calidad.
Los diferentes estándares HDR corresponden a las diferentes tecnologías añadidas, que proporcionan imágenes aún mejores (Imagen: Reproducción / Internet)

Además de confundirte, cada estándar HDR establece otras tecnologias que deberían estar presentes en la TV que quiera llevar su nombre. Con esto, los fabricantes intentan evitar que el HDR en los televisores se convierta en el lío en el que se ha convertido el HDR en las cámaras: quieren asegurarse de que, si bien cada fabricante puede mejorar sus pantallas con sus propias tecnologías, el estándar HDR utilizado establece unos mínimos de calidad a la hora de hacerlo. a la imagen en general, no sólo al contraste.

Por lo tanto, los diferentes estándares HDR son un certificación, una promesa de que, al llevar ese sello (HDR10, HLG, Dolby…), el televisor pasó por rigurosas pruebas de laboratorio y alcanzó varios requisitos preestablecidos. Estos requisitos, que varían según cada estándar, no se limitan a los valores máximos o mínimos de brillo, sino que mejoran la percepción del color y la luz en las imágenes de televisión.

Entonces, ¿cuál es la diferencia entre los tipos de HDR?

Después de convertirse casi en un experto en HDR, finalmente comprenderá cuál es la diferencia entre los tipos de HDR que existen. Como ya hemos explicado anteriormente cómo funciona la tecnología en su forma más simple, mostraremos cada una de sus “evoluciones”, yendo desde la más simple a la más avanzada, explicando cuáles son sus ventajas y desventajas.

GAN

Comparación de sdr y hlg en dos televisores que muestran un partido de fútbol. A la derecha, hdr, la calidad de la imagen es más nítida.
Similar al HDR común, HLG está diseñado para transmisiones en vivo (Imagen: Reproducción/FlatPanelsHD

Concebido por las emisoras BBC y NHK, el formato HLG responde a los intereses de estas dos empresas de brindar la mejor imagen posible, considerando que, en una transmisión de TV, hay espectadores con pantallas HDR y SDR. Con esto, HLG no se limita a televisores con alto rango dinámico y permite la transmisión de contenido en vivo para ambos públicos (con y sin televisores HDR). Esta división es importante porque, en casos específicos, mostrar contenido HDR en un televisor SDR puede hacer que sea verse peor, con colores desteñidos e incluso distorsionados.

La gran ventaja de HLG es que es un formato HDR compatible con versiones anteriores con televisores SDR. En las transmisiones de TV abierta esto es fundamental, sin embargo el estándar no es muy popular fuera de Reino Unido y Japón, países donde fue creado. En Brasil, la transmisión de TV abierta es totalmente SDR. En cuanto a los contenidos en streaming, en plataformas como Netflix y YouTube es posible identificar qué tecnologías soporta el televisor, asegurando que el contenido es 100% compatible con el mismo y eliminando el riesgo de que la imagen se deteriore.

Debido a esto, es muy improbable que HLG se popularice algún día, ya que es una solución intermedia diseñada para la TV abierta, que suele tardar años en adoptar nuevas tecnologías. Lo más probable es que la televisión abierta solo transmita en HDR cuando la mayoría de los televisores de su audiencia admitan esta función.

HDR10 y HDR10+

https://youtu.be/HWjvpMW6tZ0

Fruto de alianzas entre Sony e Samsung,el HDR10 une la capacidad de alto contraste de HDR con una profundidad de color de 10 bits. Esta profundidad de color es considerablemente mayor que la profundidad de color estándar de 8 bits, lo que significa que una pantalla HDR10, en comparación con una pantalla HDR "normal", es capaz de mostrar colores que esta última no puede.

Ya HDR10 +, presentado por Samsung e Panasonic, mejora HDR10. Para ello se sube la capacidad máxima de brillo, de 1.000 a 4.000 liendres, además de los metadatos presentes en la imagen que se dinámica🇧🇷 ¿Recuerdas cuando dijimos que HDR consiste en insertar más información (metadatos) en las imágenes? Bueno, estos metadatos le dan instrucciones al televisor sobre cómo mostrar el contenido, dicen cuál es el brillo máximo y el brillo mínimo para que se represente en la pantalla.

Cuando estos metadatos son estáticos, como en HDR10, los valores máximo y mínimo son los mismos en todos los fotogramas, incluso si el contenido es una película de varias horas. Como resultado, la precisión en la reproducción de contenido se ve afectada, ya que los metadatos se generan en función de la película completa, que puede tener escenas más oscuras y escenas más claras.

En el caso de HDR10+, cuyos metadatos son dinámicos, esta variación cambia según cada escena mostrada. Cada fotograma tiene sus propios metadatos, generados mediante una técnica llamada "mapeo de tonos". Como su nombre lo indica, esta tecnología mapea marcos, verificando las partes más oscuras y más claras de cada marco, generando metadatos. Como resultado, HDR10+ tiene niveles de saturación y brillo siempre apropiado a la imagen mostrada, acercándose a la calidad de su rival Dolby Vision.

HDR Avanzado

Isla de edición colocada en una especie de cortina de control en el teatro para emular el espectáculo que sería el hdr avanzado realizado por technicolor.
Con la promesa de ser un 3 en uno, HDR Advanced es el menos popular de los estándares existentes en la actualidad (Imagen: Technicolor)

El estándar HDR más desconocido es desarrollado por Technicolor, una empresa que opera en técnicas de coloración fotográfica desde la era de la película en rollo. Aunque tiene un nombre único, el HDR Avanzado cubre tres subestándares de HDR, cada uno con su propio propósito:

  • El primero de ellos, el SL-HDR1, destaca por ser un HDR 'básico' y 100% compatible con pantallas SDR.
  • El segundo estándar, llamado SL-HDR2, se parece mucho a los estándares HDR10+ y Dolby Vision, ya que también tiene metadatos dinámicos.
  • La tercera y última norma, aún en fase de prueba, trata de unir las dos cosas. Si funciona, será el primer formato HDR con metadatos dinámicos que será compatible con televisores SDR. (ctlsites.uga.edu)

El objetivo no es dejar un televisor SDR con calidad HDR10+, sino evitar las distorsiones que comentábamos anteriormente. Teniendo esto en cuenta, muchas personas cuestionan la utilidad de agregar dos tecnologías que son antagónicas (HDR y SDR). En streaming, ya es posible transmitir contenido HDR solo a televisores compatibles, mientras que en el caso de las televisoras abiertas, es muy probable que solo comiencen a producir contenido HDR cuando la mayoría de la audiencia tenga televisores de este tipo.

Por ahora, HDR simplemente no es interesante para las emisoras de televisión, ya que es costoso producir contenido con la tecnología, y la mayoría de las personas en todo el mundo todavía tienen televisores SDR. Precisamente por eso, muchos creen que HDR Advanced está condenado al fracaso junto con su hermano, HLG.

Dolby Vision

Visto como el "estándar de oro" de los estándares HDR, el Dolby Vision está presente en los televisores más caros y se puede decir que es el mejor de los disponibles actualmente. Como suele ser el caso, tanta calidad proviene de un alto estándar exigido por Dolby Labs: mientras que dos pantallas HDR10+ pueden mostrar imágenes ligeramente discrepantes, dependiendo de sus especificaciones, los proyectores y televisores certificados con Dolby Vision se someten a pruebas para garantizar que, a pesar de la peculiaridades del equipo, las imágenes se muestran exactamente de acuerdo con los estándares Dolby.

Además de todas estas pruebas, el Dolby Vision tiene requisitos técnicos más sofisticados. El valor máximo de liendres soportado, por ejemplo, es 12.000🇧🇷 Aunque hoy en día ningún televisor se acerca a este nivel, los más caros alcanzan un máximo de 2.000 liendres brillo: esto muestra cómo el patrón también fue pensado para el futuro. Dolby Vision también fue el primer estándar en tener mapeo de tonos y metadatos dinámicos, cuya naturaleza explicamos en el hilo HDR10+.

Por si fuera poco, la tecnología de Dolby también ofrece color de 12 bits, es decir, las pantallas con esta certificación muestran unos colores que ni siquiera los televisores con HDR10+ pueden mostrar. La pega de esta tecnología es el precio: como el formato es de Dolby, la empresa exige regalías a las empresas que lo utilizan, lo que encarece cualquier dispositivo compatible. Este factor también encarece las películas y series con la tecnología.

Mientras que el Netflix Ya tengo algunos títulos con Dolby Vision e HDR10, solamente Amazon Prime Video tiene títulos en HDR10 +🇧🇷 Además, a la hora de reproducir contenidos Blu-Ray es necesario que el dispositivo de reproducción también esté certificado por Dolby, lo que no ocurre con la mayoría de reproductores de este tipo de medios (consolas). En Brasil, solo lg posee los derechos para usar la tecnología Dolby Vision en los televisores, mientras que HDR10+ está restringido a los televisores Samsung y Panasonic, que lo desarrollaron para competir con Dolby.

* Dolby Atmos: ofrecido a menudo junto con Dolby Vision, el Dolby Atmos es patrón de sonido certificado por Dolby Labs, comúnmente presente en televisores y teléfonos inteligentes de diferentes marcas. Debido a que se trata de audio y no de video, Atmos no forma parte del alcance de este artículo; sin embargo, lo incluimos aquí para que no se confunda cuando vea su nombre. Entonces, ¿entiendes la diferencia entre los tipos de HDR?

Con información de: CNET, AVForums, JMGO, Confianza digital, Samsung, HowToGeek


Descubra más sobre Showmetech

Regístrate para recibir nuestras últimas novedades por correo electrónico.

Puestos Relacionados