Lunes, Octubre 14, 2019

Nos están engañando con el HDR cuando compramos una tele o monitor

samsung-smart-tv

Actualmente, cuando compramos un televisor, un monitor, o un móvil, muchos fabricantes le están poniendo la etiqueta de HDR, o le incluyen un modo HDR a pesar de que no lo tienen real o nativo. Por ello, vamos a ver en qué tenemos que fijarnos para que la pantalla que compremos tenga HDR real.

HDR, o High Dynamic Range, es como se ha llamado a la posibilidad de mostrar muchos más colores que hasta ahora. Una imagen SDR cuenta con 8 bits de profundidad de color, lo que equivale a 28 por subpíxel rojo, verde y azul. En total, tenemos que un píxel puede mostrar 16,77 millones de colores distintos. Con los paneles de 10 bits, esa cifra pasa a ser de 210, que equivale a 1.024 tonos distintos por subpíxel, o 1.073 millones de colores por cada píxel.

Estos paneles son mucho más precisos, y con las nuevas tecnologías, tienen una mayor luminosidad, pudiendo tener más tonos de negro y de blanco y ofreciendo imágenes más realistas. Para hacer eso es necesario tener local dimming para apagar las zonas más oscuras, ya que si se dispara el brillo en algunas zonas, los negros se ven con tonos grises. Sin embargo, hay muchos monitores y televisores que no tienen paneles de 10 bits, pero sí tienen algún modo o etiqueta de HDR.

10bit-fg-2

Monitores: muchos ponen que tienen HDR pero en realidad no lo tienen

La mayoría de monitores del mercado de menos de 500 euros no llegan a los 400 cd/m2 de luminosidad, lo cual les impide cumplir con lo que pide el estándar DisplayHDR 400 para obtener la certificación. Por encima de esos precios, muchos monitores lo cumplen, pero siguen sin ofrecer HDR real.

VESA actualizó el estándar DisplayHDR a la versión 1.1 en septiembre de 2019, obligando a que haya un dimming activo, a tener un mínimo de precisión de color, modos obligatorios en el menú que indiquen cuando el HDR está activo, etc. Además, añadieron una nueva categoría que se suma a DisplayHDR 400, 600 y 1000: la de 1400. Esta nueva categoría debe garantizar entre el 90 y el 95% de DCI-P3, además de guantar 900 nits de brillo en toda la pantalla durante periodos de larga duración (30 minutos). Los criterios ahora quedan de la siguiente manera:

displayhdr-criterios

Para activar la opción de HDR (llamado también WCG de Wide Color Gamut) en Windows 10 es necesario tener un monitor que realmente soporte la reproducción de contenido HDR10 a través de DisplayPort 1.4 o HDMI 2.0, además de una tarjeta gráfica compatible con PlayReady 3.0 y descodificación de contenido HEVC y los drivers WDDM 2.4 instalados. DisplayHDR 400 soporta HDR10, pero eso no indica que el monitor pueda mostrarlo, aunque sí reproducirlo.

Algunos monitores directamente están poniendo que tienen un “modo HDR”, que lo único que hace es disparar el contraste y la gamma para conseguir un de imágenes mucho más saturadas pero con peor calidad, y por supuesto sin acercarse ni un ápice al HDR real. Por ello, si vais a comprar un monitor para PC y queréis activar la función de HDR en Windows, aseguraos de que tenga la etiqueta de DisplayHDR; a ser posible superior a 600.

Con los televisores pasa lo mismo

Para que un televisor reproduzca contenido en HDR es necesario que sea compatible con él de manera nativa. Es decir, que tenga un panel de 10 bits, ya sean 10 bits reales o de 8 bits que utilice FRC (Frame rate control), que permite emular esos 10 bits mediante la introducción de distintas tonalidades de colores en cada fotograma.

Sin embargo, no es lo mismo reproducirlo que mostrarlo, ya que para mostrarlo adecuadamente es necesario tener ese panel de 10 bits nativo, así como el local dimming que hemos mencionado antes para tener esa atenuación local que apague zonas de la pantalla. Un televisor que tiene un “modo HDR” pero no tiene local dimming utiliza el Edge LED para iluminarse, de tal manera que no puede apagar zonas del panel, y por ello si hay una zona muy blanca y se sube el brillo, la parte más oscura en lugar de negro mostrará gris. Hay algunos televisores Edge LED que sí muestran contenido HDR real, pero con un rendimiento peor que si tuvieran local dimming, como tienen por ejemplo las QLED de Samsung con el Quantum Dot.

Con los televisores OLED esto no ocurre, ya que como cada píxel tiene iluminación independiente; un local dimming llevado a la máximo expresión que hace que estos paneles tengan un contraste infinito. Por ello, todos los televisores OLED que veáis van a tener HDR real siempre y cuando esos píxeles tengan 10 bits de profundidad de color, lo cual tienen todos los modelos actuales del mercado porque las OLED están centradas en la gama alta actualmente.

Este es el problema de que televisores 4K de 400 y 500 euros tengan la etiqueta de HDR, ya que los modos que incluyen hacen que incluso el contenido se vea con peor calidad, y desaliente a muchos usuarios a comprar televisores compatibles con esta tecnología porque en sus pantallas las estén viendo peor.

Como ya hemos hecho en algunos artículos previos, la recomendación que hacemos es que comprobéis las especificaciones del televisor que queréis comprar en displayspecifications.com, donde tenéis que mirar dos cosas: que el televisor tenga Local Dimming, o Full-Array Local Dimming si hablamos de un televisor con panel LCD (como las QLED), un panel de 10 bits, compatibilidad con estándares HDR como HDR10, Dolby Vision o HLG, buenas cifras de reproducción de color (95% de DCI-P3 o más, por ejemplo), y un brillo máximo lo más alto posible que supere los 600 nits. Con todo esto nos aseguraremos de tener un televisor con HDR real, y no una reproducción de ese contenido emulada.

 

Fuente: adslzone

¿Quién está en línea?

Hay 161 invitados y ningún miembro en línea

Contador de Visitas

12516859
Hoy Hoy 131
Ayer Ayer 862
Esta semana Esta semana 131
Este mes Este mes 10078
Total de Visitas Total de Visitas 12516859

Día con más
visitantes

07-09-2019 : 3140

Gracias por su visita