Iniciado por
Albert Dirac
Lo siento, no tengo ejemplos a mano, ni hablo muy bien cristiano, pero intentaré desarrollar mi argumento.
Verás, en el HDR hay varios factores a tener en cuenta, pero tal vez el más importante es la luminosidad, y su control. De momento, todos los masters HDR se hacen a 1000 nits, o a 4000 nits. Imaginemos que tenemos contenido de 1000 nits.
En el metadata que envíamos a la televisión, pueden pasar dos cosas:
1) El televisor tiene 1000 nits, o más. No hay nada que hacer, simplemente envíamos los datos y el televisor se encarga.
2) El televisor tiene menos de 1000 nits. Entonces hay que mapear la señal en el metadata ("tone mapping") para que se reproduzca en el televisor. Hay varias formas de hacer esto, pero en cualquier caso es fácil de entender que cuanto más cerca de los 1000 nits esté el televisor, más fácil será hacerlo, y mejor resultado obtendrás. La FALD 9005 de Sony tiene unos 850 nits. Yo, por ejemplo, tengo una LED FALD de Samsung (con más zonas dimmables que la 9005, eso sí), la JS9500, que está más o menos por esos valores. Y el HDR es espectacular. No tanto como en una ZD9 de 1500 nits, por ejemplo, pero se ve "de cine".
Lógicamente, si tienes unos 450 nits como en el caso de la x85, pues todo el HDR se va a ver, como dice un compañero que tiene el televisor, apagado y mortecino. Especialmente, cuando encima tienes menor control de la iluminación, al ser una edge-led. Y, por tanto, peores negros, que es lo que compensa también en una LED (o en las OLED) cuando no llegas a los 1000 nits.
Por tanto, el X85 me parece un buen televisor LED para ver contenido SDR, pero no para HDR.