Technicolor punches high-def video into higher dynamic range - CNET
Este también es muy importante, y aunque no lo he leído, creo que pude aclarar cosas sobre el verdadero potencial del HDR en las teles
Regístrate para eliminar esta publicidad
What is HDR for TVs, and why should you care? - CNET
When a movie or TV show is created, the director and cinematographer work with a colorist to give the program the right look. Take the muted, cold color tones of Winterfell in "Game of Thrones" versus the richness and warmth in King's Landing. If you've been living in a cave without HBO or the Internet, here's what I mean:
For movies, the team is able to use the wide palette of the Digital Cinema P3 color space to create gorgeous teals, oranges and violets.
But then comes the time to make these movies work on TV. In order to do that, that team essentially "dumbs down" the image, removing dynamic range and limiting the color. They get it to look the way they want, given the confines of the HDTV system, and that limited version is what you get on Blu-ray or a download.
If your TV is set to the Movie or Cinema mode, this is approximately what you'll get at home. If you're in the Vivid or Dynamic mode, the TV will then exaggerate the colors as it sees fit. It's creating something that isn't there, because at the mastering stage, the director and her team had to take that all out. Is the "Vivid" version close to what they saw, or what was in the theater? Doubtful, and there's no way to know since it's your TV's creation.
Thanks to the additional storage and transmission capacities of 4K BD and streaming video from Amazon, Netflix and others, additional data, called metadata, can be added to the signal. It tells HDR/WCG TVs exactly how they should look, exactly what deeper colors to show, and exactly how bright a given highlight, reflection, star, sun, explosion or whatever should be. It can even adjust picture settings or put the TV in a certain picture mode automatically. This is a huge advancement in how we're able to see images on TVs.
Technicolor's Intelligent Tone Mapping is a tool for content creators to more easily (as in, more affordably) create HDR content. I've seen it in action, and the results are very promising. This is a good thing, as it means it's not labor intensive to create HDR versions of movies and shows. If it took tons of time, and time equals money, then we'd never get any HDR content. This is just one example of the process.
¿Alguien dispuesto a traducir?
Technicolor punches high-def video into higher dynamic range - CNET
Este también es muy importante, y aunque no lo he leído, creo que pude aclarar cosas sobre el verdadero potencial del HDR en las teles
De estos dos últimos artículos que has enlazado saco la siguiente conclusión: Se ha comentado que todo iba a ser LUT, pués parece que va a haber contenidos HDR reales y contenidos pseudo-HDR.
Del primer artículo resumo lo siguiente: Gracias a los metadatos, los contenidos grabados con DCI P3, que en las teles normales tienen que ser adpatados, con la consecuente pérdida en rango dinámico y profundiad de color, en las teles con HDR van a poderse mostrar en su plenitud. Esto no es LUT.
En el segundo artículo dice:
One issue, however, is that most of those movies and TV shows were mastered for standard dynamic range (SDR) and the narrower color range of HD. That's the issue Technicolor's (ITM) aims to address. It's a method to convert standard dynamic range content (i.e., pretty much everything) into a pseudo-HDR.
Es decir, que las pelis existentes con masters en SDR, serán convertidas a HDR mediante ciertas técnicas introducidas por Technicolor. Esto si puede decirse que es LUT o, como llaman aquí, pseudo-HDR.
Panel: LG 55EF950V
Receptor A/V: Marantz SR7010
BDP: Panasonic DMP-UB900
NAS: QNAP TS-853A
Consola: Nvidia shield (2017)
Por lo que he leído. Todo lo que yo he dicho es correcto.
DCI P3 es un GAMUT de color que nada tiene que ver con HDR, pese a que se use precisamente para tener más riqueza de color, obviamente. Son 12 bits de profundidad de color, que en mayor medida evitan banding y aumentan la cantidad de colores a visualizar (más riqueza cromática). El HDR "de verdad", como ya apunté hace tiempo, no es ese. Por mucho que os pongáis. Para MI no lo es:
HDR (High Dynamic Range) en CINE DIGITAL. Una primera aproximación. | *
Si, pero tampoco es LUT. Lo dejamos en "otra especie" de HDR. Ya dijiste que el real está muy pero que muy lejos, no me olvido.
Panel: LG 55EF950V
Receptor A/V: Marantz SR7010
BDP: Panasonic DMP-UB900
NAS: QNAP TS-853A
Consola: Nvidia shield (2017)
Una LUT no es más que una forma de interpretar los pixeles de una u otra forma. No está relacionado con ningún GAMUT.
Puedes tener unas imágenes grabadas en DCI P3 en formato Log, para luego aplicar un LUT que restituya el color. Las imágenes en bruto grabadas en LOG aparecen planas, sin detalle ni color, deslavadas. La LUT hace que, sin degradar el original, se logre la máxima gradación de imagen:
Perdonad el lapsus. Ambas son LUT (No hay nada de malo en el LUT, es una función matemática), tienes razón, lo que quería haber dicho es que las primeras no son simple "Tone-mapping" mientras que las segundas (las sacadas a partir de material SDR) si.
Panel: LG 55EF950V
Receptor A/V: Marantz SR7010
BDP: Panasonic DMP-UB900
NAS: QNAP TS-853A
Consola: Nvidia shield (2017)
Pero es que el Tone Mapping no es un HDR. Es un PROCESADO a partir de una imagen HDR para meter en LDR lo que sería HDR. Y en ese procesado Tone Mapping puedes hacer tantos experimentos como quieras, dando como resultado desde una imagen horrorosa a otra más o menos decente...
El Tone Mapping está relacionado con la antigua "Doble Exposición", donde se hacían dos fotos expuestas y se combinaban para dar una sola imagen con las dos exposiciones.
El ejemplo más común es la típica foto realizada desde un interior en la que hay una ventana y se quiere ver también el exterior. El HDR permitiría poder ver ambas a la vez (nuestra vista, por ejemplo, lo permite), pero la limitación de las cámaras (por mucha latitud que tengan actualmente), no lo permite al 100%, de ahí que si se fusionan esas dos fotos (que es lo que hacen los móviles y las cámaras con la nueva función "HDR") se obtiene la mezcla de las dos.
O por ejemplo un contraluz, donde el objeto sale oscurecido, y que gracias a la doble exposición se evita tener que usar un reflector para iluminarlo.
Son técnicas HDR/Tone Mapping, pero NO es HDR per-se
Que si. Que la segunda no lo es, pero la primera si se aproxima más al HDR real porque parte de más información, información que se perdería e una tele normal.
PD: Qué dificil es comunicarse a veces!
Panel: LG 55EF950V
Receptor A/V: Marantz SR7010
BDP: Panasonic DMP-UB900
NAS: QNAP TS-853A
Consola: Nvidia shield (2017)
Total, si se habla tanta si es o no, y tanta dificultad en tener información al respecto, me deja claro que no está muy avanzado aún, pero es lógico, 2015 primer año del HDR en TV, solo las primeras, es normal que se evolucione y se empiece con pruebas o seudos HDR y demás. Ya irá progresando el asunto, ahora a disfrutar lo que salga HDR o no.
Veremos si las nuevas LG le añaden nits para HDR, queda poco para saberlo.
Sala de Cine Dedicada de Héctor78:
http://www.forodvd.com/tema/162455-n...8/#post1692149
Sala TV de Héctor78:
http://www.forodvd.com/tema/162456-n...8/#post1692165
Sala Dedicada Gamer:
https://www.forodvd.com/tema/201400-nueva-sala-gamer/
Hola,
Hablando del tema HDR, y gracias a actpower, pude ver demos HDR de LG.
Muchas gracias actpower, siempre aportas cosas interesantes, como lo relacionado a tu trabajo que personalmente me interesa.
Respecto a las demos, son espectaculares, sobre todo el video/demo de LG que sale una chica viajando, pero cuando se ven por ejemplo una escena que salen montañas, el HDR lo que hace es que se vea bastante artificial la verdad, solo escenas oscuras ese toque extra de brillo es aceptable, pero la OLED, al ser negros infinitos ya te lo da nativamente.
Igualmente indicar que quizás noto que le falta más nits a la OLED, pude ver estas demos y esta vez son de LG (que las otras HDR de Samsung) en la EG960, la EG920 que tiene un amigo, y la LED JS9500 de Samsung, y la verdad se nota menos punto máximo de brillo en las OLED.
Y dudo que en películas quede bien el HDR, solo en tipo La vida de Pi, las ya anunciandas como X-Men la nueva, no creo que favorezca.
Realmente hay que pensar una cosa, si los artificios que hay en las TV los desconectamos por ser artificial y altera la imagen de forma irreal, aunque el HDR no sea un añadido posterior de procesado de la TV, y forme parte del archivo en metadatos (pero es algo también editado, no original del director en la película para que se entienda) para mí es parecido, y eso sí siempre se recomienda quitar los artificios sean del tipo que sean y de donde salgan, el HDR es un parecido quizás a un artificio.
Y queda desvirtuadas las imágenes, y eso se verá más claro en las películas que salgan en BDUHD versión HDR y la NO HDR, seguro que se nota sí, pero puede (solo puede) que para mal, como poner comentaste dinámico en opciones de la TV, no es mejor ejemplo, HDR es mucho mejor realizado y son muchos datos y ahí está.
Pues eso dentro del desconocimiento general sobre HDR, yo tengo dudas al respecto. Entre que OLED ya es seudo HDR de forma nativa, y en contra partida, le faltan nits, que se nota artificial, que los directores no creo que estén a favor, a no ser que la película en cuestión se realice sabiendo que será HDR especifica... Tengo eso dudas.
Adjunto fotos de las demos.
Spoiler:
Saludos.
Sala de Cine Dedicada de Héctor78:
http://www.forodvd.com/tema/162455-n...8/#post1692149
Sala TV de Héctor78:
http://www.forodvd.com/tema/162456-n...8/#post1692165
Sala Dedicada Gamer:
https://www.forodvd.com/tema/201400-nueva-sala-gamer/
¿Dónde se puede pillar esa demo?
Panel: LG 55EF950V
Receptor A/V: Marantz SR7010
BDP: Panasonic DMP-UB900
NAS: QNAP TS-853A
Consola: Nvidia shield (2017)