Iniciado por
actpower
TommyHK, contesto personalmente a algunas de tus dudas o más bien pensamientos, porque creo lógico aportar mi grano de arena sobre tus inquietudes, aunque haya a gente que ésto le moleste o le provoque rechazo...
No, Tommy. Los patrones son MUY IMPORTANTES. Sin ellos se rompe la cadena entre el origen y el destino. Piensa en la producción de cualquier obra audiovisual. Desde la captación hasta la exhibición...
Las cámaras que registran la imagen TIENEN que estar correctamente ajustadas, porque de lo contrario cada plano será de su padre y de su madre.
En edición, el colorista y editor se preocupan que TODO siga un mismo look, pese a que se enfrenten a colorimetrías diferentes de cámaras diferentes e incluso misma cámara pero apuntando a un sitio diferente. Esto requiere que sus monitores estén ajustados mediante una misma norma común.
En el final checking los monitores y televisores están ajustados a norma para que se de el visto bueno cara al cliente final.
Es justamente ese paso, el del cliente final, el eslabón más débil de toda la cadena. Pues el resto de eslabones han ido siguiendo una serie de procedimientos y normas que están ahí para algo. Si tú como cliente final decides romperla, luego no puedes quejarte de si esto está bien o está mal.
Te puedo hablar de primera mano por clientes gordos que tengo (no quiero decir nombres por confidencialidad, pero te los puedes imaginar), que si yo cometo el error de masterizar algo mal, me lo van a echar atrás. Te lo garantizo. Aún así, siempre se pueden colar cosas mal realizadas, porque antes se tenía un poco más de amor propio y ahora por desgracia a veces "todo vale". Obviamente todo tiene un límite, pero te garantizo que al igual que nosotros pasamos los patrones para asegurarnos que todo está correcto, los generadores de contenidos también lo hacen porque es VITAL. Es la BASE de todo.
Discrepo en que el patrón más importante sea el White Clipping. Probablemente sea el menos importante. Es muchísimo más importante el Black Clipping porque es el que te dice el valor de negro mínimo al que tienes que ir. Un fallo a la hora de establecer el black clipping en una de esos eslabones de la cadena puede hacer que el resto se vaya al traste.
Lo que sucede es que tienes tantos looks como contenidos hay, y es normal que unos tiendan a ser más saturados, otros menos, unos más lavados y otros más contrastados. Unos con más grano, otros limpios como la patena, unos en Scope y otros en Flat. Pero todos siguen un mismo procedimiento común, aunque pienses que no.
Incluso los que adrede levantan el negro y que tan mal y feotes quedan en las teles (personalmente me gustan poco o nada). Son decisiones artísticas, al fín y al cabo...
Es que la TDT es un medio "todo vale" bastante esperpéntico. Y sí, es posible que alguna emisora decida dar más "punch" a la imagen a la hora final de emitir. Es un hecho. Los patrones para encontrar el color ideal sirven de bien poco en estos casos. Pero es que es la TDT, ¿qué podemos esperar?. Lo mejor es establecer una configuración que más o menos vaya bien y arreando.
Hay emisiones que son gloria verla, como por ejemplo los directos de La Sexta (de nuevo, tengo amigos implicados en alguna de esas emisiones y así me lo han hecho saber, con lo que tengo el argumento del conocimiento de causa). Luego te vas a La 2 y echas la raba, porque aquello es infumable a todos los niveles. Es un claro ejemplo de ambos extremos.
En el caso concreto de Netflix y Dolby Vision, aquí el valor de saturación de color de los patrones no sirve. El HDR es un "animal" completamente diferente y los ajustes que tiene LG tanto par HDR10 (en modo Standard) y Dolby Vision (en modo película oscura), son los correctos. Noy hay mucho margen de maniobra por la forma en que se procesa la señal HDR, y ante la duda, mejor no tocar nunca nada.
Estas teles vienen muy bien calibradas de color y de balance de blancos (poniendo Cálido2 prácticamente clava los 6500ºK), con lo que la manipulación es mínima (black clipping, white clipping, color, WB, desactivar postprocesados y a correr).
Este es posiblemente el tema estrella y que más quebraderos de cabeza suele dar. Y has dado en parte con el origen, que es la FUENTE. La fuente dictamina TODO. Cuando digo todo, es TODO.
Como siempre, hay que ir al origen para entender exactamente de qué estamos hablando.
En origen, el cine se estableció a 24FPS por una serie de condicionantes (no voy a extenderme demasiado en ello ahora mismo, en mi blog lo detallo al completo). Estoy hizo que a la hora de registrar las imágenes EN MOVIMIENTO, hubiese que tomar una serie de normas para que esa imagen en movimiento resultase fluida.
La primera de ellas era (y es) establecer una velocidad de obturación del doble de los fotogramas de captura. Esto es, a 24FPS cada fotograma se capta a 1/48 de segundo. Al igual que a 25FPS la velocidad de obturación es de 1/50 de segundo. Esto es LEY siempre.
Hasta que se decide romper CREATIVAMENTE, claro. Pero no es este el caso.
A 1/48 de segundo, existen unas TABLAS de movimiento horizontal para que el registro de las cámaras sea óptimo. Tampoco voy a ahondar demasiado en ello, pero cuando se estudia CINEMATOGRAFÍA es algo que se aprende A FUEGO.
Estas tablas permiten que gracias al MOTION BLUR producido por esa velocidad de obturación, se produzca un movimiento fluido. O casi.
Casi. Porque no siempre es así, y no en todos los casos. Y los hay para aburrir, claro.
Si esa misma secuencia la captas a más velocidad de obturación, obtienes dos cosas: menos motion blur (ergo, más detalle en movimiento), pero más espacio entre cada fotograma, ergo "saltitos" entre uno y otro debido a la velocidad de fotogramas por segundo.
Así que tenemos que existe una interrelación entre la velocidad de fotogramas por segundo, la velocidad de la cámara en movimiento (o los sujetos en movimiento) y la velocidad de obturación a la hora de registrar la imagen. La mezcla de esos tres elementos hace la magia del movimiento como un todo.
Alterar uno afecta a los otros dos y por extensión afecta a la percepción final del movimiento.
Y sin embargo, aún no hemos acabado. De hecho, no hemos hecho más que empezar.
Porque sí, tenemos la imagen registrada, pero tenemos que enseñarla.
Cuando tienes 24 exiguos fotogramas por segundo, tienes un problema. Como pasó al inicio del cine. Este problema del "judder" no es actual, no señores...viene del mismísimo origen y creación del mismo.
La solución que se tomó por aquel entonces y que sigue vigente hoy día, es la de repetir y tapar la misma imagen 2 veces antes de pasar a la siguiente imagen.
Esto se realiza con un OBTURADOR MECÁNICO (en mi blog hay un video explicativo de cómo funciona dicho invento).
Trasladado a los sistemas digitales de hoy en día, se llama "velocidad de refresco" y "black frame insertion". Efectivamente, nuevos nombres para viejos conocidos.
Pero sucede un fenómeno sabido con el uso de un obturador mecánico o el "black frame insertion", que es que mientras que efectivamente se reduce el parpadeo y el judder, también se reduce la cantidad de luz producida. Por eso en proyección de cine necesitas muchos lúmenes de origen para que la imagen no sea un borrón de luz difusa. Eso, y una sala muy oscura, para poder optimizar al máximo la imagen percibida.
En nuestros televisores actuales, eso supone exactamente lo mismo, producir mucha luz para compensar el tremendo bajón que supone intercalar un fotograma negro repetido una o más veces antes de pasar al siguiente (cuanto más repitas ese fotograma negro menos producción de luz tendrás).
Por eso los sistemas basados en "black frame insertion" tienen problemas de luminosidad. Y en HDR necesitas MUCHA luminosidad. Pero no puedes ir más allá de los límites.
De ahí que se opte por otra solución llamada "sample and hold", que no es más que dejar el fotograma impreso permanentemente en la imagen hasta que llega el siguiente (solapando muy brevemente ambos fotogramas para intentar minimizar defectos).
Esto es muy sencillo de comprobar realizando una grabación en alta velocidad y reproduciendo esa grabación a velocidad normal.
El resultado visual es que, efectivamente, en escenas con mucho brillo y contraste, se producen esos "saltos" que ciertamente molestan a determinadas personas, y a otras sin embargo no. Fisiología ocular, o adaptación al medio. O simplemente, "me dejo de tontadas" xD
Curiosamente, este efecto Judder se produce constantemente. No es algo exclusivo de los OLED, sino que en proyección de cine se pueden apreciar planos que van muy al límite. Seguir con la vista una panorámica basta para revelar el gran talón de Aquiles que sigue siendo el cine en su empecinamiento en los 24FPS.
No solo se ven las costuras, sino que la imagen nos parecerá borrosa.
Como he escrito antes, gracias al "motion blur" se produce la ilusión de movimiento FLUIDO. No hay más.
Sin embargo, cuando saltamos a 48FPS o más, entramos en otro mundo totalmente distinto. Sigue habiendo motion blur, pero mucho menos. Y los problemas de los saltitos se ven claramente minimizados. Es el mal llamado "soap opera effect".
Digo mal llamado porque en realidad, nuestros ojos se han visto "culturalmente" influidos por una cadencia de fotogramas demasiado baja. Admiramos la suavidad de movimiento de los videojuegos a 60FPS y demandamos más y más (120FPS parece ser el gran reto), y sin embargo no toleramos que una película se reproduzca a 48FPS porque nos parece "irreal" o "artificial" (El Hobbit).
Quizás si de un principio el cine se hubiese diseñado a 48FPS reales (no simulados vía obturador mecánico), ahora mismo las cosas hubiesen sido diferentes. Pero no ha sido así, y al final hay que buscar "artimañas" para solucionar una carencia heredada del pasado. Es así.
Aquí llegamos a una de esas "artimañas". Ya que la solución del "black frame insertion" se antoja complicada por los problemas añadidos que provoca (menos luminosidad, posible sensación de parpadeo si miramos "de soslayo"), alguien pensó que "era buena idea" crear un sistema que crease fotogramas intermedios sobre los originales.
Esto tiene un nombre llamado INTERPOLACIÓN DE FOTOGRAMAS. Sobre el papel, una idea genial. Como resultado, nefasto de todas todas. Ningún interpolador sea Hardware o Software, es capaz de "saber" el movimiento complejo de algo.
Y menos aún, cuando ese movimiento tiene MOTION BLUR asociado. No lo olvidemos, el MOTION BLUR es vital para la sensación de fluidez de movimientos. Si artificialmente creamos fotogramas intermedios, deberíamos eliminar el motion blur. Pero eso, por desgracia, no es posible (CSI es Ciencia Ficción, amiguitos).
Así que tenemos un sistema tremendamente ineficaz que no solo altera el movimiento, sino que introduce más artefactos visuales de los que originalmente hay.
Basta aplicar el "de-blur" (que intenta eliminar el motion blur sin éxito) sobre una imagen en movimiento, para comprobar lo que hace...básicamente el efecto de un pulldown 3:2 sobre una imagen de 30fps pasada a 24fps (el que lo haya visto sabrá de lo que hablo, sino, basta con subir el "de-blur" al máximo en los créditos finales de cualquier película para darse cuenta del error que se puede llegar a cometer.
Todas estas cosas son mucho más divertidas de ver y tener un feedback mucho más ágil estando en vivo probandolas y tomando buena nota de ello. A nivel escrito sinceramente es complicado hacerse entender. Y grabar un vídeo se antoja absolutamente inútil por cómo funciona todo ello.
Por último, queda la famosísima "resolución de movimiento". Esas famosas 300 líneas que se repiten como un Karma a lo largo de los medios, blogs, foros, reviews...verdades y mentiras mezcladas unas con otras...todo por culpa de un patrón mal entendido y desfasado actualmente.
Es muy sencillo...si realmente en movimiento la resolución hubiese sido de 300 líneas, la imagen se nos antojaría como una calidad VHS. Y sin embargo, al ver cualquier película en FullHD o 4K, la definición es pasmosa en gran parte de ella, ¿verdad?.
Ahí es donde está el "quiz" de la cuestión..."gran parte".
¿Os acordáis del Motion blur?. ¿Sí?. Pues adivinar quien viene a cenar esta nocheeee...
Sí, resulta que da igual si el patrón famoso (que está mal diseñado para los estandares actuales) "dice" que son 300 líneas. Como si dice que son 1000. Da igual si a través del Trumotion obtenemos 700 líneas (virtuales, recordemos, interpolación rules).
EL MOTION BLUR ES DIOS. Él y sólo él es el responsable FINAL de la definición del movimiento de la imagen. Basta realizar un ejercicio tan sencillo como descargar un trailer cualquiera y analizar fotograma a fotograma cualquier plano movido. ¿Que vemos?. Una imagen BORROSA falta de definición que simula ir rápida (porque es la magia del movimiento).
¿De que valen tener 1000 líneas de resolución de movimiento ante eso?. No vamos a ver "mejor" nada. No vamos a ver más nítido nada. Ese movimiento seguirá siendo borroso. Pero al verlo nos parecerá natural y nos parecerá FLUIDO. Tan solo por ese detalle.
La gracias de todo esto es que hasta los movimientos más lentos e imperceptibles tienen motion blur. Lo podéis comprobar vosotros mismos. No hay que usar patrones ni creerse la patraña de las 300 líneas. Es una MALA INTERPRETACIÓN de un patrón pasado de fecha para los displays actuales.
Aquí posiblemente has dado con TODA la clave del asunto. ¿Porqué en una sala de cine con 20 metros de base veo "saltitos" en panorámicas que luego en mi tele no veo?. Siguen estando ahí, pero mucho más pequeñas y en un factor de tamaño mucho menor.
¿Porqué aprecio menos "judder" en 55" que en 65". Sencillamente, por el tamaño de la pantalla. Y que bueno, si te sientas a 1 metro te da un colocón de lo mal que puedes llegar a ver todo.
Al final, todo esto es cuestión de muchos factores, no de uno solo. Es algo que no se tiene en cuenta y que provoca no pocas discusiones entre gente que podría estar mucho más de acuerdo, si en vez de insultarse en foros, viesen el mismo material cogiditos de la mano (o mejor no xD) en la misma sala.
Al final, como digo, hay que ir al origen para entender hacia donde vamos.
Me dejo muchísimo más en el tintero, pero esto cansado y Mass Effect:Andromeda en HDR me llama :-)