Cita Iniciado por actpower Ver mensaje
¡Menuda mezcla hacéis!

Primero, PARA EMPEZAR, todos los vídeos destinados al consumidor ¡TODOS!, están codificados en chroma 4:2:0 en componentes YCC. TODOS. A nivel profesional, los master pueden ir en 4:2:2, o 4:4:4, en RGB, con mil perfiles de color, etc, etc, etc, pero los destinados a mercado doméstico van así.

Incluyendo, por supuesto, los más nuevos 4K HDR, cuya única diferencia es que están en otro espacio de color (Rec.2020, aunque en realidad internamente el 100% son DCI P3 por limitaciones técnicas actuales), que pueden tener HDR y que tienen 10bits de profundidad de color. Lo de los 12bits de Dolby Vision es "HASTA". No existe ningún display actual que permita 12bits por componente. Y ninguno de los DV codificados están a 12bits, porque originalmente TODOS se codifican en 10bits como master para "Delivery" (sea DCP, Bluray o el que sea).

Partiendo de esa base, poner RGB444 es reservar un ancho de banda por HDMI tremendo, y puedes originar muchas interferencias porque es como si metes una autopista de 10 carriles para un tráfico de 2. Así que lo más lógico es YCC422 10bit, no necesitas más, y no fuerzas el ancho de banda.

No se si queda claro, pero es así.
Muchas gracias, parece que eres el unico que ha entendido lo que preguntaba.

Por supuesto que a 10bit es mejor que a 8bit, eso ya lo se, osea que el YCC es mejor (mas amplio) que RGB, pues ya es lo que he visto en el video cuando lo cambie. Me quedo con el YCC a 10bit como estaba originalmente.

Muchas gracias a todos, y por cierto no tengo un Optoma, sino un BenQ. S2