Segun voy leyendo las placas con Display Port si añadimos un conversor HDMI 2.0 deberian funcionar.
Lo digo porque como dices casi todas las placas montan Hdmi 1.4.
Sobre graficas Nvidia tipo GTX 960 4G con hdmi 2.0 que nos cuenta.
Regístrate para eliminar esta publicidad
Bueno "al parecer" ya se están definiendo los standares 4K, ya han empezado a salir algunos blurays 4k: https://www.amazon.es/s/?ie=UTF8&key...l_903r5d4ezl_e
Parece que el standard va a ser 2160p, depth color 10 bits, con/sin HDR...
Ya han salido gráficas AMD Radeon: RX 460, RX 470, RX 480 y NVIDIA GTX 1050, GTX 1060, GTX 1070 todas con HDMI 2.0b y Displayport 1.4 que permiten obtener aceleración por hardware para la decodificación del HEVC 10 bits y HDR, en breve saldrán los procesadores intel séptima generación denominados Kaby Lake que permitirán lo mismo, aunque las nuevas placas Z270 al parecer insisten en el HDMI 1.4, por lo tanto adios a los 10 bits de depth color y al HDR.
Por lo tanto las soluciones para ver 4K 10 bits HDR a través de un htpc serán:
- Tener salida HDMI 2.0a o superior sin importar si la gráfica acelera por hardware HEVC, procesador potente tipo I7, utilizando DXVA2.
- Tener salida HDMI 2.0a o superior sin importar si la gráfica acelera por hardware HEVC, procesador tipo intel Kaby Lake sin importar su potencia ya que permiten acelaración por hardware del HEVC.
- Gráfica tipo Radeon RX 460/470/480 que permiten aceleración por hardware del HEVC, con salida HDMI 2.0b y cualquier procesador de gama media.
A esto habría que añadir cable HDMI 2.0a o superior y evidenteme un televisor que reúna las características comentadas: 4K con HDR.
Segun voy leyendo las placas con Display Port si añadimos un conversor HDMI 2.0 deberian funcionar.
Lo digo porque como dices casi todas las placas montan Hdmi 1.4.
Sobre graficas Nvidia tipo GTX 960 4G con hdmi 2.0 que nos cuenta.
las 950/960 aceleran HEVC pero les falta el HDR.
La alternativa a las RX4x0 de AMD son las GTX 10X0 de nvidia. Siendo la 1050 la mas barata situandose entre la RX460 y la RX470 en rango de precios.
Con tu permiso procedo a añadir las nvidia...
Exacto... A día de hoy no hay cables displayport 1.4 o superior (que es la versión de displayport que permite HDR) a HDMI 2.0a o superior...
Ocurre lo mismo con la sexta generación de intel Skylake, puede con HEVC pero solo llega a depth color 8 bits y sin HDR. Con películas 4K con depth color de 10 bits el procesador no acelera por hardware HEVC y necesitas un procesador muy potente para mover 4K y además utilizar DXVA2 (punto 1 de la explicación).
Entiendo que esto mismo le debe suceder a las GTX 950/960...
Hace falta tambien que la gráfica, s.o. y reproductor permitan el envio de los metadatos hdr a la tele y esto no es posible aun (por lo menos no tengo noticias de ello). Si hay rumores de que está en marcha.
Hay la opción de que estos metadatos sean interpretados por el renderer (madvr) y enviar el video ya sin metadatos pero el ajuste de los nits, color gamut, etc. hay que hacerlo a ojo. Es lo mismo que haría la tele (reducir el rango a lo que permita esta) pero hecho desde el htpc.
Está verde aun el tema.
buenas noches,
estoy liado de cambio de proyector, y mi centro multimedia es un htpc de hace unos 5 años. Para visualizar fullhd perfecto, ademas lo tengo con un ssd y todo perfecto.
De lo que he leido, he venido a entender que actualizando la tarjeta grafica, tengo mas que de sobra, me podeis recomendar alguna? no voy a jugar con el solo quiero que me de la mejor calidad de imagen y sonido posible.
El ultimo post me ha dejado intrigado, teniendo la tarjeta no puedo sacar el hdr por ejemplo con el kodi??
mil gracias.
Hay mucha diferencia entre 8bits y 10bits en cuanto a calidad?
La teoría dice que si, pero siempre que sale una tecnología, hace falta que los que generan los contenidos, en este caso, los directores de cine, se hagan a las bondades del nuevo formato, saquen todo el partido, después, que en el transporte del contenido no se pierda esa calidad, (compresión y bitrate limitados) y por último, que el televisor lo implemente bien.
Dentro tres años estara todo a mano.
¿Nuevo formato?. La "gente del cine" lleva trabajando con 4K y HDR hace más de 5 y 6 años. Y con 4K más de 10 como mínimo. Y los 10 bits están a la orden del día. Las cámaras registran en 4K desde hace muchos años, pero las diferencias entre 1080P y 4K son tan mínimas que no merece la pena meterse en tal fregado. Terminar una peli en 4K significa muchísimo trabajo del que apenas se verá nada. Está demostrado por decenas de pruebas reales con gente normal y corriente. La inmensa mayoría no percibe más calidad viendo 1080P a 4K (y me pasa a mí, salvo que esté a dos palmos del display).
He asistido a muchas charlas sobre ésto, y mucho blablablabla, pero al final, charlando con gente que está dentro de la industria, siguen teniendo muchas dudas, porque si ni ellos son capaces de verlo, ¿como lo va a ver la gente normal?. No hablo de autesugestionarse pensando que ese 1080P escalado es 4K real, es que las diferencias son ínfimas (a mí mismo me cuesta distinguir uno de otro en mi nueva tele de 65"). Frente al monitor (40" 4K) sí veo diferencias, pero es que lo tengo a 40 cm de la cara!!!
Sin embargo el HDR sí supone una mejora perceptiva (aunque estemos en los albores y aún no se sepa muy bien qué hacer y qué no hacer con él). Aunque sea en valores mínimos, se aprecia "algo" que da igual la resolución, ese "algo" es lo que la gente está empezando a tener más interés y es la espina dorsal de todo lo que vamos a ver a partir de ahora.
P.D: HDR no es 4K, HDR es agnóstico en cuanto a resolución, profundidad de bits, sistema de color o etc. HDR se puede aplicar a cualquier imagen que pueda ser compatible y cualquier display lo visualizará como es.
Una cosa es que trabajen con ello y otra que le saquen todo el partido. Un director no graba más de 5 películas en 5 años, ya serán dos o tres como mucho, no son demasiadas para dominar el formato, y muchas escena requieren de mayor presupuesto en producción para que no se vea el defecto.
Por otro lado, si en 55" a tres metros no se ve el defecto en full HD, tienes que pasar a 110" o más en 4K para comprometer esa calidad.
Normal que la gente no lo aprecie con esas dimensiones.
La gran mayoria de la gente compra lo que ponen en el escaparate, con solo ver curva, 4k, ect... le entra por el ojo sin llegar a usarlo en su vida.
Ya me he extendido en anteriores veces porqué la industria en general (salvo pequeñas producciones y casos específicos) no está por la labor de finalizar en 4K. Resumiendo, es TODO tema de costes. Postproducir y editar una película en 4K para que SOLO 2 de cada 100 personas la vean con toda su grandeza, no es rentable.
No se trata de lo que tú quieras, sino de lo que ellos quieran. Y ellos no quieren, porque no les compensa. Se llevan 20 años editando en 4K y HDR, pero solo a nivel de archivo. Ni efectos, ni postproducción, ni finalizado es en 4K. Y menos si hay versión en 3D.
Hoy día no te puedes plantear una película de gran presupuesto y gran carga de efectos en 4K, porque arruinarías la producción. Ya hay bastantes "hostiones" en taquilla con producciones de 100M, como para andar con experimentos.
Y en cualquier caso, en numerosos test realizados con publico real y con encuestas de por medio, demostraron que la definición 4K no aporta nada que a la gente decida ver la película en 4K.
Es más, ni los cines están por la labor, ningún cine en España indica en las películas que exhibe si la película es en 2K o 4K (yo se cuando son en 4K porque accedo a los datos del laboratorio). Y por supuesto, necesitas que esa copia en 4K se exhiba en un cine con proyector 4K, y ponerte a una distancia donde verdaderamente notes la definición extra. Y solo en planos donde no haya excesivo movimiento.
Como ves, demasiadas variables para tener en cuenta como para apostar por 4K real. Se escalan de 2K a 4K, se aplica HDR y arreando.
Depende de lo que entiendas por sacar el hdr, pero la respuesta corta es no.
Si entiendes que es mandar los metadatos hdr para que la tele se ajuste automaticamente en modo hdr, procese estos, etc. no es posible ahora. El año que viene powerdvd añade soporte ultrahd y veremos como lo implementan.
CyberLink Press Room
Si te refieres a que sea el htpc quien procese estos metadatos y procese la imagen en funcion de los nits, gamut, etc. y ajustes tu manualmente la tele (brillo, wcg, etc) si puedes utilizando kody dsplayer con el renderer madvr o un reproductor externo que use este renderer.
El problema es que no hay API que permita al renderer decir a la gráfica manda estos metadatos a la tele (nvidia creo que tiene una API para esto pero lo suyo es que haya una para los demas fabricantes, que supongo que ya está en desarrollo).
Mucho o poco es relativo pero por si no entiendes lo que significa mira esta imagen:
Cuantos mas bits hay mas columnas y estas son mas estrechas, menos banding y/o menos ruido (dithering) en la imagen. Tambien cuantos mas bits la diferencia va siendo cada vez menor. Mira esta otra imagen (es una recreacion):
Lo suyo es que veas una imagen 10 bits en un visualizador 10 bits y juzguen tus ojos. El resultado es menos banding pero que sea realmente visible depende de muchos factores y como te dice Cubster que nada en el proceso afecte a la imagen (no solo a nivel codec, tambien procesado en el repro, tele, etc.)