¿Por qué?Iniciado por matias_buenas
Gracias Matías.
Regístrate para eliminar esta publicidad
Sigo .
Habíamos visto que uno de los factores clave a la hora de digitalizar una señal era la cuantificación en bits y que lo asociábamos como el eje vertical (ordenadas) de la representación gráfica de la señal .Vimos que a mayor resolución más precisión habría y que era como una regla de pongamos 120 cm . Más precisión (bits) nos permitía que esa escala fuese de mm o menos .
Ahora le toca a la frecuencia de muestreo que será el componente adicional que nos falta para digitalizar una señal y será nuestro eje de abcisas .
El señor Nyquist allá por el año 1928 dijo que podíamos reconstruir íntegramente una señal si ésta era muestreada al doble de la mayor frecuencia que queríamos en este caso digitalizar.
Así que cuando Sony y Philips se encontraban en los preliminares del diseño del CD y decidieron que la cuantificación iba a ser de 16 bits (porque Sony se impuso, que en un principio se habló de 14 bits) les quedaba el oro parámetro, la frecuencia de muestreo . Lo que ellos necesitaban par un ancho de banda de hasta 20 Khz eran 40 Khz pero finalmente se eligió 44,1 Khz .
Parece ser que la razón de elegir 44.100 Hz de muestreo fue por la grabación en vídeo porque los primeros soportes digitales estaban basados en la grabación en vídeo . El ntsc tiene 525 líneas de exploración pero en la grabación no usa 35 de esas líneas, con los que nos quedan 490 líneas activas . Pero como entonces se grababan en dos fases o campos (entrelazado), tenemos 245 lineas por campo . Se pensó en búfer o memoria capaz de almacenar al menos 3 líneas por campo, de modo que tendríamos una velocidad de 60 Hz de refresco del ntsc x 245 líneas activas del campo x 3 = 44.100 Hz . Y todo esto se permitía poder grabar en un soporte en cinta de vídeo .
Bien, pues como ya tenemos 16 bits de cuantificación y 44,1 Khz de frecuencia de muestreo ya sabemos tanto por los bits como por Nyquist que podemos digitalizar el sonido con mucha calidad . En la próxima entrega, intentaré explicar de una forma báisca el funcionamiento.
¿Por qué?Iniciado por matias_buenas
Gracias Matías.
Pues la verdad es que es una de esas verdades sagradas que con literatura es difícil de explicar . Es como si dices que según aumentas la velocidad, el tiempo se retrasa y que si vas a un 99 % de la velocidad de la luz tu tiempo transcurre más despacio que el mío estando yo aquí sentadito . Eso es verdad pero a ver cómo lo explico para que se entienda sin un papel .
Debemos de creerlo o verlo con fórmulas matemáticas . Mira aquí :
http://www.lpi.tel.uva.es/~santi/muestreo.pdf
No es un cálculo muy difícil, pero bueno .
Un saludo.
Hombre matías, lo de la velocidad de la luz es fácil: es una derivada de los dos postulados de la teoría especial de la relatividad. Uno de ellos dice que cualquier observador, en un movimiento de traslación a velocidad constante, debe poder pensar que está en reposo. Luego un par de gráficos, y ya está (simplificando). Le echo un vistazo a las fórmulas y te pregunto.
Gracias.
Visto, me quedo con el aspecto "literario". A ver si lo he entendido: La única manera de asegurar que la señal reconstruida es fiel a la original es muestrando al doble de su ancho de banda. Si no, puedo reconstruir una señal que no sea fiel a la original, o dicho de otro modo, puedo reconstruir más de una señal sin saber cual es la buena.
¿cierto?
Pos fale, lo doy por bueno, porque mis mates no llegan tan lejos.
Sigue (salvo que me haya equivocado).
Pues dando por bueno el teorema del señor Nyquist, necesitamos el doble de frecuencia de muestreo para recoger la máxima frecuencia que queremos digitalizar.
Pues bien, siguiendo con nuestro ejemplo, vimos que teníamos un eje cartesiano, donde en el eje de ordenadas (vertical) estaba el nivel de cuantificación en bits . Más bits significan una cuadrícula de menor tamaño, o sea, más posibilidades de altura .
La frecuencia de muestreo es entonces el eje horizontal . Más frecuencia de muestreo significará cuadrícula más pequeña también . Si, como dijimos antes, nuestra onda sonora en 1 segundo de tiempo fuese una campana de Gauss (una U al revés , más o menos), en el caso del CD tendríamos 44.100 coordenadas horizontales y 2 a la 16 verticales (bits) para dibujar la curva . Luego parece obvio que cuanto más tengamos de ambos, mejor, puesto que en el caso de la frecuencia de muestreo, la base de los rectangulitos será menor .
Y ahora vendrían las polémicas, porque mucha gente asocia que mayor frecuencia de muestreo supone un mayor ancho de banda, lo cual es cierto . Es decir, si muestreamos a 96 Khz, nos garantizamos un ancho de banda después de filtros de unos 45 Khz . La pregunta entonces es para qué teniendo en cuenta que se da por dogma que como mucho oímos hasta 20 Khz ( y yo creo que muchos apenas llegan a 18 Khz) ¿Entonces? ¿No bastaría el CD?
Pues en mi opinión y esto es mi teoría personal, tener más muestreo para más anchura de banda es una tontería aunque voy a demostrar que no lo es tanto para las frecuencias altas, pero eso no invalida que el CD pueda valer de sobra como formato. Pero es que yo creo que por ahí no van los tiros (e insisto en que lo que voy a decir es una teoría personal mía ) .
Yo creo que el oído o el ser humano, como se quiera, sí que se entera de la discontinuidad temporal (muestras discretas) mucho, pero mucho más de lo que se había pensado (en realidad, es que no se había pensado). Y esa teoría es la única que puede explicar algunas cosas que pasan con el audio que no entiendo y que nadie ni nada, de momento salvo esa teoría, pueden explicar. Y ya entraré en ella, a ver qué opináis.
Matías,
Cuando dices discontinuidad temporal, ¿te refieres al "ancho de los escalones"?
La cuestión es precisamente esa: ¿cual es la máxima frecuencia de oscilación del tímpano? Supongo que cualquier cosa que estuviera por encima sería imperceptible (algo así como la imagen, por encima de una frecuencia de barrido, no se perciben diferencias).
Sí . Fíjate en un detalle . Un tono a 22.050 Hz madamente es muestreado 2 veces cada segundo (a 44.100 khz) . Si la onda es una S puesta en horizontal tenemos una cresta superior y una inferior, o sea, 2 . Nuestera representación geométrica será como dos triángulos (como la gráfica de la bolsa, trazas desde el origen de coordenadas una línea oblicua derecha hacia arriba, de ahí hacia abajo, oblícuamente también, pasas el eje de abcisas y estás en la parte negativa del eje de ordenadas hasta el mínimo, y luego subes otra línea oblícua hasta volver a cortar el eje de abcisas) . Como verás, un triángulo no se parece mucho a una curva . Eso una cosa.
La otra, es lo que apuntas . Nosotros oímos el sonido contínuo . Un pitido conínuo . Pero el audio digital no lo hace así . En un segundo, en el caso del CD realmente hay 44.100 cortes (muestras) . ¿en qué punto nos enteramos?
Porque a la vista, sí sabemos que existe un efecto de persistencia en la retina y que la podemos engañar . Si eres capaz de proyectar 24 fotogramas por segundo (es decir, 24 Hz) percibimos la sensación de movimiento lo que ha hecho posible no sólo que existan los dibujos animados, sino el mismo cine.
Pero,¿y con el oído ? ¿qué es lo le que pasa? ¿cuándo le da lo mismo? ¿O es nuestro cerebro quien tiene que trabajar para recomponer la información auditiva? ¿explica eso la fatiga auditiva de mucha gente que oye fuentes digitales y no le pasa lo mismo con las analógicas pese a sonar peor?
Voy a pasar este hilo a la primera página antes de que se pierda aprovechando que quiero puntualizar algunos aspectos de lo que es el error de cuantización.Iniciado por eco
Aunque pueda sorprender la afirmación, nuestros reproductores de CD no sufren del error de cuantización. ¿Por qué? Porque no redondean nada.
El redondeo, y por lo tanto el error de cuantización, se produce en la conversión analógica a digital. Aunque el nombre sea muy rimbombante, estamos hablando de un error de redondeo porque necesito convertir valores continuos a discretos. Y entonces un rango determinado de valores lo tengo que convertir a un mismo número. 6,1 o 6.2 o 6.3 para mi serán 6. El error de redondeo es fácil de calcular y para 5.5001 ó 6.4999 será el máximo y para 6.0000 será mínimo y nulo. Hay es donde nos aparece el escalón.
Pero a la hora de convertir los números muestreados en un continuo, los amiguetes Nyquist y Shannon ya nos garantizan que, si interpolamos de forma inteligente, la reconstrucción de la señal (si has sabido protegeter del error en el muestreo) es perfecta. Si si, como leeis, es perfecta.
¿Que es interpolar? pues es el valor que pinto en mi gráfica analógica cuando estoy en un instante que no es el que coincide con una muestra, sino entre dos muestras. Se puede ver en esta gráfica:
La interpolación es lo que tengo que "inventarme" para saber que pinto "entre flechas".
Que opciones hay. Como siempre empezamos por la mas tonta.
Considero que los valores son constantes desde que pillo la flecha hasta la siguiente. Es decir, que aparece "la escalera". No es muy apañado.
Hasta a un chiquillo se le hace evidente que es más suave trazar una linea entre el extermo de una "flecha" y el extremo de la siguiente. Es la típica señal de pendientes constantes. Es lo que habitualmente (en sentido de coloquial) se entiende por reconstrucción de la señal digital y por eso se piensa que un tono a 20 KHz muestreado a 44.1 KHz, al reconstruirse salen unos "triangulos" extraños.
Pues no termina de convencer. Si fuesemos tan listos como Shannon ya estariamos pensando en una técnica en la que las pendientes se suavizarán. Y es más, si nos aseguramos que la señal está acotada en frecuencia a menos de la mitad de la frecuencia de muestreo, a lo mejor la reconstrucción puede hacerse "fetén".
Shannon dice, voy a interpolar empleando esta función tan "perra".
Donde ajusto el ancho entre 0 y 2 al doble de la distancia entre flechas. Está función es un tono de 22.05 KHz (la mitad de la frecuencia de muestreo) atenuado en el tiempo (el eje x como podeís suponer es de tiempos y el y de amplitudes).
¿Y como interpolo con este "churro" las "flechas" y saco algo que tenga sentido.
Ahora voy.
EDITO: Se han "perdido" los links de los gráficos. Los enlazo de nuevo.
Hoy ando un poco liado pero no podía dejar pasar la ocasión de trasladar mis felicitaciones a wynton por sus galones bien merecidos, porque ya es MAESTRO DEL DVD.
Un saludo
¿Como hacemos la interpolación? Pues pintaís en una gráfica los valores discretos de la señal digital como puntos e imprimis a papel de transparencia la curva de sinc que os he enseñado. Hay que cuidar las escalas de forma que se cumpla que el ancho entre el cero y el uno del "tono atenuado" coincida con el ancho entre puntos que habeís dibujado.
Y ahora vais desplazando la transparencia por la hoja de los puntos y os paraís en el instante que queraís. Uno cualquiera, a voleo.
Y haceís algo como lo que veís en la gráfica que os pongo.
Los puntos gordos son las muestras, y hemos situado el "tono atenuado" en un punto arbitrario. Buscais los puntos de la curva de interpolación que estan en la misma abcisa que las muestras. Son los coeficientes del filtro que vamos a aplicar y se marcan por los puntos finos.
Ahora se multiplica cada punto gordo por su punto fino (coeficiente) asociado y se suman.
¿Pero cuantos se suma? Pues unos pocos nada más. Concretamente desde menos infinito hasta más infinito y la cosa queda perfecta.
¿Qué lleva tiempo? ¡Pues vaya queja! Nada, nada, menos ir de tiendas y más "codos".
De todas formas ya veís que el tono atenuado llega un momento un poco antes de infinito en el que los coeficientes de multiplicación son tan pequeños que podemos despreciarlos.
Por cierto: ¿Y que pasa cuando nos paramos en un punto que coincide con una muestra? Despues de tanto cálculo de coeficientes y tanta suma: ¿Nos da el valor de la muestra?
¿Es esto lo que hace un DAC en su filtro? Pues seguro que exactamente no. Ya sabeís que por ahorrar tiempo muchas veces se toma el método y se va simplificando.
Me lo tengo que estudiar, porque yo ahora mismo no tengo ni idea. ¿Alguien lo sabe?
Hay CD's que presumen de hacer interpolaciones por algoritmos de Bezier y cosas así. Mal negocio: si es demostrable que con la función sinc reconstruyes la señal ¿para que usar otras, por "sexys" que sean?
Os pongo en enlace a la fuente de la gráficas:
http://ccrma-www.stanford.edu/~jos/r...e/resample.pdf
EDITO: Corrigo el link de la gráfica.
Hola Jorge,
edito tu mensaje para "machacar" el tema. Porque en esto del audio digital, el sampling, el dithering y los bits hay tanto mito que hay que repetirse como un papagayo para que todo quede claro.
Gracias por aclararnos que, en efecto, este rollo matemático es demostrable. Con dos puntos y un poquito más por ciclo se puede reconstruir un tono puro a 20 KHz "perfecto". No es una triangular ni nada de eso.Iniciado por Jorge Ruiz
Y por lo tanto: si la señal está limitada en frecuencia a 20 KHz, en (casi) nada va a mejorar el que se muestree a 96 KHz o a 192 KHz. El tono de 20 KHz va a salir igual de "guapo". Ni mejor ni peor.
Bueno, hay algún matiz sobre atenuaciones de agudos debidos al filtro de la grafica (si, si, el "tono atenuado" es lo que llamamos un "filtro". Concretamente es un "filtro analógico"). Por eso muchas veces vemos en las características de un reproductor lo de 5 Hz-20 KHz +/-0.5 dB como ancho de banda. Es el filtro.
Es decir que el filtro puede atenuar un tono de 20 KHz grabado en un CD en alrededor de 0.5 dB. En un DVD-audio está atenuación será 0 dB. Pero....en cuanto a distorsiones, las mismas.
Está es la gran faena de formato CD-audio. Es demasiado malo (por bueno) para los responsables de marketing de las empresas del sector. Les cuesta mucho convencer a la gente de que necesitamos algo más alla del PCM 16 bits-44.1 KHz. Estoy seguro que a estas alturas de la "batalla" los responsables de Sony y Philips deben estar bien arrepentidos de lo que hicieron al inventar el CD.
Esto hay que repetirlo hasta la saciedad. El teorema de Nyquist es cierto y la reconstrucción de señal es PERFECTA matemáticamente siempre que la señal cumpla que no tiene componentes de frecuencia mayor de la mitad de la frecuencia de muestreo.Iniciado por Jorge Ruiz
Y es que hay webs de fabricantes de "agua bendita digital" que para mostrar sus ejemplos se pasan por el forro el teorema de Nyquist.
Y ahora sigo que nos vamos a divertir (algunos) con el rollo del marketing si le aplicamos un poco de matemáticas.
Otro ejercicio matemático cachondo:
En el papel de los puntos PCM (los puntos negros "gordos") pinto una señal que no cumple el teorema de Nyquist. Pinto diez puntos a cero seguidos, uno aislado a 1, y otros diez seguidos a cero.
¿que señal es esta? Pues como no cumple con el teorema de Nyquist (por su ancho de banda no está acotado a la mitad de la frecuencia de muestreo) puede ser cualquier cosa.
¿Como sé que no cumple el teorema de Nyquist? Porque no veo que la curva se repita con una cadencia mayor que dos puntos. Por culpa del pico que hemos pintado. Es (más o menos) una Delta de Dirac.
¿Que ocurrirá si le paso la curva "del algodón" o "tono atenuado" (le voy a llamar a partir de ahora "filtro analógico") a estos puntos cachondos? Pues que en salida analógica obtengo EXACTAMENTE cómo es el filtro empleado.
Y ahora recupero el hilo:
https://www.forodvd.com/cgi-bin/YaBB...66;start=20#22
A ver si consigo encajar las piezas del puzzle que quiero montar.
Mirad esta gráfica que está en el hilo citado:
Donde pone "Analog" podemos ver la dichosa Delta de Dirac (los 10 puntos a cero, 1 a 1, y otros 10 a cero).
Y al pasar esta Delta por el filtro de un CD queda....el filtro del CD (nos han puesto el filtro a 48 KHz, pero a 44.1 KHz será su primo). Y al pasarla por un filtro para PCM 96 KHz queda...el filtro de esta señal. ¿Y con un DVD-audio? Lo mismo.
¿Y con el DSD? ¡Ojo! que aqui no hay filtro propiamente implementado. Esto no es PCM. Lo dejamos para luego. Pero (por tocar las narices) si pasara el DSD a PCM en "trenes" de una frecuencia que ahora no tengo ni idea de cual puede ser (¿ayuda?), tendriamos que pasarle ESE filtro que veís. Es decir, en DSD no hay filtro pero la respuesta nos muestra que el resultado es como si lo hubiera. Lo único que la frecuencia de muestreo PCM equivalente al DSD es del copón.
Y claro, a más frecuencia más se aproxima el filtro a una Delta de Dirac. Si nos ponemos así muestreamos a 100 MHz y entonces ya no vemos el filtro, porque es más fino que la Delta que vemos pintada. Veriamos la Delta en salida. Y veriamos a los altavoces tirarse un "pedo de tweeter". Digo veriamos porque oir, dudo que oigamos nada.
Y me paro aquí de momento.
Error, de eso nada . Han ganado el dinero que no está escrito tanto con el audio como con la informática, con los dos . Y eso por no hablar del prestigio conseguido y la publicidad pseudogratuita .Iniciado por wynton
El problema es que se acaban los royalties y hay que buscar alternativas y por eso surge el Sa-CD.
Wynton, lo que comentas me parece muy interesante al punto de que me gustaria mencionarlo en un foro foraneo a ver que dicen por alli que 50 cabezas (o 100 oidos) y sus comentario sy opiniones son mejor que 5 a la hora de material para discusion. ¿No te parece?
Lo que ocurre es que me confunde un poco tu planteamiento. ¿Debo entender que lo que estas planteando es que en el famoso grafico para defender las virtudes del SACD lo que vemos reflejado es el efecto de los filtros utilizados con cada formato? ¿Significa esto que estas diciendo que el PCM es mejor que el SACD?
Ahora, hay otra parte en la que -si te entiendo bien- estas diciendo que no es necesaria la alta resolucion porque el humilde CD libro rojo lo resuelve todo. Entonces, ¿de donde salen las frecuencias medias mejor definidas que noto en los discos de alta resolucion? ¿De donde sale el sonido menos metalico y estridente que noto en ellos normalmente?