Transcripción
Sin duda, uno de los aspectos más polémicos del audio digital es el uso de frecuencias de muestreo que exceden los requerimientos teóricos expuestos por Nyquist, Shannon y los demás científicos que investigaron el tema. Anteriormente, discutimos algunos aspectos que justificarían el uso de frecuencias de muestreo de 48kHz. Ahora bien, ¿hay un verdadero beneficio audible al utilizar frecuencias de muestreo de 96kHz o 192kHz? A continuación, discutiremos esta interrogante.
Existen experimentos que apoyan las propuestas presentadas en distintas ocasiones para aumentar la frecuencia de muestreo estándar a 96kHz o 192kHz. Sin embargo, al analizar cuidadosamente dichos experimentos, es posible identificar errores determinantes que invalidan su veracidad.
Evaluemos un primer mito que asegura que es posible escuchar la diferencia entre una onda sinusoidal de 10kHz y una onda cuadrada de la misma frecuencia. La diferencia entre una onda sinusoidal y una cuadrada es perceptible a partir del tercer armónico. En el caso del ejemplo, este se ubica en 30kHz, fuera del rango audible. Para nuestra sorpresa, la diferencia entre ambas ondas sí es audible. Sin embargo, la razón no tiene que ver con el ancho de banda de la señal, sino con el comportamiento no lineal del equipo de audio. De hecho, ni siquiera el oído humano es perfectamente lineal. Esto significa que, tanto el equipo de audio, como el oído, reaccionan diferente ante una onda sinusoidal de 10kHz y una cuadrada de 10kHz, ya que cada una tiene energía distribuida de manera diferente. Es importante comprender que cualquier diferencia no se debe al ancho de banda permitido por una u otra frecuencia de muestreo.
Evaluemos ahora un segundo mito, el cual consiste en el siguiente experimento. Una señal a 96kHz es duplicada. Una copia se envía directamente al interruptor de salida. La otra copia pasa por un proceso de decimation para convertirla a 48kHz y luego una interpolación para convertirla de nuevo a 96kHz. Finalmente, procede al interruptor de salida. Así, el usuario puede comparar la señal a 96kHz con la señal a 48kHz.
Una manera alternativa de presentar este experimento es convertir una grabación de 96kHz a 48kHz en el DAW y luego de nuevo a 96kHz. Recordemos que es necesario convertir de nuevo a 96kHz para comparar ambas señales, ya que el driver de la interfaz de audio muy probablemente no será capaz de operar a dos frecuencias de muestreo diferentes.
Este experimento presenta serios problemas. Los procesos de decimation e interpolación degradan la señal de audio, de manera inevitable. No es extraño, entonces, que el usuario prefiera la señal sin procesamiento, llegando así a la conclusión errónea de que 96kHz suena “mejor”.
Figura 14.6. Experimento
Una manera de realizar este experimento sin poner la señal de 48kHz en desventaja, consiste en reproducir la degradación que sufre la señal a 48kHz y aplicarla a la señal de 96kHz. Es decir, a la señal de 96kHz se debe agregar el ruido asociado con las aproximaciones aritméticas en la decimation e interpolación, así como la respuesta de fase de los filtros utilizados en dichos procesos. En una versión ideal de este experimento, será imposible escuchar la diferencia.
Finalmente, algunos fabricantes han demostrado que sus convertidores suenan “mejor” a 96kHz que a 48kHz. Ahora bien, esto puede deberse a diversas razones, no necesariamente a que un aumento del sample rate sea beneficioso por sí mismo. Como estudiamos anteriormente, si un convertidor con oversampling tiene filtros con un desempeño subóptimo para el proceso de decimation, al duplicar la frecuencia de muestreo, el ruido se repartirá en un ancho de banda mayor, por lo que su amplitud será reducida. Esto, a su vez, da la ilusión de que el convertidor suena “mejor”.