Transcripción
Al incrementar la cantidad de canales y el procesamiento aplicado dentro del DAW, se exigirá más capacidad de procesamiento por parte del CPU. Si la señal que estamos utilizando para la referencia de un músico al grabar es la que sale del convertidor D-A, luego de pasar por la computadora, es posible que experimentemos un retraso entre el momento en el que el músico toca el instrumento y el momento en el que se escucha (Figura 7.6). Esto fenómeno es conocido como latencia.
Figura: Flujo de señal de monitoreo
Una opción para superar este inconveniente es que la señal que escucha el músico sea una copia tomada luego de los preamplificadores de la interfaz, antes de que pase por el convertidor A-D e ingrese a la computadora. A esto se le conoce como monitoreo directo.
En algunos casos, requeriremos procesar la señal en la computadora para que luego el músico la escuche. Por ejemplo, cuando aplicamos emulaciones virtuales de amplificadores de guitarra, el músico suele preferir escuchar la señal luego de pasar por el amplificador. En este caso, debemos realizar algunas configuraciones para asegurar que el tiempo de latencia sea el mínimo posible. De lo contrario, esto podría dificultar el proceso de grabación.
El principal parámetro que se debe observar para modificar el tiempo latencia es el buffer size, o tamaño del búfer. Dicho parámetro se ajusta en el software de control del driver de la interfaz. Un driver es un software que permite la comunicación entre un dispositivo físico y el sistema operativo.
Figura: Configuración del buffer size
El buffer size se mide en cantidad de muestras, por lo que su duración en milisegundos depende del sample rate. Por ejemplo, un buffer size de 512 muestras dura 10.7 milisegundos a un sample rate de 48 kHz, y 5.3 milisegundos a un sample rate de 96 kHz. Cuanto menor sea el buffer size, menor será el tiempo de latencia. No obstante, un buffer size muy bajo puede provocar un flujo de señal inestable, lo que resulta en ruidos e interrupciones en la señal.
Para comprender a profundidad el funcionamiento del buffer size, utilicemos una analogía. Imaginemos que deseamos desplazar una cantidad de personas de una orilla de un río, hacia la otra orilla. Para esto, disponemos de dos barcas.
Figura: Analogía: estado inicial
Las personas empiezan a subir a la primera barca. Cuando está llena, la barca se desplaza a la otra orilla. Mientras tanto, las personas en la primera orilla suben a la segunda barca. Para cuando la segunda barca está llena de personas y zarpa hacia la segunda orilla, la primera barca ha regresado a la primera orilla.
Figura: Analogía: punto intermedio y final
Cuanto más grande sean las barcas, más personas pueden ser trasladadas en un solo viaje. No obstante, hay que esperar una mayor cantidad de tiempo para que la barca se llene y las primeras personas lleguen a la segunda orilla. De esta manera, se ahorra combustible para las barcas, pero se toma un poco más de tiempo. El tiempo de espera para llegar a la otra orilla es mayor, pero se consume menos recursos.
De manera similar, si las barcas fueran muy pequeñas, se llenarían rápidamente. Por lo tanto, las primeras personas llegarían a la otra orilla, luego de un tiempo de espera más corto. No obstante, se necesitaría realizar una mayor cantidad de viajes. En este caso, el tiempo de espera para llegar a la otra orilla es menor, pero se consume más recursos.
El buffer size es el tiempo que se toma la computadora para procesar el audio entrante, análogo al tiempo que se tarda cada barca en llenarse. Cuanto mayor sea el buffer size, más tiempo dispone la computadora para procesar el audio, por lo que la exigencia de procesamiento es menor y el tiempo de latencia es mayor. Lo contrario sucede al disminuir el tamaño del buffer size.
Una latencia de menos de 3 milisegundos es imperceptible para el cerebro humano. El cerebro interpreta una latencia de 6 o 7 milisegundos como dos señales ligeramente desfasadas, pero no son percibidas como señales separadas. Periodos de latencia superiores a 10 milisegundos generan un retraso notorio entre la emisión y la reproducción de la señal, lo cual vendría a dificultar los procesos de grabación.
Es importante enfatizar que mantener un tiempo corto de latencia es importante únicamente durante las sesiones de grabación. Durante las etapas de post-producción, incluyendo la edición, la mezcla y la mastering, los niveles de latencia pierden su importancia, pues el material que se reproduce no está siendo interpretado en vivo, por lo que el retraso entre el momento en el que el DAW lee la información y el momento en el que se escucha a través de los monitores no es relevante.
Por consiguiente, es recomendable configurar un buffer size tan bajo como sea posible al grabar, y tan alto como sea posible al realizar otros procesos. De esta manera aliviaremos la carga de procesamiento al CPU. Esto es importante durante la edición y mezcla, donde se cargan numerosos plugins que demandan mucha capacidad de procesamiento.