TUS PRIMEROS PASOS EN PRODUCCIÓN

AUDIO DIGITAL, ¿QUÉ ES Y CÓMO FUNCIONA?

La gran tendencia actual de grabación en casa se ha hecho cada vez más popular, especialmente en los últimos años y la razón de esto es muy simple: el equipo analógico de los grandes estudios se ha ido reemplazando por una nueva generación de software, interfaces de audio, emuladores y equipo digital que es más barato y fácil de usar. 

Todo esto es posible gracias al audio digital, que hoy en día es el estándar en casi todos los estudios tanto profesionales como amateurs. A pesar de esto, hay muchísima gente que no entiende realmente el funcionamiento. Por esto, el día de hoy hablaremos de los conceptos básicos del audio digital para grabar música. 

Primero comencemos aclarando algunos conceptos básicos.

Sonido vs Sonido Digital

Es importante entender la diferencia. El sonido es una vibración o conjunto de vibraciones que se propagan por un medio elástico como, por ejemplo, el aire. En el entorno análogo, las vibraciones son captadas por las membranas de los micrófonos que convierten esto en señal eléctrica. Esa señal es interpretada por los dispositivos análogos como consolas, hardware y bocinas. 

Sin embargo, estas señales análogas no son compatibles con un ordenador. Son meras señales físicas, fuera del mundo digital. 

¿Entonces qué es el audio digital?

Las computadoras trabajan con un lenguaje binario (unos y ceros). Así que para que puedan interpretar nuestra señal de audio, ésta debe convertirse en código binario también. A esta señal de 1 y 0, se le conoce como audio digital. 

Ventajas del sonido digital

Hay muchas ventajas del sonido digital, sobre el análogo. 

  • Los sonidos digitales no pierden calidad con el paso del tiempo, mientras que los soportes análogos si sufren un deterioro. 
  • La calidad del audio es mejor, aunque hay muchas personas que atesoran la textura y carácter del sonido análogo. 
  • La manipulación del sonido digital es mucho más sencilla y ofrece muchísimas posibilidades que el audio análogo no. 
  • El almacenamiento del audio digital puede ser infinito, mientras que el análogo está limitado por un espacio físico. 
  • Se puede copiar tantas veces como se quiera sin perder calidad. En el audio análogo no. 
  • Se pueden transferir por internet a cualquier parte del mundo y por muchísimos medios. El análogo debe transportarse físicamente. 

Y es por todas estas razones que el audio digital es quien domina la producción musical hoy en día.

Conversores Digitales

Ya sabemos que es una señal de audio digital, pero ¿cómo se crean? Bien, como explicamos anteriormente, el sonido viaja por el aire y es transformado en audio análogo (señal eléctrica) por micrófonos. Pues bien, el audio digital surge cuando las señales eléctricas de audio son convertidas en combinaciones de 1 y 0 mediante un convertidor de señal conocido como sampler o conversor digital

En los estudios de grabación encontramos dos tipos de convertidores. 

  • Dispositivos independientes: son aquellos que normalmente veremos en los estudios más avanzados ya que ofrecen mucha mejor calidad de conversión pero tienen mucho mayor costo. 

Dispositivos integrados: vienen en las interfaces de audio y son las más comunes en estudios amateurs.

¿Cómo funcionan?

Para realizar la conversión a código binario, el convertidor toma decenas de miles de muestras (samples) por segundo para hacer una “imagen” aproximada de la forma de onda analógica. Estas imágenes no son exactas (y probablemente nunca los serán) porque entre cada muestra existe un espacio el cual el convertidor tiene que adivinar lo que hay. Podemos observar en la siguiente imagen:

conversores-digitales

Aquí podemos ver que la línea roja es la señal de audio análoga y la línea negra cuadrada representa la señal digital, donde cada “renglón” es una muestra. 

Los resultados no son perfectos, pero son suficientemente buenos para generar un excelente sonido. ¿Pero qué tan excelentes son? Bueno, eso depende del siguiente concepto:

Frecuencia de Muestreo

Para entender qué es la frecuencia de muestreo y qué impacto tiene en la calidad del audio digital, es más fácil que lo hagas a través de esta imagen:

frecuencia-de-muestreo

En la imagen de la izquierda tiene menor frecuencia de muestreo, es decir hay menos muestras por segundo. Por el contrario, en la imagen de la derecha tenemos muchas más muestras, haciendo que la línea negra (la señal digital) se parezca mucho más a la línea roja (señal análoga). 

Entonces, entre mayor frecuencia de muestreo, mayor calidad de audio digital. Pero esto también tiene un precio, entre mayor sea el número de muestras por segundo: 

  • Mayor será la carga de procesamiento para la computadora. 
  • Menor el número de pistas de las que dispondremos. 
  • Los archivos de audio serán más pesados. 

Así que, es importante evaluar lo que estás dando a cambio de esa calidad. Para saberlo más atinadamente, a continuación te mostraré las frecuencias de muestreo más usadas en en audio digital. 

  • 44.1kHz (la que utilizan los CD de audio)
  • 48 kHz
  • 88.2 kHz
  • 96 kHz
  • 192 kHz

El mínimo de 44.1 se debe a un principio conocido como El Teorema de Muestreo de Nyquist-Shannon. 

Trataré de explicarlo sin entrar en detalles demasiado específicos, de la manera más simple y comprensible que se pueda:

Las frecuencias que oímos oscilan entre los 20 Hz y los 20 kHz. Para que nuestro muestreo funcione, se necesitan por lo menos dos muestras por cada ciclo de onda, por tanto, el mínimo de Hz que habrá será 40kHz. 

¿Cuál me conviene usar?

En estudios donde tengan el equipo y hardware suficiente para procesar y almacenar mayores frecuencias de muestreo, será lógico que usen 96kHz o inclusive 192kHz, pero para el usuario estándar lo conveniente es 48kHz. Ahí hay buena calidad y sin demasiadas complicaciones.

Profundidad de Bits

Para entender la profundidad de bits, primero hay que entender qué son los bits. Se trata de la unidad más básica en un código binario, es el elemento que contiene la información básica de un 1 o 0. 

Entre más bits haya, habrá más combinaciones de 1 y 0. Por ejemplo, si tenemos sólo 2 bits, tendremos un total de cuatro opciones:

  • 11
  • 10
  • 01
  • 00

Pero si tenemos cuatro bits, habrá 16 combinaciones. Estas combinaciones aumentan de manera exponencial:

  • 4 bits = 16 valores posibles.
  • 8 bits = 256 valores. 
  • 16 bits = 16,536 valores. 
  • 24 bits = 16,777,215 valores. 

A cada uno de estos bits, se le asigna un valor específico que contiene información de nuestras señales.  Entonces, entre más bits, más detallada será nuestra información. 

En el caso específico del audio, a los bits se les asigna un valor de amplitud específica. Por lo que, a mayor cantidad de bits, mayor incremento de del rango dinámico del volumen. 

Una regla bastante clara: por cada bit extra, el rango dinámico aumenta en 6dB. 

  • 4 Bits = 24 dB
  • 8 Bits = 48 dB
  • 16 Bits = 96 dB
  • 24 Bits = 144 dB

¿Pero esto se trata realmente de volumen? No necesariamente. Esto lo que va a significar es lo siguiente: a mayor profundidad de bits, mayor rango dinámico, por lo que nuestra señal se va a separar más del ruido de piso natural de cada señal. Por lo que, a mayor profundidad de bits, habrá menor ruido.

Ruido de Cuantización

Una grabación de 24 bits cuenta con casi 17 millones de valores, un número que podría lucir muy impresionante, ¿cierto? Sin embargo, si lo comparamos con la infinita cantidad de posibilidades que hay en una señal análoga, sigue siendo lejano a la realidad. 

Por más muestras y más bits que usemos, siempre va a existir un espacio entre cada muestra. La solución del conversor será redondearlo al valor más cercano. Esto generará una distorsión inevitable conocida como ruido de cuantización. 

Este proceso sucede dos veces en nuestra fase de producción: 

  1. Al hacer la conversión Análogo/Digital. 
  2. Al final, durante la masterización, donde la frecuencia de muestreo y la profundidad de bits se reducen a los formatos de uso cotidiano como el CD, mp3, etc. 

Existe una solución para este problema, conocida como Tramado

Tramado

Este proceso se utiliza para esconder los eventuales ruidos resultantes de una conversión de 24 bits a 16 bits. Se logra al añadir un ruido aleatorio de bajo nivel a nuestra señal. Para entenderlo mejor, se suele usar un ejemplo de imágenes. 

Supongamos que tenemos una foto de color que queremos pasar a blanco y negro. Cada pixel tendrá que recibir un valor de blanco o negro, por lo que el resultado muchas veces es poco convincente. Sin embago a esa foto se le agragan pixeles aleatrorios de blanco o negro, generando una textura que vuelve a dar sentido a la imagen.

tramado

En el audio funciona exactamente igual

Latencia

Uno de los mayores problemas que enfrentan los estudios es la latencia. Especialmente en los DAWs, el tiempo que puede tomarle al CPU procesar toda la información de conversión puede generar un pequeño retraso entre la señal que se toca y la que se escucha. 

La diferencia es usualmente entre unos cuantos milisegundos o hasta docenas de milisegundos. Puede que el término milisegundos te pueda parecer poco. pero en la práctica influye muchísimo. Imagina que estás grabando algo y que lo que escuchas va un tanto retrasado a lo que estás tocando… sentirás la necesidad de ajustarte y tocar más retrasado… y nunca conseguirás alienarte, solamente tendrás una ejeción pobre y defectuosa. 

Hay tres tiempos de latencia: 

  • 0 a 11 milisegundos: diferencia mínima que es imperceptible para el oído humano. 
  • 11 a 22 milisegundos: se escucha un retraso que ya puede resultar molesto para tocar. 
  • más de 22 milisegundos: un retraso que ya hace imposible tocar encima de la pista. 

Hay cuatro puntos que pueden estar generando este retraso: 

  1. Conversión A/D. 
  2. Buffer del DAW (el tiempo que toma al CPU procesar esta información).
  3. Delay de los plugins. 
  4. Conversión D/A

La latencia de conversión suele ser la menos problemática, en total, sumando ambas conversiones, suele dar una suma de 5 ms. 

Las latencias nocivas vienen del buffer y de los plugins. Por parte de los plugins, no hay una solución, lo mejor es apagarlos durante una grabación y ya dejarlos prendidos en los procesos de muestra, donde la latencia no importa. 

En cuanto al buffer, cada DAW tiene una configuración interna en donde tú escoges cómo va a trabajar. Los tiempos del buffer se miden en la cantidad de muestras que procesarán por cada “tanda”. Entre más muestras procese, mayor latencia tendrá… pero será menor el trabajo de exigencia para el CPU. Así que tienes que probar distintas combinaciones para ver cuál tiene el mejor balance entre el retraso y el esfuerzo para tu CPU. 

La mayoría de los DAW´s trabajan bajo estas configuraciones:

latencia

Para saber cuánta latencia tiene tu configuración del Buffer, tienes que dividir el número de muestras entre la frecuencia de muestreo de tu sesión. 

Es decir si escogemos trabajar a 1024 samples en una sesión de 44.1kHz, dividimos 1024 entre 44.1. Obtendremos una latencia de 23 ms, muy alta para grabar. Esta configuración se usará para mezclar. 

Normalmente estos pasos deben bastar para manejar la latencia.

Reloj Maestro

Hoy en día almacenamos música en todo tipo de dispositivos, y para poder hacerlo, muchas plataformas se apoyan en formatos de audio comprimidos para ser lo menos pesados posibles. 

Los formatos más usados son el mp3 y el ACC, que pueden hacer el archivo hasta 10 veces más chico. ¿Pero cómo funciona?

Se basa en un proceso llamado enmascaramiento sonoro, que hace posible eliminar mucha información musical, llevándolo al límite de lo perceptible. Es decir, mantiene la mínima cantidad de información necesaria para poder seguir entendiendo la música. 

Para oídos expertos, esta diferencia es notable, mientras que para la mayoría de los consumidores promedio, no. 

La cantidad de información que será eliminada, depende de la tasa de bits del archivo. A mayor cantidad de bits, menor la pérdida de información. 

Por ejemplo, con mp3:

  • 320 kbit/s es la máxima tasa de bits posible.
  • 128 kbit/s es el mínimo recomendado.
  • 256 kbit/s es el punto medio y la opción preferida para la mayoría.

¿Cuál es la adecuada? dependerá de tus necesidades.

Codificación Mp3 y ACC

Cuando dos o más dispositivos intercambian información digital en tiempo real, es necesario que sus relojes internos estén perfectamente sincronizados, de lo contrario las señales estarán fuera de sincronía, ocasionando un ruido muy molesto. 

Para mantener una sincronía perfecta, es necesario que haya un dispositivo cuyo reloj sea el maestro y el resto sean los escalvos. 

En los estudios sencillos, esta función maestra la tendrá la interfaz de audio, mientras que en estudios más profesionales se utilizan dispositivos independientes llamados Relojes Maestros. 

Tener una buena sincronía digital puede hacer una gran diferencia.

Conclusión

Ahora conoces mejor los conceptos básicos del funcionamiento del audio. Con esto puedes hacerte una mejor idea del funcionamiento del hardware de un estudio. Espero que este artículo haya sido de utilidad. 

¡Hasta la próxima!