Queremos compartir con ustedes lo que vivimos en la Conferencia Anual AES México 2019 a finales de abril pasado, así que estaremos publicando nuestra interpretación de algunas de las conferencias que ahí se dieron y la experiencia de algunos de nuestros alumnos como voluntarios en la organización del evento. Sin más, les presentamos un resumen del primer evento.
Nada menos y nada más que el ingeniero en audio Jonathan Wyner (producción y masterización de proyectos con James Taylor, David Bowie, Aerosmith, Kiri Te Kanawa, Aimee Mann, London Symphony, Miles Davis, Semisonic, Thelonius Monk, Pink Floyd, Cream, Bruce Springsteen y Nirvana entre muchos otros), presentó la primera conferencia del ciclo, intitulada “Loudness deconstructed”- Sonoridad deconstruida. Comenzó haciendo la pregunta ¿dónde ocurre la sonoridad? ¿En qué momento podemos decir que un sonido suena demasiado fuerte? Y nos ayudó a darnos cuenta de que esto no ocurre cuando se crea el sonido y mucho menos al momento de capturarlo, grabarlo o transmitirlo en algún formato. El concepto de “demasiado fuerte” ocurre en nuestra percepción, dentro de nuestra mente. El ser humano ha evolucionado con un concepto de sonoridad que está programado directamente en nuestro cerebro.
“La sonoridad no ocurre in-the-box; no ocurre en la fuente. Ocurre en nuestro cerebro”.
La sonoridad es una medida subjetiva de la intensidad con la que un sonido es percibido por el ser humano.
Wyner nos recordó que el sistema auditivo humano no percibe todas las frecuencias igual. Las curvas de Fletcher - Munson que con el tiempo evolucionaron a las curvas isofónicas, nos muestran cómo el oído humano “siente” algunas frecuencias con mayor sonoridad que otras aunque todas tengan la misma presión sonora. Los seres humanos percibimos las frecuencias entre 1,000 y 4,000 ciclos por segundo con mayor intensidad que las que caen fuera de ese rango.
Nos explicó cómo el sonido del llanto de un bebé cae dentro del rango mencionado. Además, ahí también se encuentra la articulación de las consonantes, que permite la inteligibilidad en la palabra hablada. ¡Por eso “escuchamos ese rango más fuerte”! Supervivencia y comunicación- dos de las principales razones para la evolución del sistema auditivo de los seres humanos al día de hoy.
Curvas isofónicas que muestran cómo percibimos distintas frecuencias como si tuvieran mayor o menor nivel de intensidad sonora
Acto seguido, hizo sonar un sonido con una frecuencia de 1,000 c/s y otro con la misma presión sonora pero de 16,000 c/s y la diferencia en la percepción de nivel de intensidad fue muy clara: ¡el sonido de 1 kHz sonaba fuertísimo mientras que el de 16 kHz sonaba quedito aun cuando ambos eran generados con la misma presión sonora!
Continuó haciéndonos ver cómo la sonoridad da significado: el coro de una canción suena más fuerte que el verso y eso le da más impacto; si una canción suena más fuerte que otra, sentimos que suena mejor; tus papás te gritan mientras que tu pareja te susurra al oído… Necesitamos oscuridad para apreciar la luz; ruido para apreciar el silencio. Así, necesitamos momentos que suenen menos fuerte para apreciar los momentos que suenan más fuerte. A esto se le llama dinámica- la relación entre el sonido más fuerte y el más quedito-. Al perder dinámica, podemos perder la belleza de una interpretación musical.
La dinámica le aporta belleza a una interpretación musical
Existen diversas herramientas para medir el nivel de intensidad sonora: peak level es una medida instantánea de nivel que sirve para entender la relación entre el pico más alto y la distorsión en una señal, pero no sirve para entender la sonoridad, ya que nuestro oído necesita un periodo de tiempo para entender el nivel sonoro.
Una medición RMS es un cálculo del nivel promedio de una señal durante 300 milésimas de segundo (RMS viene de root mean square, o sea la raíz cuadrada del cuadrado del promedio de una señal durante un tiempo). Esa ventana de tiempo es parecida a la que nuestro sistema auditivo necesita para entender la sonoridad, así que una medida RMS se acerca más a nuestra percepción de intensidad sonora. Pero ninguna de estas formas de medición toma en cuenta la frecuencia. Debemos tomar en cuenta la frecuencia para medir la intensidad sonora que el ser humano va a percibir.
(Podemos medir la intensidad sonora usando unidades llamadas decibeles. Para un pequeño repaso al respecto, échense un clavado rápido a este artículo que escribimos hace poco: El decibel: la meta es simplificar).
Las LUFS (Loudness Units relative to Full Scale) son una unidad de medición de sonoridad que combina la idea de nivel RMS con la sensitividad humana a distintas frecuencias. Un sonido de 1,000 Hz con una presión sonora de -14 dBFS medirá -14 LUFS, mientras que uno de 40 Hz a -14 dBFS medirá -21 LUFS. Las LUFS permiten medir el nivel de intensidad sonora de una señal en forma parecida a cómo sería percibida por un sistema auditivo humano.
Existen LUFS momentáneas, parecidas a la medición RMS pero en una ventana de tiempo de 400 ms, LUFS de corto tiempo, similar pero midiendo picos en una ventana de 3 segundos y LUFS integradas, que miden la sonoridad de un programa completo: una canción, una mezcla, un disco o una transmisión.
Así, las LUFS son la unidad que se usa hoy para poder medir y tener control sobre los niveles de señales de audio para grabación y transmisión de radio y por internet en servicios como Netflix, Spotify, etc. Midiendo de esta forma, podemos asegurarnos de que el material suene suficientemente fuerte pero no demasiado fuerte tomando en cuenta cómo funciona el sistema auditivo humano. Hasta aquí llegamos con la conferencia sobre nuevas escalas de medición de sonoridad adecuadas a la percepción humana del nivel sonoro. ¡Ojalá al acompañarnos te haya quedado más claro! Cualquier duda a seccionestudiantil@saladeaudio.com.mx
¡Saludos a todos y muchas gracias por leernos! ¡Hasta la próxima semana!