Alexmx03 escribió:
al normalizar se aumenta el volumen de todas las frecuencias por igual, eso no afecta en nada a eso. Lo único que así es imposible saber la ganancia de cada aguja, pero para un análisis de frecuencia es perfectamente válido.
...no.
...cuando se normaliza un archivo de audio (en este caso la señal recibida por la aguja) se modifican sus parámetros. Si su rango dinámico es alto, en el proceso de normalización se pierden algunas frecuencias....aunque sean mínimas e inapreciables....pero ya no es la señal original.
...cuando nos referimos al volumen de una señal de audio, podrás aumentar o disminuir dicha señal pero seguirá siendo la original. Cuando se "normaliza" no sólo "se ataca" al volumen.....se ataca también a las frecuencias "sobrantes o faltantes" , amen de que cada software normaliza como le parece. El proceso de normalización es para intentar tener el volumen máximo con la mayor calidad posible....y no, no tiene nada que ver cuando haces una prueba de las señales de las agujas y sus características de "lectura y reproducción" de las diferentes frecuencias que tiene una señal de audio.
...te recomiendo ésta lectura:
Fuente: KATE BRUNOTTS (productora y profesional del MásteredBlog):
¿Qué es la normalización de audio?
Cuando se normaliza el audio, se aplica una cierta cantidad de ganancia a un archivo de audio digital. De este modo, el archivo de audio alcanza un nivel de amplitud o volumen percibido objetivo, al tiempo que se conserva el rango dinámico de las pistas.
La normalización de audio se utiliza para conseguir el máximo volumen de un clip de audio seleccionado. También se puede utilizar para crear más consistencia en varios clips de audio. Por ejemplo, puedes tener varias pistas dentro de un álbum o un EP.
Hay que tener en cuenta que las canciones con un mayor rango dinámico pueden ser más difíciles de normalizar con eficacia. Por ejemplo, un pico de amplitud puede quedar aplastado o distorsionado durante el proceso de normalización.
Por lo tanto, cada clip de audio debe abordarse de forma diferente en lo que respecta al proceso de normalización. La normalización del audio es esencial para cualquier grabación digital, pero no hay un enfoque único para todos.
¿Por qué hay que normalizar el audio?
¿Por qué es importante normalizar los archivos de audio? A continuación te presentamos algunas situaciones en las que la normalización de la sonoridad es imprescindible:
Preparación para los servicios de streaming:
Los servicios de streaming establecen un nivel de normalización estándar en todas las canciones alojadas en sus bibliotecas musicales. De este modo, los oyentes no tendrán que subir o bajar drásticamente el volumen al pasar de una canción a otra. Cada plataforma tiene un nivel diferente, por lo que no es raro que haya diferentes masters para varias plataformas de streaming.
Los objetivos de sonoridad LUFs para los servicios de streaming más populares son los siguientes:
Spotify: -14 LUFS
Apple Music: -16 LUFS
Amazon Music: -9 a -13 LUFS
Youtube: -13 a -15 LUFS
Deezer: -14 a -16 LUFS
CD: -9 LUFS
Soundcloud: -8 a -13 LUFS
Cada ingeniero tiene su propia filosofía a la hora de determinar el nivel objetivo de cada maestro, pero hay que tener en cuenta estas estandarizaciones.
Conseguir el máximo volumen
La normalización de audio se puede utilizar para conseguir la máxima ganancia de cada archivo de audio. Esto puede ser increíblemente útil durante la importación de pistas en el software de edición de audio o para hacer un archivo de audio individual más fuerte.
Crear un nivel consistente entre varios archivos de audio
También puedes normalizar el audio para establecer varios archivos de audio al mismo nivel relativo. Esto es particularmente esencial en procesos como la puesta en escena de la ganancia, donde se establecen los niveles de audio en preparación para la siguiente etapa de procesamiento.
También puedes normalizar y editar los archivos de audio al terminar un proyecto musical como un álbum o un EP. La atmósfera y el sonido de toda la grabación deben ser bastante coherentes, por lo que es posible que tengas que volver atrás y ajustar la ganancia en el contexto de todas las canciones.
Los dos tipos de normalización de audio
Hay diferentes tipos de normalización de audio para varios casos de uso de la grabación de audio. La mayoría de las veces, la normalización de audio se reduce a la normalización de picos y a la normalización de volumen.
1.- Normalización de picos:
La normalización de picos es un proceso lineal en el que se aplica la misma cantidad de ganancia a una señal de audio para crear un nivel coherente con la amplitud de pico de la pista de audio. El rango dinámico sigue siendo el mismo, y el nuevo archivo de audio suena más o menos igual sin que la pista se transforme en un archivo de audio más alto o más bajo.
Este proceso encuentra el valor PCM o valor de modulación por código de pulsos más alto de un archivo de audio. Básicamente, la normalización de picos procesa el audio basándose en el límite superior de un sistema de audio digital, lo que suele equivaler a normalizar el pico máximo a 0 DBs.
El efecto de normalización a través de la normalización de picos se basa estrictamente en los niveles de pico, en lugar del volumen percibido de la pista.
2.- Normalización de la sonoridad
El proceso de normalización de la sonoridad es más complejo, ya que tiene en cuenta la percepción humana de la audición. El oído humano tiene en cuenta diferentes volúmenes y amplitudes por separado, ya que el oído humano tiene ciertos defectos subjetivos en lo que respecta a la percepción. Es posible que escuches este procesamiento como detección de volumen EBU R 128.
Por ejemplo, los sonidos que se mantienen al mismo nivel de audio que los que se reproducen de forma transitoria o breve suenan automáticamente más fuertes. Se pueden emitir estos sonidos al mismo nivel de volumen, y el oído humano seguiría percibiendo el sonido sostenido como más fuerte. Por lo tanto, la normalización de la sonoridad tiene que tener en cuenta estas desviaciones perceptivas.
También hay quien cree que la música más alta tiende a sonar mejor. Esto es lo que dio lugar a las guerras de volumen antes de que existieran los servicios de streaming, en las que los músicos intentaban maximizar el volumen máximo para producir una obra de arte más agradable desde el punto de vista sonoro. Afortunadamente, la normalización del audio ha puesto fin a la guerra del volumen, de modo que no se oyen constantemente volúmenes diferentes al pasar de una pista a otra.
La normalización de la sonoridad se mide en LUF, que es más fiel al oído humano y sirve como estándar de audio en aplicaciones como el cine, la televisión, la radio y los servicios de streaming. Al igual que la normalización de picos, los 0 dB siguen siendo el estándar.
...
...enlace a la publicación:
https://emastered.com/es/blog/audio-normalization
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
...aparte: cada técnico y cada persona puede normalizar "al gusto" según los parámetros que puedes modificar como quieras en el software de turno que utilices. Pero para el asunto que nos ocupa (comparación de agujas y su comportamiento en cuanto a lo que refiere a su respuesta), independientemente de que haya agujas que den más o menos potencia a la señal....lo que estamos debatiendo son cosas como "el brillo" (sonido más agudo), los graves (bajas frecuencias)....etc....que no son otras cosas que las propias frecuencias de esa señal de audio que comparamos. Si la normalizas...la modificas....en cualquiera de sus condiciones. Sube el volumen general o bájalo....pero no normalices...porque normalizar no sólo es "igualar volumen" (que es desde el principio lo que he querido transmitir....y creo que alguno no lo ha entendido bien).
...y luego ya....que cada uno opine con eso que tanto "odio". ....lo de "mi humilde opinión"