Summing, concepto inventado?
OFERTASVer todas
-
-25%Focusrite Scarlett 18i8 3rd Gen
-
-37%Behringer SU9920
-
-23%LD Systems Dave 12 G3
PUNTO FIJO VERSUS PUNTO FLOTANTE:
PRINCIPIOS BASICOS DE FUNCIONAMIENTO
VENTAJAS Y DESVENTAJAS EN EL CASO PROTOOLS
Este artículo puede descargarse en formato pdf del sitio http://www.andresmayo.com/data
Introducción:
Las aplicaciones de DSP (Digital Signal Processing, o Proceso Digital de la Señal) en el campo del audio profesional son cada día más variadas y complejas, al punto de que ya no podemos concebir el proceso de producción de un disco sin la intervención de alguna forma de DSP.
Por suerte, la tecnología permite hoy que estos dispositivos sean relativamente económicos y fáciles de conseguir. Sin embargo, no es suficiente con disponer de gran potencia de procesamiento y rango dinámico, ya que la respuesta de un sistema depende en gran medida de la correcta elección de los algoritmos y de las arquitecturas de sistema, que se dividen en dos grandes grupos: Arquitectura de Punto Fijo y Arquitectura de Punto Flotante.
No debe confundirse la capacidad de procesamiento de un chip de DSP (medible, entre otras cosas, por la cantidad de bits que puede manejar en forma simultánea) con la resolución inherente al sistema de audio que utilizamos. Por ejemplo, mientras que el standard de resolución en que trabajamos nuestras mezclas es de 24 bits, los circuitos integrados trabajan internamente con longitudes de palabra de 48 o 64 bits, o incluso bastante más en algunos casos. Lo que diferencia internamente a estos chips es precisamente su arquitectura, es decir la forma que utilizan para representar digitalmente la señal que estamos procesando.
Teoría de las Arquitecturas:
La arquitectura de Punto Fijo fue introducida a comienzos de la década del ´80, y está basada en una representación que contiene una cantidad fija de dígitos después del punto decimal. Al no requerir de Unidad de Punto Flotante (FPU), la mayoría de los chips DSP de bajo costo utilizan esta arquitectura, aunque en determinados casos esta alternativa ofrece también mejor performance o mayor exactitud.
Los bits a la izquierda del punto decimal se denominan bits de magnitud y representan valores enteros, en cambio los bits a la derecha del punto decimal representan valores fraccionales (potencias inversas de 2). Es decirque el primer bit fraccional es ½, el segundo es ¼, el tercero es 1/8, etc.
Podemos calcular la representación en punto fijo de un número dado de la siguiente manera:
Para representar los números positivos y
para representar los negativos, donde m son los bits de magnitud y f son los bits fraccionales.
Por lo tanto, de acuerdo a esta fórmula, si disponemos de 16 bits en total y utilizamos 11 bits para representar los enteros (m) y los restantes 5 bits para los fraccionales (f), encontramos que el máximo número positivo representable es 1023,96875. En cambio, si asignamos m =12 y f =4, el mayor número positivo que podremos representar es 2047,9375 y si m=13 y f=3 este número resulta ser 4095,875.
Vemos entonces que la arquitectura de punto fijo nos permite representar magnitudes mayores sólo a costa de reducir la precisión después del punto decimal. La pérdida de precisión en los sistemas de punto fijo se produce típicamente en operaciones matemáticas en las que el resultado tiende a ser de mayor orden que los operandos.
0
0
0
1
0
0
0
1
1
0
1
1
0
1
0
0
0
0
1
1
0
1
1
0
0
1
0
1
1
0
0
1
O
P
E
R
A
N
D
O
A
O
P
E
R
A
N
D
O
B
0
0
0
0
0
0
0
0
1
1
1
1
0
0
1
1
1
0
0
1
0
0
0
1
1
1
1
0
1
1
0
1
O
V
E
R
F
L
O
W
R
E
S
U
L
T
A
D
O
V
A
L
I
D
O
D
E
S
C
A
R
T
E
Esto ocurre por ejemplo en la multiplicación, en la que el producto requiere más bits que los factores: si multiplicamos dos números de punto fijo entre sí (ambos con m bits de magnitud y f bits de fracción), el resultado puede requerir hasta 2m bits para representar los enteros y 2f bits para los fraccionales. Típicamente los procesadores de punto fijo toman los bits del medio como válidos y desprecian el resto, por lo tanto se pierden los f bits menos significativos (considerados una pérdida “razonable” y los m bits más significativos (que deberían valer cero, en caso de que no lo fueran se considera que el resultado es inválido y no puede ser representado en este sistema (condición de overflow).
La arquitectura de Punto Flotante es más moderna y resulta suficientemente exacta y rápida para la mayoría de las aplicaciones. Es muy frecuentemente utilizada para lograr una buena aproximación del número que se desea representar, pero a menudo requiere de un “redondeo”, debido a su limitada precisión. Su representación involucra un número entero (la mantissa) multiplicado por una base (en nuestro caso la base siempre es 2) elevado a un exponente, de tal forma que cualquier número de punto flotante a puede ser representado como:
Es posible especificar cuántos dígitos de precisión se requieren, asignando un valor al parámetro p.
La gran ventaja de esta arquitectura reside en que permite la representación de un rango de magnitudes mucho más amplio que el de la arquitectura de punto fijo. De acuerdo a la cantidad de bits utilizados para almacenar un determinado número de punto flotante, decimos que éste es de precisión simple (32 bits) o precisión doble (64 bits). En el caso de precisión simple, típicamente se le asignan a la mantissa los 23 bits menos significativos (bit 0 a bit 22), luego el exponente ocupa los siguientes 8 bits (bit 23 a bit 30) y el bit 31 está destinado a indicar el signo (0 = positivo, 1= negativo). Existen implementaciones de software que emplean hasta 128 bits de punto flotante.
Aplicaciones y algunas conclusiones:
Un caso polémico sobre la aplicación de arquitectura de punto fijo o punto flotante en el campo del audio profesional es el del bus destinado a plug-ins en el sistema ProTools. Mientras que la version económica de ProTools (LE) posee un bus que opera internamente en 32 bits de punto flotante, en las versiones TDM y HD (con arquitectura de mixer de 48 bits de punto fijo) el bus de plug-ins es de 24 bits de punto fijo. Esta característica de diseño llevó inicialmente a muchos reconocidos
Ingenieros de Mezcla y de Mastering a discutir largamente acerca de la conveniencia de utilizar uno u otro sistema. Veamos las verdaderas conclusiones de esta polémica:
• Si nuestro sistema de edición digital permite mezclas en 24 bits, entonces debe trabajar internamente con más de 24 bits de capacidad de procesamiento simultáneo, de lo contrario no se preserva la integridad de nuestro audio. Básicamente, cualquier proceso que se aplique al audio original debería arrojar un resultado en 32 o 48 bits como mínimo, pero con un “piso” de ruido no mayor a 24 bits. De esta forma, cuando se hace el dithering final para volver a los 24 bits originales, la pérdida es realmente despreciable. Esta primera conclusión deja afuera la opción de trabajar en audio profesional con una arquitectura interna de solamente 24 bits de punto fijo.
• La arquitectura de punto flotante no permite el uso de dithering entre las distintas etapas de procesamiento, debido a que el exponente e cambia permanentemente, alterando la significación de la mantissa. En este sentido, la opción de 48 bits de punto fijo resulta superior dado que se le puede aplicar dithering. Si bien es cierto que en una arquitectura flotante los errores producidos siempre estarán en proporción con la magnitud de la señal procesada (y por lo tanto pueden ser difíciles o aún imposibles de detectar), la opción de dithering es una garantía de que estos errores van a ser eliminados.
• Por otro lado, la verdadera forma de aprovechar las características de un sistema con arquitectura interna de 48 bits pero donde el bus de plug-ins es de 24 bits es utilizando únicamente plug-ins de doble precisión (es decir, que toman el audio sample de 24 bits y lo elevan a 48 para operar internamente y así obtener un resultado de mayor precisión). Estos plug-ins deberán también tener capacidad de realizar dithering a 24 bits para que este proceso de DSP de alta precisión no se pierda en el truncado o redondeo de la información que no puede quedar contenida en los 24 bits de salida. En un sistema como ProTools TDM, el uso de plug-ins de doble precisión con opción de dithering marca una diferencia con respecto al uso de plug-ins de simple precisión.
• El proceso de dithering correctamente aplicado solamente sacrifica rango dinámico (por el pasaje de 48 bits a 24) pero no la linealidad de la señal (lo cual es fundamental). El nivel de error introducido por el dithering en esta etapa está en el orden de -144 dBFS, lo cual es realmente insignificante. En cambio el error producido por el truncado de la señal sin dithering aplicado está en el orden de -100 dBFS (considerablemente mayor).
• Un mismo algoritmo de DSP puede requerir diferentes profundidades de bits en las distintas etapas de su realización. Por ejemplo, un EQ se implementa como un filtro recursivo, donde el feedback juega un papel fundamental. Si el filtro tiene una frecuencia de corte suficientemente baja, la cantidad de feedback generada puede ser muy alta, lo cual amplifica enormemente el error de cuantización original, aumentándolo en dos y hasta tres órdenes de magnitud. Nuevamente, un procesador capaz de trabajar internamente con mayor cantidad de bits asegura una relación Señal a Ruido (SNR) suficiente para amortiguar incluso estas condiciones extremas de uso del DSP.
• Un EQ que trabaja en 32 bits de punto flotante a lo largo de todas sus etapas tendrá una performance de ruido considerablemente peor que un EQ que opera internamente con 48 bits de punto fijo y posee un bus de interconexión de 24 bits
• A su vez, un EQ que opera en 48 bits de punto fijo a lo largo de todas sus etapas será sólo un poco mejor que el que opera con bus de 24 bits, ya que el verdadero responsable del error de cuantización es el alto feedback producido en baja frecuencia.
• Por último, si estimamos el ruido de cuantización producido por la interconexión de plug-ins llegamos a la conclusión de que cada vez que se duplica el número de cuantizaciones, el umbral de ruido aumenta hasta 3 dB. Si suponemos que cada track de una mezcla tiene un máximo de 8 plug-ins insertados, tenemos que el ruido se incrementa unos 9 dB, según la fórmula:
Sumando estos 9 dB al umbral de ruido de nuestro sistema de 24 bits (-144 dB) obtenemos un ruido de cuantización total de apenas -135 dB (considerablemente menor que el ruido producido por el propio convertidor), es decir que el encadenamiento de plug-ins no provoca serias degradaciones de calidad de audio, aún trabajando sobre un bus de 24 bits.
• Los filtros digitales, especialmente cuando son de alto Q, tienen respuestas muy variables y con alto grado de error, aún trabajando con 64 bits de punto flotante. En estos casos extremos, la performance de 24 bits punto fijo o 32 bits punto flotante es claramente insuficiente. La solución de 48 bits punto fijo aparece como la más precisa, a la vez que es económicamente realizable. En este caso, la asignación de 8 bits de “extra headroom” (bits 40 a 47) y 8 bits de guarda (bits 0 a bit 7), dejando los 32 bits centrales para el muestreo de la señal dan al sistema suficiente precisión para responder ante condiciones exigentes de filtrado, con la capacidad de sumar hasta 256 canales de audio sin overflow, preservando así un resultado de 24 bits consistente aún después de varias etapas de procesamiento.
Ing. Andrés Mayo
Vicepresidente AES
Región América Latina
aam@aes.org
PRINCIPIOS BASICOS DE FUNCIONAMIENTO
VENTAJAS Y DESVENTAJAS EN EL CASO PROTOOLS
Este artículo puede descargarse en formato pdf del sitio http://www.andresmayo.com/data
Introducción:
Las aplicaciones de DSP (Digital Signal Processing, o Proceso Digital de la Señal) en el campo del audio profesional son cada día más variadas y complejas, al punto de que ya no podemos concebir el proceso de producción de un disco sin la intervención de alguna forma de DSP.
Por suerte, la tecnología permite hoy que estos dispositivos sean relativamente económicos y fáciles de conseguir. Sin embargo, no es suficiente con disponer de gran potencia de procesamiento y rango dinámico, ya que la respuesta de un sistema depende en gran medida de la correcta elección de los algoritmos y de las arquitecturas de sistema, que se dividen en dos grandes grupos: Arquitectura de Punto Fijo y Arquitectura de Punto Flotante.
No debe confundirse la capacidad de procesamiento de un chip de DSP (medible, entre otras cosas, por la cantidad de bits que puede manejar en forma simultánea) con la resolución inherente al sistema de audio que utilizamos. Por ejemplo, mientras que el standard de resolución en que trabajamos nuestras mezclas es de 24 bits, los circuitos integrados trabajan internamente con longitudes de palabra de 48 o 64 bits, o incluso bastante más en algunos casos. Lo que diferencia internamente a estos chips es precisamente su arquitectura, es decir la forma que utilizan para representar digitalmente la señal que estamos procesando.
Teoría de las Arquitecturas:
La arquitectura de Punto Fijo fue introducida a comienzos de la década del ´80, y está basada en una representación que contiene una cantidad fija de dígitos después del punto decimal. Al no requerir de Unidad de Punto Flotante (FPU), la mayoría de los chips DSP de bajo costo utilizan esta arquitectura, aunque en determinados casos esta alternativa ofrece también mejor performance o mayor exactitud.
Los bits a la izquierda del punto decimal se denominan bits de magnitud y representan valores enteros, en cambio los bits a la derecha del punto decimal representan valores fraccionales (potencias inversas de 2). Es decirque el primer bit fraccional es ½, el segundo es ¼, el tercero es 1/8, etc.
Podemos calcular la representación en punto fijo de un número dado de la siguiente manera:
Para representar los números positivos y
para representar los negativos, donde m son los bits de magnitud y f son los bits fraccionales.
Por lo tanto, de acuerdo a esta fórmula, si disponemos de 16 bits en total y utilizamos 11 bits para representar los enteros (m) y los restantes 5 bits para los fraccionales (f), encontramos que el máximo número positivo representable es 1023,96875. En cambio, si asignamos m =12 y f =4, el mayor número positivo que podremos representar es 2047,9375 y si m=13 y f=3 este número resulta ser 4095,875.
Vemos entonces que la arquitectura de punto fijo nos permite representar magnitudes mayores sólo a costa de reducir la precisión después del punto decimal. La pérdida de precisión en los sistemas de punto fijo se produce típicamente en operaciones matemáticas en las que el resultado tiende a ser de mayor orden que los operandos.
0
0
0
1
0
0
0
1
1
0
1
1
0
1
0
0
0
0
1
1
0
1
1
0
0
1
0
1
1
0
0
1
O
P
E
R
A
N
D
O
A
O
P
E
R
A
N
D
O
B
0
0
0
0
0
0
0
0
1
1
1
1
0
0
1
1
1
0
0
1
0
0
0
1
1
1
1
0
1
1
0
1
O
V
E
R
F
L
O
W
R
E
S
U
L
T
A
D
O
V
A
L
I
D
O
D
E
S
C
A
R
T
E
Esto ocurre por ejemplo en la multiplicación, en la que el producto requiere más bits que los factores: si multiplicamos dos números de punto fijo entre sí (ambos con m bits de magnitud y f bits de fracción), el resultado puede requerir hasta 2m bits para representar los enteros y 2f bits para los fraccionales. Típicamente los procesadores de punto fijo toman los bits del medio como válidos y desprecian el resto, por lo tanto se pierden los f bits menos significativos (considerados una pérdida “razonable” y los m bits más significativos (que deberían valer cero, en caso de que no lo fueran se considera que el resultado es inválido y no puede ser representado en este sistema (condición de overflow).
La arquitectura de Punto Flotante es más moderna y resulta suficientemente exacta y rápida para la mayoría de las aplicaciones. Es muy frecuentemente utilizada para lograr una buena aproximación del número que se desea representar, pero a menudo requiere de un “redondeo”, debido a su limitada precisión. Su representación involucra un número entero (la mantissa) multiplicado por una base (en nuestro caso la base siempre es 2) elevado a un exponente, de tal forma que cualquier número de punto flotante a puede ser representado como:
Es posible especificar cuántos dígitos de precisión se requieren, asignando un valor al parámetro p.
La gran ventaja de esta arquitectura reside en que permite la representación de un rango de magnitudes mucho más amplio que el de la arquitectura de punto fijo. De acuerdo a la cantidad de bits utilizados para almacenar un determinado número de punto flotante, decimos que éste es de precisión simple (32 bits) o precisión doble (64 bits). En el caso de precisión simple, típicamente se le asignan a la mantissa los 23 bits menos significativos (bit 0 a bit 22), luego el exponente ocupa los siguientes 8 bits (bit 23 a bit 30) y el bit 31 está destinado a indicar el signo (0 = positivo, 1= negativo). Existen implementaciones de software que emplean hasta 128 bits de punto flotante.
Aplicaciones y algunas conclusiones:
Un caso polémico sobre la aplicación de arquitectura de punto fijo o punto flotante en el campo del audio profesional es el del bus destinado a plug-ins en el sistema ProTools. Mientras que la version económica de ProTools (LE) posee un bus que opera internamente en 32 bits de punto flotante, en las versiones TDM y HD (con arquitectura de mixer de 48 bits de punto fijo) el bus de plug-ins es de 24 bits de punto fijo. Esta característica de diseño llevó inicialmente a muchos reconocidos
Ingenieros de Mezcla y de Mastering a discutir largamente acerca de la conveniencia de utilizar uno u otro sistema. Veamos las verdaderas conclusiones de esta polémica:
• Si nuestro sistema de edición digital permite mezclas en 24 bits, entonces debe trabajar internamente con más de 24 bits de capacidad de procesamiento simultáneo, de lo contrario no se preserva la integridad de nuestro audio. Básicamente, cualquier proceso que se aplique al audio original debería arrojar un resultado en 32 o 48 bits como mínimo, pero con un “piso” de ruido no mayor a 24 bits. De esta forma, cuando se hace el dithering final para volver a los 24 bits originales, la pérdida es realmente despreciable. Esta primera conclusión deja afuera la opción de trabajar en audio profesional con una arquitectura interna de solamente 24 bits de punto fijo.
• La arquitectura de punto flotante no permite el uso de dithering entre las distintas etapas de procesamiento, debido a que el exponente e cambia permanentemente, alterando la significación de la mantissa. En este sentido, la opción de 48 bits de punto fijo resulta superior dado que se le puede aplicar dithering. Si bien es cierto que en una arquitectura flotante los errores producidos siempre estarán en proporción con la magnitud de la señal procesada (y por lo tanto pueden ser difíciles o aún imposibles de detectar), la opción de dithering es una garantía de que estos errores van a ser eliminados.
• Por otro lado, la verdadera forma de aprovechar las características de un sistema con arquitectura interna de 48 bits pero donde el bus de plug-ins es de 24 bits es utilizando únicamente plug-ins de doble precisión (es decir, que toman el audio sample de 24 bits y lo elevan a 48 para operar internamente y así obtener un resultado de mayor precisión). Estos plug-ins deberán también tener capacidad de realizar dithering a 24 bits para que este proceso de DSP de alta precisión no se pierda en el truncado o redondeo de la información que no puede quedar contenida en los 24 bits de salida. En un sistema como ProTools TDM, el uso de plug-ins de doble precisión con opción de dithering marca una diferencia con respecto al uso de plug-ins de simple precisión.
• El proceso de dithering correctamente aplicado solamente sacrifica rango dinámico (por el pasaje de 48 bits a 24) pero no la linealidad de la señal (lo cual es fundamental). El nivel de error introducido por el dithering en esta etapa está en el orden de -144 dBFS, lo cual es realmente insignificante. En cambio el error producido por el truncado de la señal sin dithering aplicado está en el orden de -100 dBFS (considerablemente mayor).
• Un mismo algoritmo de DSP puede requerir diferentes profundidades de bits en las distintas etapas de su realización. Por ejemplo, un EQ se implementa como un filtro recursivo, donde el feedback juega un papel fundamental. Si el filtro tiene una frecuencia de corte suficientemente baja, la cantidad de feedback generada puede ser muy alta, lo cual amplifica enormemente el error de cuantización original, aumentándolo en dos y hasta tres órdenes de magnitud. Nuevamente, un procesador capaz de trabajar internamente con mayor cantidad de bits asegura una relación Señal a Ruido (SNR) suficiente para amortiguar incluso estas condiciones extremas de uso del DSP.
• Un EQ que trabaja en 32 bits de punto flotante a lo largo de todas sus etapas tendrá una performance de ruido considerablemente peor que un EQ que opera internamente con 48 bits de punto fijo y posee un bus de interconexión de 24 bits
• A su vez, un EQ que opera en 48 bits de punto fijo a lo largo de todas sus etapas será sólo un poco mejor que el que opera con bus de 24 bits, ya que el verdadero responsable del error de cuantización es el alto feedback producido en baja frecuencia.
• Por último, si estimamos el ruido de cuantización producido por la interconexión de plug-ins llegamos a la conclusión de que cada vez que se duplica el número de cuantizaciones, el umbral de ruido aumenta hasta 3 dB. Si suponemos que cada track de una mezcla tiene un máximo de 8 plug-ins insertados, tenemos que el ruido se incrementa unos 9 dB, según la fórmula:
Sumando estos 9 dB al umbral de ruido de nuestro sistema de 24 bits (-144 dB) obtenemos un ruido de cuantización total de apenas -135 dB (considerablemente menor que el ruido producido por el propio convertidor), es decir que el encadenamiento de plug-ins no provoca serias degradaciones de calidad de audio, aún trabajando sobre un bus de 24 bits.
• Los filtros digitales, especialmente cuando son de alto Q, tienen respuestas muy variables y con alto grado de error, aún trabajando con 64 bits de punto flotante. En estos casos extremos, la performance de 24 bits punto fijo o 32 bits punto flotante es claramente insuficiente. La solución de 48 bits punto fijo aparece como la más precisa, a la vez que es económicamente realizable. En este caso, la asignación de 8 bits de “extra headroom” (bits 40 a 47) y 8 bits de guarda (bits 0 a bit 7), dejando los 32 bits centrales para el muestreo de la señal dan al sistema suficiente precisión para responder ante condiciones exigentes de filtrado, con la capacidad de sumar hasta 256 canales de audio sin overflow, preservando así un resultado de 24 bits consistente aún después de varias etapas de procesamiento.
Ing. Andrés Mayo
Vicepresidente AES
Región América Latina
aam@aes.org
Chus escribió:Genial post guillermo, bienvenido a hispasonic, da gusto tener a alguien q entienda procesado digital
has despertado un hilo de hace un monton, pero ha valido la pena, me hubiera gustado q hubieses participado en un viejo hilo sobre el tocar o no tocar el master fader de un daw, seguro q tu opinion hubiera resultado muy esclarecedora
si consigo localizarlo te lo paso para q le heches un ojo
un saludo
Gracias por la bienvenida. Lo del master fader creo adivinar por donde irán los tiros. Si encuentras el hilo gustosamente aportaré lo que sepa al respecto. Por lo pronto el mezclador de un DAW que trabaja en coma flotante de 32 bits tiene un rango dinámico de 1500dB, la señal sumada que llega al master pueder superar con mucho los 0dB sin que afecte a la calidad del sonido (mientras bajes el fader del master hasta restaurar el nivel claro). El usual miedo a bajar el master fader viene heredado de la mezcla analógica, donde el headroom es menor y una suma premaster con mucho nivel podía provocar con facilidad distorsión.
El artículo de Andrés Mayo es interesante aunque lo veo un tanto confuso. Viene a comparar el punto fijo de 56 bits (48 sin el headroom) con el punto flotante de 32 (24 bits sin la magnitud). La comparación razonable sería con la alternativa en punto flotante de 64 bits (53 bits sin la magnitud). Pareciera que la elección de Digidesign por el punto fijo es por motivos de calidad cuando no es así. El sistema TDM de ProTools usa procesadores DSPs que trabajan en punto fijo. Evidentemente el summing va a tener que ser en punto fijo solo que con más bits. Esos procesadores pueden trabajar con acumuladores de 56 bits.
Los procesadores de los ordenadores sin embargo tienen integrado coprocesadores en coma flotante que pueden manejar cálculos de 64 bits desde los tiempos de María Castaña. Las instrucción en coma flotante además pueden ejecutarse mientras la parte estándar del procesador hace otra cosa. Desde luego, el procesamiento en un DAW nativo de ordenador pasa por la coma flotante.
Las cosas funcionan de forma diferente en cada caso. En el mezclador de ProTools la parte de 56 bits debe ser prefader. Ello se debe a que una atenuación en punto fijo provoca una perdida de bits inmediata. Atenuar 48dB significaría perder 8 bits de resolución. En un flotante sin embargo solo cambiaría el exponente (se le resta 8 en este caso) pero la mantisa queda igual por lo que no se pierden bits. Eso sí, al hacer summing si perdemos bits si por ejemplo le sumamos a la pista anterior una con 0dB de señal. Eso se debe a que estamos sumando dos números de 24 bits de precisión pero con diferente magnitud. Se impondrían los bits de mayor magnitud (la señal a 0dB). La pérdida de bits no es tan obvia en el punto flotante.
Si no queremos perder ningún bit en el summing final solo es necesario cambiar en el código de C el float del acumulador por un double que nos dará 53 bits de precisión en la mantisa. En todo caso la salida está limitada por 24 bits y la sección master con sus efectos trabajan en 32 bits. Con esas limitaciones y si no me fallan los cálculos ganaríamos 6dB gracias al summing de 64 bits (sin dithering). Merece la pena en todo caso para un cambio tan pequeño en el código del motor de audio. Además, es usual en programación que se use double cuando se tienen que sumar varios float, al margen de consideraciones de audio.
No sé si me explico con claridad,
un saludo.
hola:
lo importante es la discusión entre los que saben de verdad y lo demuestran, así aprendemos los que no sabemos.. gracias.
y creo que va a seguir por tiempo.. y no por nosotros, ignorantes que lo deseamos (algo se pegara), si no por los que sabeis .. que no os ponéis de acuerdo.. bueno.. siempre sera si, siempre lo fue.. es lo que hace avanzar la "cosa".. supongo.
salud.
lo importante es la discusión entre los que saben de verdad y lo demuestran, así aprendemos los que no sabemos.. gracias.
y creo que va a seguir por tiempo.. y no por nosotros, ignorantes que lo deseamos (algo se pegara), si no por los que sabeis .. que no os ponéis de acuerdo.. bueno.. siempre sera si, siempre lo fue.. es lo que hace avanzar la "cosa".. supongo.
salud.
guitarra escribió:En resumidas cuentas, que teniendo un buen sistema de grabación, PT HD ,por decir algo y un buen sistema de AD/DA, gastarse la pasta en mesas neve o sumadores dedicados es hacer el canelo, el primo, el julay, no? es eso? o es justo todo lo contrario...?
saludos
El tener un equipo analógico hoy en día no es para tener mayor transparencia o precisión en el sonido sino para aportarle un color característico que te guste. Todo depende del sonido que busques y de la forma en como te guste trabajar.
Solo haces el primo cuando pierdes el dinero y el tiempo en usar algo que no va en la dirección de tus propósitos.
Tataxxx escribió:Alguien escribió:
Por lo pronto el mezclador de un DAW que trabaja en coma flotante de 32 bits tiene un rango dinámico de 1500dB
Buena explicacion, pero no entendi esto me lo explican?
Saludos
El punto flotante de 32 bits usa 8 bits (exponente) como magnitud. Consiste en un valor que indica cuantos bits hay que desplazar la mantisa (23 bits, el bit de signo no se desplaza) para obtener el valor real. Para usar una comparación puedes decir 1,5mm o 1,5km. El 1,5 es la mantisa, el mm o el km el exponente.
En 8 bits puedes tener 256 posibles valores de desplazamiento de bits. Cada bit que desplazas supone aumentar o reducir 6dB. Por ello: 256 x 6dB = 1536dB.
Un post interesantísimo y plagado de buenos comentarios, que aunque alguna vez se contradigan colaboran a que se vaya arrojando luz sobre el asunto (esto es bueno para todos).
Respecto al tema de electrónica y sonido, creo que son dos conceptos que van unidos pero que están tan especializados que cuesta encontrar gente que domine ambos mundos y que posea la capacidad de aunar su experiencia para crear "cacharros" que suenen, o dominar sus mezclas a base del uso de las emulaciones digitales adecuadas.
Unos dominamos la electrónica, y otros simplemente escuchamos y decidimos. No se le puede exigir al músico que domine la electrónica, ni al electrónico que posea un talento privilegiado para escuchar. Hasta la colaboración entre un buen productor/músico y un buen electrónico me seguiría resultando fría, aunque no queda otro remedio que hacer lo que se pueda (seguramente las desarrolladoras de software de audio vivan estos problemas de cerca).
Yo sigo creyendo que el elemento más importante en la cadena de audio es el músico, o al menos, el más determinante en el resultado final.
Si haces mierda, está bien que trates de que la cadena de audio pueda permitirte maquillar esa mierda para lograr un resultado aparente, pero poco ganarás.
Imaginad una guitarra desafinada, como ejemplo sencillo que englobe este concepto. No vale más la pena perder unos minutos con el guitarrista para que se tome la afinación en serio, que pensar en la potencia del grueso de nuestro equipo? Es obvio, sí, pero es que "perdemos" demasiado tiempo intentando despejar dudas que poco aportarán a los resultados, cuando damos por sentado otro grupo de cosas que pueden ser más importantes, mucho más importantes que estos pequeños detalles como puede ser el summing.
Como músico, las mejoras que más noto son las que parten de mi cerebro y manos. Lo mismo se extiende para músicos electrónicos, productores, ingenieros, etc. Está claro que el summing importa al que tiene su cadena de audio "resuelta", pero para el usuario de a pie es algo completamente secundario, a mi parecer.
Y comprendamos que todos tenemos razón cuando nos expresamos, aunque alguna vez sean razones "antiguas" y equivocadas debido a que otros nos las transmitiron "con errores". No hay problema, nunca es tarde para cambiar o para afianzar conceptos y de lo que se trata es de que cada día todos seamos mejores músicos, técnicos y productores (por el bien de todos).
Para continuar con el hilo, me encantaría que Guillermo nos hablase sobre el posicionamiento de faders a cero, ya sea del master, de los subgrupos, o de los propios canales individuales.
Yo tenía entendido que cualquier reducción o aumento de ganancia mediante un fader provoca más errores de cuantificación a la hora de sumar. Esto me incita a pensar que cuando llegaron los 24 bit todos vimos la luz pensando que se había acabado la etapa de "apretar ganancias de entrada" en el DAW. Ahora pienso... si somos conservadores con las ganancias de entrada corremos el peligro de estar más lejos de 0 dB y esto apunta a una necesidad posterior de mover los faders (aumentar ganancia), y por lo tanto, de un mayor error a la hora de sumar todos los canales. ¿En qué me equivoco?
También sufro el síndrome de "antes de bouncear suena mejor" y no creo que Steinberg o Digidesign, por citar algunos, dejen pasar algo así por alto. Si lo que creo escuchar fuera cierto, ya habría inventado otro modo de bouncear.
Todo esto es un tema delicado y extenso, gracias a todos por colaborar independientemente de vuestro nivel.
Y por favor, no convirtamos nuestros defectos de mezcla (vagos!!) en problemas de equipo o tecnología.
Saludos.
Respecto al tema de electrónica y sonido, creo que son dos conceptos que van unidos pero que están tan especializados que cuesta encontrar gente que domine ambos mundos y que posea la capacidad de aunar su experiencia para crear "cacharros" que suenen, o dominar sus mezclas a base del uso de las emulaciones digitales adecuadas.
Unos dominamos la electrónica, y otros simplemente escuchamos y decidimos. No se le puede exigir al músico que domine la electrónica, ni al electrónico que posea un talento privilegiado para escuchar. Hasta la colaboración entre un buen productor/músico y un buen electrónico me seguiría resultando fría, aunque no queda otro remedio que hacer lo que se pueda (seguramente las desarrolladoras de software de audio vivan estos problemas de cerca).
Yo sigo creyendo que el elemento más importante en la cadena de audio es el músico, o al menos, el más determinante en el resultado final.
Si haces mierda, está bien que trates de que la cadena de audio pueda permitirte maquillar esa mierda para lograr un resultado aparente, pero poco ganarás.
Imaginad una guitarra desafinada, como ejemplo sencillo que englobe este concepto. No vale más la pena perder unos minutos con el guitarrista para que se tome la afinación en serio, que pensar en la potencia del grueso de nuestro equipo? Es obvio, sí, pero es que "perdemos" demasiado tiempo intentando despejar dudas que poco aportarán a los resultados, cuando damos por sentado otro grupo de cosas que pueden ser más importantes, mucho más importantes que estos pequeños detalles como puede ser el summing.
Como músico, las mejoras que más noto son las que parten de mi cerebro y manos. Lo mismo se extiende para músicos electrónicos, productores, ingenieros, etc. Está claro que el summing importa al que tiene su cadena de audio "resuelta", pero para el usuario de a pie es algo completamente secundario, a mi parecer.
Y comprendamos que todos tenemos razón cuando nos expresamos, aunque alguna vez sean razones "antiguas" y equivocadas debido a que otros nos las transmitiron "con errores". No hay problema, nunca es tarde para cambiar o para afianzar conceptos y de lo que se trata es de que cada día todos seamos mejores músicos, técnicos y productores (por el bien de todos).
Para continuar con el hilo, me encantaría que Guillermo nos hablase sobre el posicionamiento de faders a cero, ya sea del master, de los subgrupos, o de los propios canales individuales.
Yo tenía entendido que cualquier reducción o aumento de ganancia mediante un fader provoca más errores de cuantificación a la hora de sumar. Esto me incita a pensar que cuando llegaron los 24 bit todos vimos la luz pensando que se había acabado la etapa de "apretar ganancias de entrada" en el DAW. Ahora pienso... si somos conservadores con las ganancias de entrada corremos el peligro de estar más lejos de 0 dB y esto apunta a una necesidad posterior de mover los faders (aumentar ganancia), y por lo tanto, de un mayor error a la hora de sumar todos los canales. ¿En qué me equivoco?
También sufro el síndrome de "antes de bouncear suena mejor" y no creo que Steinberg o Digidesign, por citar algunos, dejen pasar algo así por alto. Si lo que creo escuchar fuera cierto, ya habría inventado otro modo de bouncear.
Todo esto es un tema delicado y extenso, gracias a todos por colaborar independientemente de vuestro nivel.
Y por favor, no convirtamos nuestros defectos de mezcla (vagos!!) en problemas de equipo o tecnología.
Saludos.
Este tema empezó con una especie de experimento de mezclar 20 pistas iguales, etc. Yo hice una prueba hace tiempo (por otro asunto diferente al del summing) pero que también tiene que ver:
Cogí un archivo estéreo y separé L y R en dos archivos mono. Creé los dos archivos M y S (M=L+R y S=L-R). Y también creé los invertidos de cada uno.En total 8 archivos de ondas diferentes. Fuí metiendo en el secuenciador del ordenador estos archivos, hasta tener 14 pistas, sabiendo de antemano que al estar mezclando ondas que tenían fases invertidas el resultado final debía ser 0. Para asegurarme de que un M no se eliminaba con un -M sino que lo hacía con un -L y un -R, a algunas de estas pistas les quité el 50 % de ganancia. Ahora no recuerdo de memoria que ecuación seguía, pero era algo como L+R-M-0'5S+0'5L-0'5R.... 14 pistas casi todas diferentes sumandose a la vez. El resultados fué... el silencio. No absoluto, porque si al archivo resultante le multiplicabas la ganancia por 81 sí aparecía ruido a -36 dB. Obviamente sin aumentar la ganancia no se oía absolutamente nada. El experimento del principio de este tema usaba 20 pistas iguales y "de oido" resultaba que no se apreciaban cambios. Con este otro experimento no se trata de una apreciación "de oido" y se trabaja con 8 ondas diferentes. Por lo tanto se deduce que el summing digital en el ordenador es prácticamente perfecto. Quizás el asuntillo de los sumadores analógicos se parezca a lo de los amplificadores de válvulas para guitarra, que son los favoritos de casi todo el mundo, pero no por ser más o menos limpios sino por aportar un "color" especial al sonido.
Creo que estaría bien que alguien que tenga un sumador analógico o una mesa de mezclas pruebe el mismo experimento, a ver que "silencio" le sale. Y si efectivamente resulta que lo analógico aporta algo a la mezcla que la hace más interesante, seguramente las empresas de software podrán crear algoritmos para que la mezcla digital también tenga esa opción (parecido a lo del dithering).
A ver si alguien se anima con esta prueba y nos da sus resultados.
Cogí un archivo estéreo y separé L y R en dos archivos mono. Creé los dos archivos M y S (M=L+R y S=L-R). Y también creé los invertidos de cada uno.En total 8 archivos de ondas diferentes. Fuí metiendo en el secuenciador del ordenador estos archivos, hasta tener 14 pistas, sabiendo de antemano que al estar mezclando ondas que tenían fases invertidas el resultado final debía ser 0. Para asegurarme de que un M no se eliminaba con un -M sino que lo hacía con un -L y un -R, a algunas de estas pistas les quité el 50 % de ganancia. Ahora no recuerdo de memoria que ecuación seguía, pero era algo como L+R-M-0'5S+0'5L-0'5R.... 14 pistas casi todas diferentes sumandose a la vez. El resultados fué... el silencio. No absoluto, porque si al archivo resultante le multiplicabas la ganancia por 81 sí aparecía ruido a -36 dB. Obviamente sin aumentar la ganancia no se oía absolutamente nada. El experimento del principio de este tema usaba 20 pistas iguales y "de oido" resultaba que no se apreciaban cambios. Con este otro experimento no se trata de una apreciación "de oido" y se trabaja con 8 ondas diferentes. Por lo tanto se deduce que el summing digital en el ordenador es prácticamente perfecto. Quizás el asuntillo de los sumadores analógicos se parezca a lo de los amplificadores de válvulas para guitarra, que son los favoritos de casi todo el mundo, pero no por ser más o menos limpios sino por aportar un "color" especial al sonido.
Creo que estaría bien que alguien que tenga un sumador analógico o una mesa de mezclas pruebe el mismo experimento, a ver que "silencio" le sale. Y si efectivamente resulta que lo analógico aporta algo a la mezcla que la hace más interesante, seguramente las empresas de software podrán crear algoritmos para que la mezcla digital también tenga esa opción (parecido a lo del dithering).
A ver si alguien se anima con esta prueba y nos da sus resultados.
la música no es perfecta, tiene imperfecciones como todo...por eso mismo si me dices que el digital es un summing perfecto me gusta menos todavía jejeje...
hombre está claro, me gusta el summing digital porque no me queda otra porque soy pobre...siempre estoy metiendo en cada canal algo que le de color para emular una analógica...
pero claro, no tiene nada que ver grabar en cinta analógica como grabar en digital...
lo mismo ocurre con el summing
saludos
hombre está claro, me gusta el summing digital porque no me queda otra porque soy pobre...siempre estoy metiendo en cada canal algo que le de color para emular una analógica...
pero claro, no tiene nada que ver grabar en cinta analógica como grabar en digital...
lo mismo ocurre con el summing
saludos
Hilos similares
Nuevo post
Regístrate o identifícate para poder postear en este hilo