Como le entrego mi trabajo a un ingeniero de mastering.

hvmastering
#121 por hvmastering el 24/06/2010
He tenido por suerte un hueco de 20 minutos y decidí darme una vuelta por acá, a ver cómo iba.

Alguien escribió:
Paco:

Tío, lo tuyo es abusar. Vete a debatir con Quincy Jones o alguien de tu talla.


No sé a qué viene esto, Euridia, pero al menos yo no me siento de menor talla que nadie acá.

Alguien escribió:
Y si, me voy con él a tomarnos unas copas y reírnos de los jóvenes que no quieren aprovechar nuestros conocimientos y prefieren dedicar tiempo y esfuerzo en aprender lo mismo que a nosotros no ha costado años. Y que no tenemos problema en compartir. Solo depende de ellos y sus miedos.


Paco, lo tuyo no es la modestia. Un post del propio Quincy Jones sería más discreto. Lo de “jóvenes”, he decidido tomármelo como una flor. :)

Alguien escribió:
a ver si me podeis contestar...

¿los bits se ordenan de abajo hacia arriba?


Yo ya he intentado contestarte arriba, enormecipote. Lo que sucede es que tienes que explicarte un poco mejor. “Abajo” y “arriba” son términos que pueden ser tomados de muchas maneras en una analogía, pero no literalmente, ya que a nivel de electrónica, sencillamente carecen de sentido. Sería más sencillo entender, por ejemplo, “antes” y “después”, como en el caso del MIDI: a través de la interfaz, que es serial, viaja primero el LSB y por último el MSB de cada byte. En otras palabras, en el caso del MIDI, los bytes van en su orden, pero los bits que los constituyen viajan al revés. :)

Ah, y estoy contigo en lo de la prueba, cuando dices que, para que tenga valor práctico, debería hacerse dentro de parámetros “reales”, que sí se encuentran en la práctica. Sin embargo, no es como para decir que “desdice la teoría”. Lo que sucede es que, en efecto, el cambio es tan ridículamente pequeño que se hace imperceptible. A nivel práctico, si es imperceptible, es como si no existiera. A nivel teórico, si existe, existe.

A lo que me refiero es que sí, creo que tienes razón en tu llamado a la cordura, que no nos volvamos locos con cosas que no podemos percibir, pero no deberías ir tan lejos como para decir que el fenómeno no se da.

Veo que usaste el Voxengo SPAN para el test. Si quieres ver un cambio, solo tienes que “jugar” un poco con los parámetros, en el botón “edit”. Cambia el tamaño de la ventana (no del plugin, sino del parámetro “window”) y aumenta el rango inferior hasta que veas más abajo de -120dB. En general, juega con los parámetros hasta que veas un cambio, porque lo vas a ver, aunque sea mínimo, incluso cuando trabajes con 32 bit.

Pero que el fenómeno se presente, porque es inevitable, no significa que no te asista la razón en tu, ya lo he dicho, “llamado a la cordura”.

Saludos :)
Subir
OFERTAS Ver todas
  • -20%
    Technics SL-1200M7 Lamborghini
    1.199 €
    Ver oferta
  • -29%
    Behringer X-Touch Compact
    263 €
    Ver oferta
  • -7%
    Modal Argon8 (B-Stock)
    559 €
    Ver oferta
Euridia mod
#122 por Euridia el 24/06/2010
euridia escribió:

Tío, lo tuyo es abusar. Vete a debatir con Quincy Jones o alguien de tu talla. :D :D :D :D :wink:



hvmastering escribió:



Alguien escribió:
Tío, lo tuyo es abusar. Vete a debatir con Quincy Jones o alguien de tu talla.


No sé a qué viene esto, Euridia, pero al menos yo no me siento de menor talla que nadie acá.



Hombre, no me quites los emoticonos. Era una broma. Por eso lleva los emoticonos.

Los emoticonos se usan para dar a entender el estado de humor de quien escribe.

¿Cuantos hay que poner?

Pues iba por esto:

http://www.discaffinity.com/es/producto ... nidad.html

hvmastering escribió:

Lo que sucede es que, en efecto, el cambio es tan ridículamente pequeño que se hace imperceptible. A nivel práctico, si es imperceptible, es como si no existiera. A nivel teórico, si existe, existe.


Bueno, ya digo que estoy hasta el gorro de malas coversiones y malos plugins.
Subir
Gracias a todos
#123 por Gracias a todos el 25/06/2010
Había escrito una cosa de estas mías que tanto gustan a unos y tan poco a otros: por culpa de los cuelgues que tiene esta página he perdido dos versiones a cual más ocurrente y mordaz, así que tranquilos, podéis quedar en paz.
Sólo una pregunta: si para conseguir un margen creativo y de seguridad (dando por hecho que, si queremos preservar la resolución ,y se difunde la consigna, a partir de ahora nos pueden venir materiales mezclados a 0,7 de pico y -7 de rms con lo que nos liberarán de tener que decidir al límite del filo entre lo plausible y lo que uno o su equipo es capaz a modo de recortadores de la dinámica, que algún día sufrirán una cogida y , por tanto deberemos usar decompresión y eq. sustractiva si queremos poner las cosas en su sitio) queremos recuperar esos 3-4 db mínimos con los que estábamos acostumbrados a tener de margen, si uso la herramienta volume monda y lironda y bajo ese material esos 3 o cuatro decibelillos, quiere decir que aunque al ratito voy a devolvérselos; pero con un acierto y una finura fuera de lo común, será a costa de los bits que correspndan por bajar el volumen.
Pues vaya par de cojones...
Subir
Gracias a todos
#124 por Gracias a todos el 29/06/2010
¿Qué?, ¿se nos ha comido la legua un gato?
Subir
hvmastering
#125 por hvmastering el 01/07/2010
Estoy trabajando en unas gráficas para ilustrar el punto simple que estaba intentando hacer días atrás de que en la práctica, casi ninguna señal "real" termina encodificada en 24 bits, con lo que 3dB o 4dB de margen, que ni siquiera implican UN bit (un bit implica 6dB, como todos saben) harán poco o ningún daño a la señal, teniendo además en cuenta que una DAW bien diseñada aumentará la cantidad de bits implicados en las operaciones en la medida en que ésto sea necesario.

Ilustrar éste punto implica también un acercamiento más sencillo al fenómeno que Euridia explicaba unos posts antes usando una onda generada de 1KHz y capturas de la pantalla del computador.

Una forma muy simple de verlo es imaginando un contenido digital de solo 3 bits, por simplicidad.

Podemos ver las posibles combinaciones:

000
001
010
011
100
101
110
111

Ocho combinaciones posibles; en efecto 2 elevado a la 3 = 8. Cada combinación, número binario o WORD se asigna durante el proceso de conversión. Sin importar la forma en que se usen, el hecho de que sean 3 bits implicará 8 posibles "combinaciones" o "estados" a los cuales se asigna cada voltaje "sampleado" o "muestreado". Por supuesto, una asignación de solo 3 bits es extremadamente pobre, pero posibilita comprender algunos de sus mecanismos con mayor facilidad.

Por la misma razón, simplicidad, empecemos con una encodificación sin tener en cuenta signos, osea, siendo todos los valores positivos. Supongamos, entonces que cada número binario ha sido perfectamente asignado para un voltaje "real" equivalente, osea:

000 = 0v
001 = 1v
010 = 2v
011 = 3v
100 = 4v
101 = 5v
110 = 6v
111 = 7v

Aceptando éstos valores de arranque, esto significa que una señal que alcance un 0dBFS tendrá asignado el valor 111, correspondiente a 7v. Si bajamos el fader correspondiente 6dB, ésto implicaría bajar el nivel o "valor" a la mitad. Pero, la mitad de 7v es 3.5v, y no disponemos de una codificación para 3.5v!

Entonces, lo que podemos hacer es "redondear" o "truncar" el resultado, con lo que podríamos escoger 3v o 4v. Escojamos 3v en lugar de 4v, por conveniencia. Recordemos que dejamos de lado 0.5v. ¿Qué sucederá cuando volvamos a darle 6dB "hacia arriba" o, en otras palabras, dupliquemos el valor?

3v x 2 = 6v

6v en lugar de 7v, lo que implica una desviación del valor original de 1/7 = 14,28%. Enorme! Si la resolución aumenta a 16, éste porcentaje baja dramáticamente, hasta 0,0015% , en 20 bits, 0,000095% o 0,000000005960% 24 bits, la desviación del valor original disminuye mucho, pero siempre la habrá.

La razón por la que ésto se presenta es que la resolución se mantiene igual todo el tiempo. Si, en cambio, permitimos que la resolución , o "Wordlenght", en inglés, se EXPANDA, la situación cambia radicalmente. Volviendo al mismo ejemplo, partiendo de un valor de 3 bits de 7v, al bajar 6dB, o dividir entre 2, que es lo mismo, necesitamos 3.5v, lo que puede obtenerse aumentando solo un bit, así:

3.5v = 011.1

Osea, un número binario de 4 bits. Luego, para subir 6dB a éste número o multiplicamos por 2, lo que equivale a sumarle el mismo valor, así:

011.1 +
011.1
_____
111.0

Y dado que 111.0 = 111, podemos simplemente remover el último bit y volver a tener EXACTAMENTE el valor original, en la resolución original. Es lo que sucede en las DAW bien diseñadas cuando bajas el fader y luego vuelves a subirlo. :)

Espero que ésto ayude un poco.
Subir
Gracias a todos
#126 por Gracias a todos el 01/07/2010
Pero, joder, si bajas y luego subes; descuantizas (osea pierdes 0, algo bit o bit y poco ) ; pero no vas a volver a aganar lo perdido ¿no?
Subir
hvmastering
#127 por hvmastering el 02/07/2010
Vaya, pensé que el post estaba muy claro: Si uno baja un fader y lo vuelve a subir en la misma sesión, en una DAW bien diseñada, no pierde NADA, como está explicado al final del post, cuando el Wordlenght se EXPANDE. Si lo baja y lo deja abajo, hace un render a la misma resolución, luego lo importa y vuelve a subirlo, sí pierde algo, pero en una cantidad despreciable.

14,28% si fueran TRES bits. #-o
0,0015% con 16 bits, lo que es audible para ciertos oídos :mrgreen:
0,000095% para 20 bits y
0,000000005960% para 24 bits, lo que es humanamente imperceptible. Y si el bounce se hace con dithering, el error es aún menor, incluso con los mismos 24 bit.

Como está en el post, si tu audio fuera de TRES BITS (!!), perderías un bit en la operación. Siendo a 24bit ... lo que pierdes es imposible de percibir para un ser humano. :)

En cambio, el riesgo de un clip digital, que sí es más que perceptible para cualquier oído sin necesidad de que sea entrenado ... No sé a otros, pero a mí me resulta inaceptable. 8)

Me queda una duda, sobre la palabra "descuantizar". :shock:
Subir
Gracias a todos
#128 por Gracias a todos el 02/07/2010
Pues a mí ni te imaginas, no se si es palabra o palabro...con eso te lo digo todo.
Subir
Nethox
#129 por Nethox el 02/07/2010
Se está llendo mucho el tema del hilo. A los que no puedan evitarlo, que escriban parte ontopic y parte offtopic técnico, pero no sólo lo segundo (para lo cual se usaría otro hilo). Es lo que uso yo para no tener quejas :).

Lo primero decir que me gustaría leer razones para entregar a -3 a -6 dBFS, aparte de la vaga "para dejar margen de trabajo". Porque de un estudio de mastering serio espero al menos estos equipos de gama alta: atenuadores por pasos analógicos y digitales, ordenador con editor, y convertidores. Además de posibilidad, conocimiento y aparatos de medición para la calibración de todo el equipo analógico y digital. Y por último, técnicos que hagan su trabajo sin acomodarse.

Euridia ha propuesto mejorar la entrega apurando más el formato de 24 b int (integer, entero). Cuestiones o requisitos que veo a tener en cuenta:
- Ventaja por ser formato conocido, directamente reproducible por DAC.
- Editar tu mezcla porque, si usas como referencia los oídos y medidores VU/RMS, en cada mezcla saldrá un nivel de pico distinto. Esto se debe a no importar demasiado hasta el final, donde bajas fader Master o limitas para eliminar clipping. No se normaliza por sistema ya que altera el nivel RMS monitorizado durante el trabajo, que es lo realmente importante para grabar y mezclar.
- Ajustar el nivel de pico desde el mismo DAW, no con una normalización posterior para evitar recuantización sobre 24 b.
- Mantener la compatibilidad con conversores evitando 0 dBFS y usando -0.5 dBFS para evitar inter-sample-peaks al reconstruír la señal en un DAC. Medibles por software con el plugin SSL X-ISM insertado en fader Master.
- Indicar en un fichero de texto niveles RMS AES17 (:P) y de pico que resultaron de tu mezcla antes de la transformación para el envío. Así el técnico de mastering conoce más de tus intenciones antes de la transformación. Por supuesto poner aquí cualquier otra nota que tenga que saber de tu mezcla.

Ahora replanteo conceptualmente la cuestión porque pienso que es mejorable.
Problema: transferir un fichero de audio digital de un estudio a otro.
Solución: elegir formato intermedio, no uno final limitado por el hardware. La parte de soporte de almacenamiento y medio de transmisión se soluciona fácil con una memoria portátil o Internet + hashing para comprobar integridad en destino.
Implementación:
- Exportar al mismo formato interno del DAW, 32 ó 64 b fp (floating point, coma flotante). No hay formato intermedio con mayor calidad que el interno, sin compromiso.
- No editar valores de pico ni RMS, no hace falta apurar el rango dinámico con coma flotante porque es enorme y escalable.
- Evita tener que documentar esos valores pues son calculables con editor.
- Evita recuantizaciones de normalizar, malos algoritmos de dithering, errores del técnico de mezcla sin vuelta atrás.
- Permite filtrado de ruido, fades in-out y demás ediciones digitales con máxima precisión.
- Requiere transformarse a 24 b int para pasarlo al DAC en la reproducción y procesado, pero todos los editores lo hacen al vuelo o por lotes con todo el álbum.
- Ocupa más, pero el caso extremo de 64 b fp y 192 kHz durará bastante, mientras tanto el almacenamiento y conexiones a Internet no dejarán de subir.
- El estudio origen y destino puede ser el mismo, donde se mezcle y también masterice. Típica situación de pasar del DAW a disco y luego abrir en editor aparte para mastering.

----------

paco trinidad: donde dices precisión es mejor usar fidelidad. Precisión y resolución tienen sus propios significados en representación numérica (y electrónica) digital.

Aparte, te veo entregado a la causa del fader Master, así que te doy mi forma de verlo:
Supongamos un DAW con aritmética en coma flotante de doble precisión. Su representación interna[1] de 64 bits es 1 b de signo + 11 b de exponente + 52 b de mantisa.

Renderizar se hace al escuchar en tiempo real o al exportar a fichero. Consiste en procesar y obtener una representación externa habitualmente de menor precisión: 24 b. Pero hay otras representaciones externas posibles como 16 b, o la máxima[2] que es la misma que usa internamente el DAW: 64 b fp.

Pues el fader Master del mixer usa la representación externa de 24 b para la interfaz gráfica del deslizador y su indicador de clipping[3]. Lo cual tiene sentido porque lo más habitual es que la salida del Master vaya a un DAC de 24 b, que tendría clipping si se le pudiera entregar más de 0 dB FS[4].

Conclusión:
La representación interna (64 b fp) supera por mucho a la externa (24 b), pero el 0 dB FS de ambas está sincronizado[5], así que ajustando la interna (fader Master) se evita el clipping en la externa (DAC/fichero).

1: Según el estándar IEEE 754.
2: Recomiendo usar la máxima si se va a masterizar por software o software + hardware, y para archivado intermedio como la famosa y destructiva (aunque poco) normalización.
3: Cuidado con el marcador de clip, que indicará que una o varias muestras llegan a 0 dB FS, pero los inter-sample peaks pueden superarlo. Para comprobarlo usar plugin como SSL X-ISM.
4: Lo cual es imposible, porque el clipping se hace antes del DAC con truncado por software; sea DAW, S.O. o driver; sea con o sin dither previo (a 16 y 20 b yo lo considero obligatorio).
5: Aunque no ambos por el tope alto, sino de forma más inteligente, dejando un amplio headroom por encima en la representación interna, lo que permite valores como +250 dB FS sin problema.

---

hvmastering escribió:
Recordemos que el dither que se aplica en la grabación es análogo, al contrario del que se aplica a la onda que ya es digital. Lo digo a propósito de la marcada alergia, casi fobia, que muestras hacia lo digital en casi todos tus posts.

Hay dither analógico en algún convertidor digital, como el mismo Crane Song HEDD192 de euridia. No sé cómo funciona pero, si lo hacen por tener un generador de ruido aleatorio real en vez de pseudoaleatorio al que luego aplicar filtrado (noise-shaping), diría que es posible aplicarlo sin conversiones intermedias a cada muestra de la señal PCM, a base de digitalizar el ruido y combinar con la señal digital de origen. Me refiero a DD, no sólo en el AD y DA que seguro que sí; y ya digo, suposiciones aventuradas..

hvmastering escribió:
Vaya, pensé que el post estaba muy claro: Si uno baja un fader y lo vuelve a subir en la misma sesión, en una DAW bien diseñada, no pierde NADA, como está explicado al final del post, cuando el Wordlenght se EXPANDE. Si lo baja y lo deja abajo, hace un render a la misma resolución, luego lo importa y vuelve a subirlo, sí pierde algo, pero en una cantidad despreciable.

Si bajas y subes el mismo fader la misma cantidad en una misma sesión, obviamente no cambia nada. Pero no por la aritmética binaria sino porque es una edición no-destructiva que, en este caso, sólo guarda el último estado en memoria.
La segunda parte es correcta pero yo no tengo tan claro que sea despreciable al acumular muchas pistas. Cambiar ganancia implica recuantizar, es como la típica cuestión de normalizar sí o no. La respuesta es "tú verás según tu flujo de trabajo" pero, si lo haces, no guardes de nuevo a 24 b int sino a 32 o 64 b fp que es a lo que trabaja el DAW. Así equivale a hacerlo con el fader, aunque con la diferencia de que ahora sí es destructivo, se puede corregir (y lo harás en la mezcla) pero la edición previa ya está grabada a disco.

Otra cosa más interesante para mí sería conocer el flujo de procesamiento de un DAW al detalle. ¿Es lo suficientemente inteligente para detectar compensación de ganancias entre todos los buses del mixer? Me explico: si en vez de sobre el mismo fader, aplicas -6 dB en el de Canal y luego +6 dB en el Master con sólo 1 canal en el proyecto, se podría evitar la ganancia al flujo de bits. Yo creo que no, porque el problema viene cuando hay más pistas, que no se puede compensar sin alterar al resto.
Lo cual lleva a algo que antes no había pensado: si todo funciona en forma de flujo puro y duro sin heurísticas inteligentes, eliminar el clipping desde el Master no sólo se puede, es la mejor opción. Las alternativas siempre implicarían más retoques en faders de canal o subgrupos que centralizarlo en una sóla recuantización del Master. Por otro lado y aunque no me gustan los argumentos negados, ¿por qué no hay una función para bajar compensadamente todos los canales y no tocar el Master (el sueño de alguno que todavía no ha despertado)? Porque es absurdo teniendo el Master.
Esto del flujo se puede probar en cualquier DAW, mirar en su doc, y directamente extraer de una lectura de código de secuenciadores libres como Ardour2.
No obstante, esto de preocuparse de recuantizaciones en coma flotante ya es hilar muy fino, lo preocupante para mí es a 24 b int.

---

enormecipote escribió:
Pero mi gran duda es...
¿los bits se ordenan de abajo a arriba?

La pregunta es más compleja de lo que parece. El cómo se ordena es más bien cómo se representa numéricamente un fichero de audio. Hay muchas opciones, así que puedes buscar por Internet cada una con detalle. La primera de las siguientes ya te la han dicho:
- Byte order o endianness: little-endian, big-endian o mixed-endian.
- Tamaño de palabra o wordlength: 8, 16, 32, 64 bits divididos en Bytes de 8.
- Aritmética: entera o coma flotante.
- Representación: sin signo, con signo (complemento a dos o signo-magnitud).
- Frecuencia de muestreo: 44.1, 48, 88.2, 96, 192 kHz.
- Número de canales: mono, stereo, etc.
- Entrelazado de canales: interleaved o non-interleaved. Lo más habitual es interleaved, sobretodo porque es más fácil de ir escribiendo sobre la marcha cuando no se sabe el tamaño con antelación, como al darle a Rec.
- Codificación: el más común es Linear PCM, pero hay otras cuantificaciones de las muestras de pulsos como µ-law o ADPCM, más usadas para telecomunicaciones.

El fichero WAV más típico para grabación es (en orden de las características anteriores): little-endian, 24 b, entero, con signo y complemento a dos, 44100 Hz, mono, interleaved (en mono no afecta), LPCM.
Y cuidado porque no es binario natural como está poniendo hvmastering. Eso son ejemplos que valen hasta cierto punto. Hablando de DAW con coma flotante la verdad es que de muy poco porque la computación numérica y DSP es bastante distinta y compleja.
El uso de 24 b, que no es potencia de 2, hace que muchas veces se alinee a enteros de 32 b en complemento a dos.
http://wiki.multimedia.cx/index.php?title=PCM

Es gracioso que euridia antes haya dicho que 1 + (-1) es una resta porque ahora sale complemento a dos para demostrar que no.
Algebraicamente es una suma de una magnitud positiva con otra negativa. Tú como humano automatizas quitando paréntesis y dejando 1 - 1, pero ya no es la misma fórmula, es una transformación equivalente. La precedencia de operadores estándar dice que el () tiene mayor que el +, es decir, la suma es lo último que se opera y el nombre de la operación. La misma precedencia que hace que sepas que 3 + 5 * 2 es 13 y no 16 sin necesidad de paréntesis.
Computacionalmente también y aun quitando los paréntesis, porque la ALU de una CPU no resta enteros sino que aplica el complemento a dos al sustraendo y siempre suma.
Por esa simplicidad de operaciones y porque no tiene más que un código para el 0 (no hay -0 y +0 como sí pasa en floating point al usar signo-magnitud) se usa complemento a dos como tipo entero en muchas arquitecturas.

Saludos.
Subir
espasonico
#130 por espasonico el 02/07/2010
Creo que estos post deberían ir en el foro: "Matemáaticas"
Subir
Gracias a todos
#131 por Gracias a todos el 02/07/2010
En todo caso se estará yendo; y no se en virtud de que autoridad ni editorial ni temática te arrogas el papel de celador de la secuencia argumental del hilo. Si te refieres a lo que estamos debatiendo "sotto voce", que no al margen del tema, havmastetring y yo, es precisamente una de las cuestiones capitales de este debate; poder bajar el volumen o no sin afectar a la integridad en cuanto a resolución de la muestra tratada.

Nethox escribió:
Se está llendo mucho el tema del hilo. A los que no puedan evitarlo, que escriban parte ontopic y parte offtopic técnico, pero no sólo lo segundo (para lo cual se usaría otro hilo). Es lo que uso yo para no tener quejas :).

Subir
espasonico
#132 por espasonico el 02/07/2010
carmeloc escribió:
En todo caso se estará yendo; y no se en virtud de que autoridad ni editorial ni temática te arrogas el papel de celador de la secuencia argumental del hilo. Si te refieres a lo que estamos debatiendo "sotto voce", que no al margen del tema, havmastetring y yo, es precisamente una de las cuestiones capitales de este debate; poder bajar el volumen o no sin afectar a la integridad en cuanto a resolución de la muestra tratada.

Nethox escribió:
Se está llendo mucho el tema del hilo. A los que no puedan evitarlo, que escriban parte ontopic y parte offtopic técnico, pero no sólo lo segundo (para lo cual se usaría otro hilo). Es lo que uso yo para no tener quejas :).



Para eso ya está el otro hilo, ¿ no ?

Creo que el que abrió el hilo preguntaba otras cuestiones.

Tampoco creo que sea una cuestión capital el tema de si se puede mover o no el master fader. Lo que hay que aprender es a no tener que llegar a esos dilemas, y eso se consigue prácticando y empezando bien las mezclas. Todo lo demás es buscar soluciones a problemas facilmente evitables si se utiliza el sentido común.
Subir
Gracias a todos
#133 por Gracias a todos el 02/07/2010
Pues parece que no era tan de sentido común; eso contesté (en una primera fase) a quien hacía la pregunta; pero resulta que Euridia nos ha demostrado empíricamente que lo que yo solía aconsejar o pedir (yo alegremente hablaba de menos dcibelios que los que aquí se han dado como recomendables) va en detrimento de la resolución del material que te llega.
Subir
espasonico
#134 por espasonico el 02/07/2010
carmeloc escribió:
Pues parece que no era tan de sentido común; eso contesté (en una primera fase) a quien hacía la pregunta; pero resulta que Euridia nos ha demostrado empíricamente que lo que yo solía aconsejar o pedir (yo alegremente hablaba de menos dcibelios que los que aquí se han dado como recomendables) va en detrimento de la resolución del material que te llega.


Si se trabaja en unos márgenes razonables, la "supuesta" pérdida de resolución es menospreciable. El problema es lo que se tiende a considerar como "razonable". Y supongo que alguién contestará que el problema está en lo que cada uno considere como "menospreciable" :mrgreen:
Subir
Gracias a todos
#135 por Gracias a todos el 02/07/2010
Qué puñetero eres... :) ; pues por ahí estoy yo dándole vueltas, ¿qué es mejor?; ¿de 24 (para luego pasar a 16) perder uno o uno y medio (si es que los bits se puden dividir) por mor de un buen mastering o ser exclavo de la resolución?.

Bufff, lo que me ha quedado claro después de las pruebas que presentó Euridia a Paco es que (si puedo mandar en eso) voy a pedir mucho más alto que antes y voy a jugar con otras tolerancias y otros márgenes. hay cosasq ue mis oídos nos detectan, pero que están ahí y hay que respetarlas.
Supongo que si se escucha alguna vez la música a mayor resolución (que manda cojones lo que ha despreciado los avances posibles la audiencia salvo audiófilos de giradiscos y dentistas de SACD), todavía vamos a tener que cuidar más las cosas.
Reconozco que hemos entrado en lo digital por la vía del plugin, el Daw y el interface asequible y , sin saber determinadas cuestiones matemáticas; y, al menos yo, estábamos haciendo el canelo.
Subir
Hilos similares
Nuevo post

Regístrate o para poder postear en este hilo