El paper que aporta Melange parece muy interesante, de momento sólo me he leído la introducción. De todas formas, yo creo que aquí hay cierta confusión:
melange escribió:
brote escribió:
Pero si vamos superponiendo sonidos complejos, como si de musica se tratara, estas sumando contenido en algunas bandas frequenciales, y como hemos visto los inharmonicos generados en una senoide se reparten en casi todo el espectro no solo en esa banda, y creo que ese es el problema. Pues a medida que vayamos añadiendo sonidos, iremos sumando en la capa de inharmonicos más contenido.
Cierto. Pero no olvide que además de sumar también restará porque no todos los armónicos están en fase con su fundamental, es decir, tendrá un espectro nuevo. Un análisis espectral como los que se proponen en este hilo no dice nada sobre la fase de los armónicos y esto es muy muy importante.
Tal y como yo lo entiendo, Brote habla de los
interarmónicos creados por el aliasing y melange habla de la
fase de los armónicos creados a partir de la compresión.
Por lo que yo recuerdo, nadie de aquí ha dicho que el problema de tal o cual compresor es la creación de los armónicos, sino del aliasing. Yo de física de sonido sé lo justo, pero me voy a aventurar a decir (la ignorancia es muy atrevida) que la diferencia de fase de los interarmónicos con respecto a la fundamental no será el elemento determinante a la hora de estropear la musicalidad de la señal que se está procesando; es la aparición de los interarmónicos de por sí. Por lo que yo tengo entendido, estos no suceden en la naturaleza ni los producen los instrumentos musicales, así que añaden "sonido" que nos resulta raro y eso hace que no nos guste, que no nos suene musical.
Yo, de hecho, no consigo imaginarme una situación donde el aliasing y los interarmónicos puedan aportar algo positivo al sonido:
- si se cancelan, bien por que no quitan nada, pero tampoco aportan nada. También lo que habría que ver es contra qué se cancelan, porque si es con partes del sonido preexistente, vete a saber qué se están llevando por delante.
- Si no se cancelan, pues ahí están añadiendo caca. Si podemos decidir entre procesadores, aunque sea mirando gráficas, que no añaden este tipo de información al sonido que teníamos antes de procesar, y los que sí que la añaden, tampoco veo tan grave que la gente prefiera los que no. Habría que comprobar, evidentemente, lo audible que resulta este error (aliasing), y lo audibles que pueden resultar las contrapartidas de los que evitan el aliasing.
Sigo pensando, de todas formas, que vale la pena utilizar modelos aproximados para explicar ciertas partes o comportamientos de un sistema complejo. La física está repleta de este tipo de planteamientos, por no decir que toda la física se basa en esto. Y con
esto me refiero a pruebas y análisis con sonidos simples, como lo que se muestra en el video de Slate Digital, o como los tests realizados en este post. Permite hacer paralelismos entre lo que suena bien y lo que se ve bien.
Voy a comprobar también a ver si se oye alguna diferencia al invertir la fase de un armónico. Un saludo a todos!