Convertidor Digital de 384 Khz capado a 22,05 Khz de frecuencia

vagar
#31 por vagar el 03/07/2017
pablofcid escribió:
Ofrecerle al chorus una señal que ya de origen venga muestreada a una tasa más alta, resulta beneficioso en ese sentido.


Si quieres interpolación arbitraria da igual a qué frecuencia venga muestreada, ¿no?, siempre vas a necesitar interpolar y cuanto mayor sea la frecuencia más muestras hay que calcular.

pablofcid escribió:
me da que en ese caso generan y guardan ficheros nuevos


Muy posiblemente, es la solución más sencilla, aunque aumenta el consumo de E/S de disco o de RAM si se cachean. Lo cual nos lleva a la idea que mencionaba de caché de sobremuestreo. No sería necesario muestrear a más frecuencia, bastaría subir la frecuencia del proyecto y dejar que se conviertan los ficheros.

Que interese o no trabajar todo el proyecto sobremuestreado (siempre que haya recursos para pemitírselo) dependerá de cuántos procesos dentro del proyecto vayan a beneficiarse de esa frecuencia superior, en relación a los que van a verse ralentizados (aplicación de ganancias, mezclas y submezclas, eq. lineal, etc.)

Una solución intermedia (y complicada de programar y usar) sería dar acceso a los plugins que lo necesiten a una infraestructura paralela de enrutamiento interno sobremuestreado, para no multiplicar innecesariamente el proceso de sobremuestreo. Cosas como "buses 4x".
Subir
OFERTASVer todas
  • -11%
    Focusrite Scarlett 8i6 3rd Gen
    177 €
    Ver oferta
  • -33%
    Roland GAIA 2
    498 €
    Ver oferta
  • -42%
    IK Multimedia UNO Synth Pro X
    238 €
    Ver oferta
pablofcid mod
#32 por pablofcid el 03/07/2017
#31
Respecto al uso de una velocidad más alta de lo indicado por el límite de Niquist, la idea es que sabiendo que tantísimos efectos pecan de ir muy ajustados para no pedir demasiada CPU, puede tener cierta ventaja ofrecerles un material de 'mayor calidad' como punto de partida. Imaginemos un efecto 'básico' (no hecho en plan altísima calidad). Algunos de ellos ofrecen sobremuestreo interno pero también de una calidad igualmente 'básica' que no está a la altura de lo que debería y a veces incluso puede maltratar más la señal que hacer el procesado en su versión x1 original. Pienso por ejemplo en tantísimos efectos que admiten sobremuestreo interno pero que también advierten de que no siempre (dependerá también del tipo de señal) el sobremuestreo más alto va a ser mejor. En el fondo eso habla de compromisos de diseño que alejan del interpolador ideal y que como resultado están sujetos a esa casuística del 'a veces sí a veces no'.
Frente a eso, ofrecer una señal muestreada directamente a alta velocidad no nos elimina cómputo (tal como dices hay que procesar más muestras y con un mayor número de muestras para representar una misma extensión temporal de la memoria de la señal que conserva el sistema, con lo que el crecimiento de cómputo bien puede ser cuadrático) pero sí nos da una opción para mejorar calidad, porque el muestreo a velocidad alta es real y no 'inventado' con un sobremuestreo en digital realizado con calidad limitada. Desde luego una mejora que viene a costa de cómputo, eso sí.


#31
Respecto a la idea que propones de una caché de sobremuestreo o esa idea (buenísima, paténtala :-)) de los buses sobremuestreados, ya te comenté que veía muy sugerente la cosa. Casi siempre que trato un canal o un bus con inserciones acabo metiendo varios efectos y creo que es algo más que habitual. La idea del bus sobremuestreado permitiría según veo así a bote pronto varias ventajas:

- Evitar que cada efecto en una cadena de varios tenga que hacer y deshacer su propio sobremuestreo, con lo que hay menos pérdidas de calidad y también menos cómputo

- Si el propio DAW ofrece servicios de 'sobremuestreo' para ciertos canales, inserciones, o buses, se parte de una versión del sobremuestreo de la que conocemos su calidad o calidades (no sería extraño que el DAW ofreciera diferentes variantes de calidad en el sobremuestreo) y los programadores de efectos ya no tienen que reinventar la rueda y a veces implementar un sobremuestreo pobre. Que se concentren en ofrecer sus efectos con la capacidad de operar a distintas fs (cosa que ya hacen) y se dejen de implementar un servicio de sobremuestreo que ya les da hecho el DAW.

- La gestión puede ser bastante transparente, en tanto que activas un cierto grado de sobremuestreo allí donde lo necesitas más, con una gestión única desde el propio DAW y no tan dependiente de las peculiaridades de cada efecto y sus menús y configuraciones avanzadas. Con lo que se facilita al final la vida al usuario con un punto único de control respecto a 'esta pista necesita los beneficios del sobremuestreo en los cálculos'.
Subir
vagar
#33 por vagar el 03/07/2017
pablofcid escribió:
buenísima, paténtala


Seguro que ya está implementada en plugins que tengan enrutamientos internos complejos, para cualquiera que sepa de DSP y costes computacionales es una conclusión obvia de optimización adaptativa de recursos. Y si no, es que la han probado y no merece la pena, en sistemas complejos raramente está claro si se mejora o no el rendimiento hasta que no se realizan medidas.

pablofcid escribió:
porque el muestreo a velocidad alta es real y no 'inventado' con un sobremuestreo en digital realizado con calidad limitada


Cierto, aunque si el sobremuestreo se cachea la precisión es arbitraria, ya sería cuestión de ver si cuesta más un ADC de alta velocidad o el tiempo de sobremuestreo software de alta calidad en cada captura. También hay que considerar si el ancho de los canutos de E/S lo aguanta, sobre todo en interfaces externas multicanal.
Subir
Carmelopec
#34 por Carmelopec el 03/07/2017
vagar escribió:
se cachea


La acción policial contra la libertad en forma pronominada: empezamos por la ley mordaza, seguiremos por cacheos arbitrarios y acabaremos por hacérnoslos nosotros mismos.
Mucha mucha policia...
Subir
Harpocrates666
#35 por Harpocrates666 el 07/07/2017
Rodrigo escribió:
Esa era una de las preguntas que me hacía en la reflexión, si sería aprovechable a la hora de trabajar en el pc.


pablofcid escribió:
Eso es precisamente. Al poder trabajar con una señal ampliamente sobremuestreada (ya sea porque esté adquirida a mayor fs o porque el efecto aplique sobremuestreo internamente) los procesos/efectos no las pasan tan canutas. En realidad en cuanto a uso final de CPU tampoco se ahorra, porque puedes hacer menos operaciones para el mismo resultado pero las tienes que hacer más veces por segundo (por no hablar de la carga asociada al upsampling y downsampling si el sobremuestreo es interno al efecto). Además el objetivo no es hacer lo mismo de otra forma, sino aprovechar para hacerlo algo mejor.
Si vamos a la cruda realidad en la que muchos efectos están implementados (aunque esto va mejorando) muchas veces se potencia tanto lo de no consumir mucha CPU (por ejemplo para permitir tener muchas instancias de un efecto) que acaba afectando a la calidad. Operar ese mismo efecto a una mayor velocidad de muestreo a veces ayuda a ganarle un plus de calidad.
Por ejemplo, un chorus (ya ves tú que cosa más sencillita... aparentemente), como está teniendo que reconstruir los valores intermuestras necesita un buen interpolador (el ideal, la función sinc, exige un cómputo en teoría infinito y en la práctica, para mantener una calidad / limpieza de suficientes decenas de dBs también una barbaridad de coeficientes / operaciones). Ofrecerle al chorus una señal que ya de origen venga muestreada a una tasa más alta, resulta beneficioso en ese sentido. Y es que, en el caso particular de los chorus, la verdad es que hay implementaciones con interpolaciones muy pobres y de ahí que generen tal cantidad de ruido y otros indeseables (aliasing).
A lo que voy es a que, no para el formato final de distribución, etc., sino durante la elaboración/mezcla, haber usado una tasa alta de muestreo (aunque la de 384 se me antoja ya demasiado) puede dar un mayor éxito en el funcionamiento de efectos que muchas veces están programados con una combinación de requisitos entre los que la calidad es sólo uno más, y a veces cede espacio para que otros (latencia, uso de CPU) mejoren.


Muy bien todo, pero considera que lo que quiere es filtrar a 22 khz pero muestrear a 192 khz (quizas no exactamente esos valore pero la idea es esa, filtrar mas abajo para "ahorrar" quien sabe qué). Y el tema es que con eso mas evidentes serán los problemas del filtrado analógico y las muestras se tomarán de todas formas, por lo que ahorro en realidad no existe. Sea registrada señal en dicha muestra o no la muestra existirá de todas formas, 24 bits de información desperdiciados en registrar nada.
Subir
Hilos similares
Nuevo post

Regístrate o para poder postear en este hilo