Inxu escribió:
¿es inviable adaptar una Cpu de ese tipo a una interface que procese sola como las Uad? Desde la ignorancia pregunto.
Como han comentado ya, es
la manera de procesar más que el poder de procesamiento lo que se busca con un chip específico DSP.
Por lo que sé, un DSP está concebido para realizar una tarea específica, la cual en audio se trata de procesar a "tiempo real" (siempre hay algunas muestras de retardo, pero son imperceptibles en la actualidad).
No tengo ni la formación ni la experiencia en la materia de pablofcid (por cierto, gracias una vez más por verter tu conocimiento Pablo
) por lo que lo que voy a comentar es tal y como he entendido que trabajan DSP's y CPU's.
Cuando cargas por ejemplo una reverb en un DSP, la reverb ocupa ese espacio en el chip y está lista para ir devolviendo procesado el audio que le va llegando. Hasta que no le das al play el audio no le llega al DSP, sin embargo el DSP ya está ocupado con esa reverb. Y cuando le das al play todo lo que le llega lo devuelve procesado a tiempo real, todo, por su forma de procesar en paralelo.
Una CPU sin embargo procesa instrucción a instrucción. De una en una. No todo a la vez. Cuando cargas una reverb nativa en una pista, la CPU sigue intacta. No se carga nada de esa reverb en ella. No queda nada a la espera. Solo cuando le das al play comienza la rueda de procesado (instrucción a instrucción) pero de toooodo lo que le llega a la CPU (la reverb, el DAW entero, el SO...). Y todo esto instrucción a instrucción, por lo que te procesa a lo mejor alguna instrucción de la reverb, luego otra del SO, luego otra de otro procesador (EQ, dinámica...), etc. hasta que le vuelve a llegar otra instrucción de la reverb... y así continuamente.
Entre instrucción e instrucción de la misma reverb, hay entre medias multitud de instrucciones de multitud de parámetros a procesar de todo lo que se cuece en la CPU.
Pero no siempre hay un mismo número exacto de instrucciones de otros parametros entre medias de dos instrucciones de reverb.
Hay números dispares de instrucciones entre medias según necesidades de computo (entran a sonar más pistas o menos en el DAW, entran en juego automatizaciones de faders, panoramas u otros parámetros en plugins, etc.), por lo que el tiempo que tarda la CPU en devolver los proceso de reverb es dispar (a veces llega antes y otras más tarde).
Ese pequeño lapsus de tiempo entre instrucciones de reverb, es imperceptible al oído humano en principio (serían diferencias "microscópicas). Pero digo en principio porque cuando suena una pista sola, "todas" las reverb parecen que suenan bien y son maravillosas, pero
cuando hay sonando simultáneamente un número considerable de pistas (importantísimo esto), muchos son los que se quejan de la falta de "profundidad", o de falta de "claridad", o de "barrizal", o de lo que sea que escuchen que no lo escuchan cuando insertan por ejemplo una reverb hardware (corriendo en DSP).
Este ejemplo de la reverb es el ejemplo clásico de preferencias (por parte de muchos ingenieros de mezcla) de reverb hardware sobre plugin.
Hay otros ejemplos (como pueda ser el de sumadores), sobre los cuales no voy a entrar, pero si decir que en todos estos ejemplos, cuando pueda notarse, es cuando hay un número considerable de pistas sonando simultáneamente (motivo por el que a muchos les suenan mejor las mezclas en mesas digitales también... corriendo en DSP).
Sí pienso que está diferencia tiende a desaparecer con el aumento de núcleos e hilos en las CPU's, lo cual hace que aumente su capacidad de procesamiento en paralelo. Pero por el momento parece que no hay una total optimización del multihilo, aunque se trabaje en esa línea.
Por favor, que alguien me corrija en lo que pueda estar confundido.
Un saludo.