Por ahora la mayorái de código DSP existente está pensado y diseñado para funcionar sin paralelizar. La mayoría de paralelización se hace con efectos de convolución que por lo general son menos flexibles y necesitan de impulsos para funcionar adecuadamente. Es lo mismo que ya se consiguió hace 15 años de manos de una pequeña empresa que programó una Reverb de convolución que podía funcionar sobre GPU Nvidia CUDA v.1 que eran las Tesla 2.
Cuando Fermi salió al mercado, se cambió la versión de CUDA y esos plugins dejaron de funcionar correctamente.
Posteriormente se estableció el standard OpenCL y se estuvo trabajando en intentar hacer plugins que se ejecutaran bajo OpenCL, pero no llegó a buen puerto, aunque algo había.
No sólo es que las empresas no estén acostumbrados o interesados, es que para poder paralelizar procesos que trabajan en serie hay que cortar los procesos y esperar al resultado del siguiente. Además, las unidades de proceso de las GPU usan vectores, no valores.
Qué sentido tiene vectorizar el sonido?
Quizás para trabajar con reverberaciones Atmos o mezclas multicanal sí que se le pueda sacar algun partido, pero por lo pronto, la ventaja para procesos estándar es casi nula.
La imagen se trabaja en forma de plano, por ello es muy fácil dividirla en varias porciones y procesarla mediante GPU de manera paralela, el sonido es lineal, se puede distribuir una mezcla en un plano, pero la paralelización estará siempre limitada a la cantidad de elementos que se reproducen en ese plano.
Asi que aunque la convolución, las reverberaciones y algunos plugins de mezcla pueden ganar mucho, el rendimiento seguirá dependiendo más de unos pocos núcleos corriendo tareas en serie.