Normalizar es un proceso totalmente innecesario en cualquier caso, no hace falta hacerlo en una pista dentro de un proyecto, está la ganancia de los canales para adaptar como va a entrar la señal en la pista, no tiene ninguna clase de sentido aplicar este proceso de normalización en ningún caso.
Este proceso digital de subir físicamente el pico más alto a 0dbs o el punto en que se quiera que esté este pico que beneficios da o aporta? Ninguno.
Cuando se trabajaba en analógico y no existia esta opción tan ineficaz e inutil, no se podían hacer las mezclas o que pasaba?, siempre una pista esté muy alta o baja de volulmen hay que adaptarla a la entrada del canal, si está muy alta, o sea que si normalizamos por ejemplo o se ha grabado muy arribsa, al ecualizar y reforzar frecuencias puede pasarse de 0dbs, con lo que hay que bajar la ganancia para que no pique en el siguiente plugin dentro de la cadena de este canal, y si está muy baja la señal hay que subirla, pero no tiene ninguna clase de sentido ni aporta absolutamente nada positivo normalizar una pista en ningún caso.
Hay una ganancia en todos los canales de cualquier secuenciador para adaptar la señal exactamente igual que el que hay en todas las mesas analógicas de toda la vida.
Por otro lado secuenciadores como el cubase tienen la posibilidad de adaptar esta señal además de con la ganancia, tocando con el ratón una pista donde está la onda dibujada, podemos subir o bajar esta ganancia, además de poder ver graficamente como lo está haciendo, ya que la onda también se agranda o disminuye su tamaño y permite ver graficamente lo que también se puede escuchar y ver en el vúmetro, lo que si con el fader a 0dbs.
Y si se está trabajando con plugin virtual de synte, este tiene un volumen de salida....
Si se usa un synte hardware no que da otra solución que pasarlo a wav, eso si.
Y de normalizar, si se hace la mezcla y hay que masterizar luego, que beneficio tiene el normalizar?
Si hemos normalizado a 0dbs o a los dbs que se haya hecho, siempre es el pico más alto que va ha estar a lo que le indiquemos, pero una vez que se ha normalizado puede que en la cadena de plugins que se vaya a usar para masterizar o en el estudio de masterización tengan que reforzar alguna frecuencia en el ecualizador, y estamos en la misma explicación anterior, donde sea siermpre habrá una ganancia, sea en el primer plugin de la cadena o el en primer procesador hardware que se utilize puede adaptar la señal a lo que se necesite, no es necesario en ningún caso normalizar en ningún momento, se puede hacer, como se pueden hacer muchos procesos cuando son necesarios, pero cuando no lo son, para que hacerlos......
Lo que hay que intentar también es que cuando se está grabando una pista se grave lo más arriba posible sin que se pase de 0dbs y cuando se mezcla también, hay margen de todas maneras y se graba o mezcla algo abajo no pasaría nada, pero siempre hay que intentar hacerlo lo más arriba posible, ahora si no se ha grabado muy arriba o en la mezcla se ha quedado también no muy arriba no pasa nada, dentro de algo normal, claro, si la pista esta a 0/-3/-6/-12/dbs no habría problema, un poquillo más abajo tampoco habría problema, ahora si no se ve el dibujo en el gráfico del arrange mala cosa...., pero esto ya se esta viendo cuando se graba o cuando se mezcla......
Gracias de nuevo.
Saludos!
el midi es solo información, no suena, por lo tanto, la noción de pasar midi a audio es errónea, lo que te ocurre es que al grabar una pista de tu triton en el pc, lo pasas por la tarjeta de sonido, en ese momento se produce una conversión AD, si los conversores de tu tarjeta no son muy allá, es por eso que notas la perdida de calidad.
Uno suena tan bien como el peor cacharro que usa para grabar.
saludos
yo utilizo pocos sonidos virtuales (baterias porque no tengo en casa y poco mas) pero nunca se me habia ocurrido pasarlo a audio, cuando acabo el tema lo exporto todo como wav y a correr. de hecho, al principio pasaba las pistas midi a audio porque cuando exportaba estas no salian en el wav final pero con los vst no tengo problema y ya ni me acuerdo de como se pasan a audio. Aprovechando el tema, como se pasa a audio con el cubase por ejemplo??? es que ya ni me acuerdo!!!
Por que no se oye igual ?....
Esto se ha tocado antes en temas sobre la calidad de los programas que usamos. Los que usan SONAR de toda la vida no aceptan que a medida que se van agregando tracks de audio se va perdiendo calidad y el audio se va achiquitando cada vez. Lo cual no ocurre con programas como Protools, Logic ó Digital Performer. En mi opinión basado en la experiencia vivida trabajando con casi todos estos programas lo he notado.
Por otro lado me encanta trabajar mis mezclas usando los tracks MIDI, por lo mismo que mencionan de la edición y flexibilidad. Al usar instrumentos virtuales si son muchos si es bueno vaciar a audio para aprovechar los recursos en mas plugins.
Saludos!
1
De todos modos, algo no me cuadra. Estoy leyendo a gente que no convierte a Wave en ningún caso. Yo no lo haría si no fuera por la etapa en la que se empiezan a grabar las voces. Me resulta imposible que un PC pueda con todo el proyecto reproduciéndose una vez que se han añadido el gran peso de las voces y sus correspondientes efectos sin desfase...
Cierto, insalada. En mi caso, mantengo los proyectos en MIDI y aunque tenga un montón de pistas, el indicador de consumo de CPU se mantiene al mínimo (uso SONAR 4 PE). A la que incorpora pistas de voz grabadas en WAV (lógicamente), la CPU empieza a moverse considerablemente; si a esas pistas les añado efectos el consumo es más que notable y pueden llegar a aparecer los primeros "dropout". De todos modos mi lógica (y poquita experiencia) me dice que el consumo sería mucho peor (superior) si el resto de pistas que ahora tengo en MIDI estuvieran en Audio. Ésa es otra razón que me impulsa a no convertir a Audio si no es imprescindible, con lo que sólo mantengo en ese formato voces y guitarras (y algún loop si lo hay).