EQs idóneos para composiciones orquestrales

Ludwigvan mod
#31 por Ludwigvan el 18/01/2008
Pienso que son temas distintos...la EQ ayuda a la calidad de sonido y expresividad al realismo. Ambas son necesarias en una buena producción pero aportan cosas distintas.

La expresión me parece fundamental, pero hay muchíiiiisimas formas de trabajarla. Con la velocidad midi, a través del CC11, con el cambio de banco, etc etc. Es más, muchas veces aunque parezca mentira la mejor forma de trabajar la expresividad es con la orquestación; añadir o quitar los instrumentos correctos pueden darnos la fuerza adecuada en cada momento.

Lo de la cuantización, después de hacer muchas pruebas...pues que cada uno haga lo que quiera, así de claro ;). Yo que soy un intérprete horroroso tengo que cuantizar casi todo, tengo el mismo sentido del ritmo que un chimpancé, jeje. Cierto es que con este tema puedes tener dos problemas distintos; si no cuantizas nada, deberás tener cuidado de que suene bien y nada fuera de sitio, y si cuantizas todo (como yo) trabajar mucho la expresión en las entradas de los instrumentos para que que no se note.

Y hacer los planos sonoros en tu cabeza, incluso en papel y boli si fuera necesario me parece la clave del éxito seguramente. Como tú bien dices, los volúmenes deben estar perfectos, aunque no siempre lo que está más atrás debe sonar menos...puedes tener unos violines haciendo un trémolo en piano mientras las trompas suenan en ff, y se deben notar igualmente los planos; y la única forma de hacer es ecualizando bien ;).

Y de verdad, que no sé de donde sacáis que las orquestas ni se ecualizan ni se comprimen. Como bien dicen Miguel Ángel, eso es al grabarlas...si recordais estuve con una historia hace unos meses que no salió y me tuve que enterar como iba el tema, y entre el ingeniero y el director me dijeron muy claramente que el 50% del trabajo era en el estudio. Que si doblar secciones, que si reverbs, que la mezcla y la masterización, que si varios micrófonos y tomas para cada sección para hacer efectos...de hecho ambos decidieron que lo mejor era que grabara un sólo contrabajo para no tener problemas de afinación, y luego doblar la pista, por ejemplo o ponerle un chorus. Es una forma de ganar tiempo, pues el número de contrabajos en una grabación ha de ser impar para que la afinación suene redonda y un mínimo de 5 para que suene compacto, y con 5 contrabajos se descompensaba la orquesta. Con lo cual ambos decidieron que tocase sólo el mejor contrabajista. Y cosas de estas, tropecientas mientras yo me callaba alucinado por no tener ni idea de como se hacen estas cosas.

No nos vayamos a creer que para una orquesta ponen un par de micros, graban y tal cual suena el CD. Así lo harían en los años 40 o 50, y así sonaban ;)

E igual (mucho más!!!!) con los VSTs, hablad con cualquier persona que haya hecho algún trabajo importante con ellos y te dirá la cantidad de curro de producción que llevan. Muchas veces generalizamos sobre el tema y es peligroso..hay que decir de donde se sacan esas opiniones porque pueden confundir.

Yo esas cosas durante mucho tiempo me las creí (que los samples ya estaban bien como estaban), pero no son ciertas, asi de claro. Para que suene bien un tema hecho con VST es IMPRESCINDIBLE un gran trabajo de mezcla, EQ, compresión, reverb..

Por supuesto que los VSTs están bien grabados, bien ecualizados y bien comprimidos, pero están ecualizados y compridos para que suenen a 10 cm del micro, y así jamás sonará a orquesta

Hay que hacer un gran trabajo para dejar cada instrumento en su sitio, crear planos, hacer que la orquesta suene como conjunto, que no se pisen frecuencias, etc etc.

Repito, un trabajo hecho con los VST directamente sin retocar NUNCA sonará real, así de claro. No nos empeñemos en buscar la librería perfecta si luego no investigamos en esa dirección, pues llegará un momento en que no avancemos.

Y por supuesto, estas ideas no son mías; como dije en la clase (y no pienso decir en público, jeje) estas cosa las he preguntado a gente que sabe màs que yo y que se gana la vida con esto, que pienso que a veces es la única forma de saber la verdad, pues llega un momento que oyes muchas opiniones generalizando sobre esto (el típico 'las librerías ya están ecualizadas'...) y eso nos puede retrasar muchísimo.

Salu2
Subir
OFERTAS Ver todas
  • -20%
    Technics SL-1200M7 Lamborghini
    1.199 €
    Ver oferta
  • -29%
    Behringer X-Touch Compact
    263 €
    Ver oferta
  • -7%
    Modal Argon8 (B-Stock)
    559 €
    Ver oferta
Ludwigvan mod
#32 por Ludwigvan el 18/01/2008
Acabo de leer el anterior post e igual me ha quedado muy chulesco, muy en plan 'así se hace y punto', no era mi intención.

De verdad que me gustaría que os quedara claro que el camino para conseguir un sonido realista una vez que se sabe manejar las librerías no es otro que aprender a mezclar, no queda más remedio.

Y si me 'cabrea' es porque en su momento me volví mono y me pegué mucho tiempo buscando en la dirección equivocada precisamente por creerme una serie de axiomas irrefutables de gente que sabe mucho. Pero sabe mucho de otras cosas, no trabaja con VSTs orquestales ;)

La solución que tomé en ese momento fue dirigirme a gente que sí que trabajaba y vivía de esto, echándole un poco de jeta y preguntando directamente. Y la respuesta fue unánime: hay que currarse la mezcla.

Salu2
Subir
Jose Luis Salas
#33 por Jose Luis Salas el 18/01/2008
Tranqui compi, no te quedó chulesto. Un saludo.
Subir
eloydelpalacio
#34 por eloydelpalacio el 18/01/2008
Bueno... yo creo que sabéis de sobra que cuando digo que las orquestas no se ecualizan nada, me refiero a que se ecualizan muy poco. Vamos, no es lo mismo muy poco que nada. Y compresión pues aún menos todavía, creo que se debe comprimir muy muy poco, y en momentos contadísimos donde sí se necesite. Quizá la percusión es la que más hay que comprimir. Efectivamente, la EQ utilizada con mucha cautela, hace que la calidad de sonido sea mejor, pero si me tuviera que quedar entre ecualizar mucho y no ecualizar nada, me quedaría con lo segundo.

Ludwigvan escribió:
puedes tener unos violines haciendo un trémolo en piano mientras las trompas suenan en ff, y se deben notar igualmente los planos; y la única forma de hacer es ecualizando bien


Yo no creo que para resaltar los planos en este ejemplo que pones, sea a base de ecualizar bien. Se trata de controlar los volúmenes y la dinámica de los instrumentos, al igual que un buen director de orquesta regula la intensidad de los instrumentos, realza las entradas importantes, los temas y motivos importantes... O al igual que un pianista a la hora de tocar una fuga a 4 voces de Bach, va resaltando también las entradas y los temas importantes (cosa muy difícil).

Lo que pasa es que todo esto es un trabajo minucioso y cuesta mucho, pero es la BASE para que todo suene compensado...

Teniendo esta base perfecta, efectivamente la EQ sirve para dar ese toque de brillantez y profesionalidad a la mezcla.

Lo que no se puede pensar es que teniendo la BASE mal hecha, después ecualizamos y comprimimos y se hace un MILAGRO. Y ojo, Ludwig, que no lo digo por ti, no digo que tú hagas la base mal, lo digo por si alguien se lo piensa.

Barbol escribió:
quizás por eso Eloy nos dice que no se suele ecualizar ni panear


Oye oye, que yo nunca he dicho que no se panea :D Sólo he dicho que no hace falta cuando se trabaja con la EWQL, pues ya vienen los instrumentos colocados en su sitio, y por eso no hace falta. Sin embargo, cuando han sido grabados sin estar colocados, sí que hace falta panear.


Y tema aparte, y sin referirme a nadie, la reverb efectivamente es importantísima, pero IMPORTANTÍSIMA. Sin embargo hay que tener cuidadillo y no confundir y no tener la idea de que sirve para tapar defectos. La BASE repito que siempre tiene que estar perfecta, y después al final se añade reverb muy sutilmente también para que quede un sonido natural y colocar los instrumentos en su sitio.

Utilizar mal la reverb es igual que cuando un pianista malo tapa todos sus defectos utilizando el pedal. Y los defectos no se enmascaran, todo lo contrario, se notan y emborronan más... Lo importante sería tocar sin pedal, y que suene todo perfecto sin él: limpio, preciso, resaltando los temas importantes, ligando con los dedos... Si todo esto se controla, el pedal sirve para que suene mejor.

En fin amigos, espero que quede claro que yo no estoy en contra de la EQ, ni mucho menos, pero no pienso que sea la base ni lo más importante. Para lo que sirve es para que una grabación tenga ese sutil toque de profesionalidad, brillantez y claridad. Todo esto bajo mi punto de vista claro.

Saludos

Mensaje actual: 4230
Subir
Miguel Ángel Cossío
#35 por Miguel Ángel Cossío el 18/01/2008
Alguien escribió:
Bueno... yo creo que sabéis de sobra que cuando digo que las orquestas no se ecualizan nada, me refiero a que se ecualizan muy poco. Vamos, no es lo mismo muy poco que nada. Y compresión pues aún menos todavía, creo que se debe comprimir muy muy poco, y en momentos contadísimos donde sí se necesite. Quizá la percusión es la que más hay que comprimir. Efectivamente, la EQ utilizada con mucha cautela, hace que la calidad de sonido sea mejor, pero si me tuviera que quedar entre ecualizar mucho y no ecualizar nada, me quedaría con lo segundo.

La verdad Eloy es que no sé de donde sacas esas ideas.
¿A cuantas orquestas has grabado para afirmar eso?.
Yo tengo la suerte de ser intimo amigo de Caraborso y de haber estado en infinidad de mezclas y grabaciones durante los últimos 17 años.
Él ha grabado a numeroras orquestas, además de infinidad de discos donde se han grabado secciones de cuerdas (en uno par de discos llevaban temas mios).
Siempre se toca la eq y la compresión ya que no hay un micro tan perfecto como para recoger lo que se está grabando en la sala (el carácter de la grabación).
En cuanto a la reverb, se debe de utilizar para darle un tipo de atmósfera predefinida por el productor y/o arreglista.
Un gran amigo mío que lleva muchos años trabajando como arreglista consagrado y utilizando samples (mis primeros cds de samples me los pasó él) utiliza casi siempre el mismo método:
Combinar una sección (por ejemplo los violines primeros) con el instrumento solo (por ejemplo el violín solo) y hacer una mezcla con esos dos sonidos para darle el carácter de la cuerda.
Y este truco lo utiliza infinidad de gente (escuchad las demos que he puesto de Zimmer con samples y lo apreciareis claramente en las cuerdas).
También podeis escuchar el tema de Diana Navarro titulado "Amor mío" en el que se ha utilizado la VSL.
Y después, como bien dice Adolfo, mezcla.
Es fundamental la mezcla, en la que por supuesto entra la eq, la compresión, la reverb, la paronamización, etc.
Y eso se aprende haciendo muchas mezclas y muchas pruebas y equivocándose y volviendo a empezar.
Otra cosa es el tema de la cuantización.
Yo SIEMPRE meto fallos adrede en la cuantización.
Rara vez cuadro todo perfectamente.
Yo trabajo con el lápiz del piano roll y desplazo las notas para darle un toque humano a la obra.
Y hago esto tambien en todos los géneros con los que trabajo.
Las baterías, el bajo, percusión, etc siempre desplazo notas para darle ese calor humano.
Son muchos los trucos que hay, y que solo se aprende equivocandose.
Haced la prueba y escuchas los primeros temas que hicisteis.
En música no hay reglas fijas (que aburrida sería la música si no) y cada maestrillo tiene su librillo.
Para trabajar hay que tener buenas herramientas, y más que infinidad de librerías vst hay que empezar por unos buenos monitores para saber que está pasando en la mezcla.
Mis primeros cds de samples, y creo que esto ya lo he contado, eran de E-MU y tengo violines (con los que se han grabado infinidad de discos) que tenían (y tienen por que todavía conservo los cds) l friolera de...8 megas.
Y era lo mejorcíto que había en la época.
Los samplers (E-Mu y Akai) costaban alrededor de medio kilo y tenían un mega de ram para cargar muestras, así que había que comprar un disco duro externo de 200 megas, que costaba otra pasta.
Así que imaginense ustedes como estoy ahora con librerías de tantos y tantos gigas, como un niño con zapatos nuevos.
Saludos.
P.D:
¿he batido el record de ladrillo?
Subir
Ludwigvan mod
#36 por Ludwigvan el 18/01/2008
Eloy Pues creo que te equivocas en el concepto...no se pueden considerar igual los VSTs que la grabación de una orquesta real

Cuando se graba una orquesta real (lo digo sin tener experiencia en ello, por supuesto) se retocará, se comprimirá o lo que se haga con bastante más cuidado, y me imagino que no demasiado para música clásica, lo cual no quiere decir que no se haga. Y sobre todo con las BSO hay mucha más libertad

Pero es un trabajo de mejorar el resultado, estamos grabando de la realidad y sólo se trata de mejorar la calidad

Pero trabajar con VST ES COMPLETAMENTE DISTINTO. Los VST no están grabados en 'su sitio' como tú dices; están grabados todos a la misma distancia del micro. Desde los violines hasta la percusión. Las VSL están grabados pegados al micro, y las EWQL lo están a una distancia X, pero todos los instrumentos a la misma distancia.

Eso quiere decir que en las EWQL hay que hacer un trabajo mínimo, que es separar los instrumentos entre sí para crear espacio. Y eso sólo se puede hacer bien con EQ. Y en las VSL hay que hacer dos trabajos, crear ese mismo espacio entre los instrumentos y por otra parte separar el conjunto de los instrumentos del oyente. Suenan demasiado como si tú fueras el director de la orquesta, y para que quede más real has de colocarla como si estuvieras en el público.

Por otra parte los paneos que traen los VSTs son bastante falsos, pues son 100% estéreo, lo cual también se debería recortar para evitar emborronamientos. Si quieres comprobar lo que digo, chasquea muy muy suavemente los dedos al lado de una oreja y tápate la otra. Oirás exactamente lo mismo. Ahora tápate la oreja más cercana ¡y no oyes nada!. El ser humano sólo oye 100% estéreo lo que tiene justo delante de el, eso quiere decir que si tenemos algo paneado un 50% a un lado (en la realidad estaría más allá de nuestras sienes) en el otro canal apenas se tendría que oír algo. Y haz la prueba, en los instrumentos VST igual se oye la mitad que en el canal donde está.

Y si escuchas cualquier BSO te darás cuenta que los paneos en las grabaciones es algo completamente distinto a como oye el oído humano. Si tu oyes una orquesta situada a 15m de ti, el ángulo de audición hará que el instrumento más alejado de tu escucha esté como mucho a un 15% del centro (traza un ángulo imaginario entre tus oídos y el instrumento más a un extremo), si cierras los ojos no escucharás la diferencia casi entre los instrumentos que están a un lado y al otro. Y eso se acentúa con la perspectiva, la percusión que estará más lejos apenas tendrás un 5% de ángulo. Evidentemente no se graba así.

Sin embargo en las grabaciones se simula que la orquesta está a 15m pero se utiliza todo el estéreo para que las frecuencias y los detalles sobresalgan más. Lo oyes con auriculares o usas un programa de análisis y verás instrumentos que están aun 80% de uno de los extremos. Para que eso pasara en la realidad con la orquesta a esa distancia, ese instrumento debería estar situado tranquilamente 50m a uno de los lados de la orquesta.

El oído humano es muy muy complejo, y se produce la paradoja de que si grabas tal cual suena luego no suena real.

Igualmente en directo una orquesta por razones lógicas (y porque la escuchas en el centro) tiene una formación y no se preocupa de compensar los paneos. Sin embargo, en una BSO o una grabación no pueden estar tocando un pasaje de 30 segundos por ejemplo, violines 1ºs, trompas y flautas y estar todas situadas a la izquierda. El otro lado del estéreo vacío. Quedaría horroro.

Pues se automatizan por ejemplo las trompas a la derecha, los violines cantan más. Y no pasa nada, durante el resto del tema igual esas trompas estaban a la izquierda.

Y eso pasa millones de veces, el arpa es muy normal que haga rolls en la izquierda, el la derecha, en el centro y hasta movíendose por el panorama a lo largo del tema.

Igualmente se usa a veces el sucio truco de cuando hay algo que resaltar o un sólo, que ocupe uno de los lados del panorama mientras el acompañamiento se sitúa en el otro. O se pone en el centro exacto, y el acompañamiento a los lados, pero vaciando el 10-20% del estéreo más cercano para que gane nitidez.

Para lograr un buen sonido instrumentos con frecuencias parecidas no deben compartir espacio o frecuencia fundamental; o retocas la EQ quitando frecuencias conflicitvas o lo cambias de sitio.

A veces para poner un instrumento por detrás de otro se le capan los graves (aparecerá más lejano), se le coloca en mono 100% y se pone en un extremo. Igual que verás en muchísimas grabaciones los contrabajos en el centro, para que sean más estereo y 'sujeten' más el tema, pues colocados a la derecha recargan demasiado el panorama en ese lado.

Claro, repito, en una orquesta de verdad si están a la derecha apenas lo notas. E igualmente por funcionamiento del oído cuando hay muchos timbres distintos las cosas que están a los extremos del panorama (que termina escuchando un sólo oído) se reconocen mucho mejor si son agudas, por eso la tendencia a colocar los instrumentos graves en el centro en las grabaciones.

Las percusiones (que tanto se han hablado en el hilo de Zimmer...) en los pasajes fuertes se cambian de color. Para que un timbal o un plato resalten no se suben de volumen (quedaría horroroso y taparía un montón), sino que se recortan casi todas sus frecuencias y se les hace 'sacar la cabeza' en una frecuencia que en ese momento esté vacía, por eso los platos suenan generalmente mucho más agudos que en la realidad. Y por eso se suelen utilizar los taikos, porque suenan en una frecuencia donde otros instrumentos no molestan.

Por ejemplo los timbales suelen tener (dependiendo del tono) afinación sobre 100-150hz. Esa es una frecuencia llenísima, donde puede estar el contrabajo, el chelo, el fagot, la tuba, la trompa....

Si hay un tutti será dificilísimo que se escuche con claridad, pues al menos dos o tres instrumentos de los que he nombrado estarán ocupándola. Sin embargo los taiko dan el golpe entre 40-70hz, donde sólo un contrabajo muy grave podría llegar (y aún así sería fácil de recortar pues el tono principal está más alto).

Es la misma frecuencia que tradicionalmente ocupaba el bombo wagner, con una diferencia, que el bombo wagner no tiene armónicos agudos , con lo cual el golpe no tiene definición. Sin embargo el taiko le puedes recortar todo menos sus graves y los armónicos donde tiene definición y quedará a la vez poderoso y definido.

En fin, que nos fijamos demasiado en COMO ES UNA ORQUESTA, y no en como se graba en la realidad. Si las cosas se grabaran tal como las escuchamos, sería ridículo que existieran profesiones como ingeniero de sonido, o que los estudios se dejaran tantísimo dineral en aparatos carísimos, si con cascarle unos buenos micros sobrase.

Una vez lo leí y me parece un símil muy acertado: un actor no debe ser natural al actuar. DEBE PARECERLO. Si un actor actúa delante de la cámara tal y como se comporta en la vida real, parecerá un mal actor.

Aquí pasa lo mismo, la grabación es lo que debe sonar real. No debe serlo en ningún momento. Simplemente debes darle al play y que parezca una orquesta, pero en ningún momento te tienes que plantear que si los pasos que das son reales o no.

Salu2
Subir
Ludwigvan mod
#37 por Ludwigvan el 18/01/2008
Miangaco, eres un aprendiz....en esto de meter ladrillos jajaja. Anda que no tienes que currártelo más hasta que llegues a tener mi exceso de verborrea, jajaja
Subir
eloydelpalacio
#38 por eloydelpalacio el 18/01/2008
Bueno miangaco, es que ni siquiera sé si has leído todo mi post, porque no sé exactamente a qué ideas te refieres o qué es en lo que no concuerdas conmigo.

Yo nunca he grabado una orquesta, estoy hablando siempre de los samples, que es lo que yo he manejado.

Yo sigo pensando que la ecualización debe ser utilizada de forma muy sutil y sabiendo lo que se hace, y que si te pasas con la ecualización en temas orquestales, puede perjudicar a la mezcla.

Lee bien todo mi anterior post, y todas las cosas que no te queden claras te las vuelvo a explicar, si soy capaz. De todas formas, creo que no nos vamos a poner muy de acuerdo, porque sé que tú sueles hacer un uso excesivo y abusivo de estas cosas.

Lo que no se puede hacer, porque es una absoluta barbaridad, es no ser minucioso a la hora de controlar las dinámicas de los instrumentos (meter un forte donde debería ir piano, meter un piano donde debería ir un forte...; en una secuencia rápida donde todas las notas deberían ser piano, que 3 ó 4 se nos escapen fuertes, que otras ni se oigan...) y pensar que luego, todas estas chapucillas cometidas, las podemos arreglar con compresión.

Las chapuzas no se pueden arreglar, sólo disimular. Pero cuando en música hablamos de las palabras "disimular", "tapar defectos", "que no dé mucho el cante", "dar el pego" y cosas similares, no estamos hablando de ser buenos músicos, meticulosos y minuciosos, y esto, por mucho equipo que tengamos, nunca lo vamos a solucionar hasta que nos demos cuenta de que tenemos ese problema. Y ojo miangaco, que no me refiero a ti.

Saludos

Mensaje actual: 4231
Subir
Miguel Ángel Cossío
#39 por Miguel Ángel Cossío el 18/01/2008
Alguien escribió:
Lo que no se puede hacer, porque es una absoluta barbaridad, es no ser minucioso a la hora de controlar las dinámicas de los instrumentos (meter un forte donde debería ir piano, meter un piano donde debería ir un forte...; en una secuencia rápida donde todas las notas deberían ser piano, que 3 ó 4 se nos escapen fuertes, que otras ni se oigan...) y pensar que luego, todas estas chapucillas cometidas, las podemos arreglar con compresión.

Amigo Eloy, eso es programación midi ¿no?.
Se supone que en esa asignatura casi todos los del taller sacamos nota alta ¿no?.
Yo me refiero más al hecho de la mezcla en si.
Piensa que un vsti ha sido diseñado/programado para resultar agradable al oido y emular lo mejor posible una orquesta.
Ahora imaginemos que tú compones una obra en la que el cello toma un papel destacado pero, al estar todos los demás instrumentos sonando, le quita definición.
Seguimos suponiendo y vemos que el cello choca sus frecuencias mas graves con otros instrumentos que están sonando en ese momento, ya que tienen un determinado rango de frecuencias que están formando una bola de graves inmensa (por ejemplo contrabajo, percusión, piano, etc).
¿Como solucionas esos problemas?.
Pues con eq y con compresión, no hay más historia.
Cada obra es un mundo de eq, panorama, rever, compresión.
No hay reglas fijas.
Debes tener una idea en la cabeza de como quieres que suene y desarrollarla.
No puedes hacer un equema o patrón con todos los temas ya que cometerás los mismos errores.
Adolfo:
Te propongo dejar la música y montar una fábrica de ladrillos.
Y a ver si nos vemos mas por el messenger :D .
Subir
ok
#40 por ok el 19/01/2008
Alguien escribió:

¿Como solucionas esos problemas?.
Pues con eq y con compresión, no hay más historia.


Miangaco, los directores de orquesta no usan ni compresores ni EQ´s, y valla que pueden salir buenas interpretaciones de la mano de un Abbado o un Toscanini!!!!

Basta bajar la intensidad de los demas instrumentos, y ya!!!!!
Subir
Ludwigvan mod
#41 por Ludwigvan el 19/01/2008
Que noooooo!!!!

En la 'vida real' un contrabajo y un cello tocando juntos suenan bien. Sin embargo, grabas ese contrabajo y ese chelo con los mejores micros del mundo, escuchas lo grabado y depende de en qué tonos toquen puede sonar de culo. Pegándose entre ellos.

PORQUE EL OÍDO HUMANO ES ASÍ!!! . Y lo mismo te puede pasar cuando suenen violines y flautas, bajo eléctrico y bombo, guitarras y voz, chelos y fagots, los instrumentos luchan por sus frecuencias.

Una de las explicaciones de por qué pasa eso (y de ahí que los VSTs haya que retocarlos tanto) es que con la distancia los sonidos van perdiendo muchísimas frecuencias, empezando por los extremos (muy graves y muy agudas) hasta quedarse prácticamente en su frecuencia principal.

Es decir, un instrumento alejado (por ejemplo percusión) a 25m ha perdido el 70% de sus frecuencias. Y no exagero, al revés, estoy siendo muy conservador pues seguramente serán más.

Matizando un poco lo anterior, perder perder habrá perdido sólo las más extremas, pero la cantidad de frecuencias en las que haya perdido 5 db o más es enorme, con lo que el color de ese instrumento es completamente distinto.

Es por ello que una orquesta suena bella al oído en directo. Sin embargo si usamos VSTs sin ecualizar, por mucho que la EWQL tenga reverb, es como si tuviéramos TODOS LOS INSTRUMENTOS de la orquesta a 1m. No pierde ninguno de sus matices, en ciertas zonas (graves y medios graves sobre todo) se produce un exceso de infomarción que el oído interpreta negativamente, la famosa bola de graves.

Si tienes a un chelista a 1 m tocando y a lado a 1m a un contrabajista, habrá momentos en que te suene mal. Pero si a esa distancia pudieras tener 5 contrabajos y 8 chelos, sería horroro (y no me refiero al volumen)

Es muy fácil de entender: a 1 m reconoces perfectamente la voz de cualquier ser querido con los ojos cerrados. Si esa persona se va a 50m y se pone a gritar, si estás con los ojos cerrados distingues que es una voz humana (queda su esencia), pero sin embargo te costará mucho reconocer quién es, porque ha perdido otro tipo de información (armónicos).

De todas formas estoy seguro que después de la clase estas cosas te quedarán mucho más claras ;).

De hecho fíjate la tontería que las BSOs las graban a idea en estudio. Para poder meterle reverb artificial. y tener cada instrumento más 'basico' (en el fondo la reverb es un añadido al sonido del instrumento' y poderlo retocar a su gusto

Es de suponer que con las millonadas que se gastan les da para alquilar el mejor hall del mundo. PUes no, prefieren hacerlo en estudio.

Tócate los webos, mira que suelen tener reverb las BSOs, y ahora van los ingenieros y resulta que prefieren...la reverb artificial.

Pues estas cosas pasan en muchos casos, y por ello el estudio de cómo funciona el oído humano y sus consecuencias en las grabaciones es una ingeniería de 6 años.

Si simplemente se tratara de llegar y colocar un micro bueno, lo podríamos hacer cualquiera.

Evidentemente nunca sabremos como un ingeniero, ni es nuestra misión, pero sí que debemos aprender nociones para poder aplicarlas a nuestras producciones si queremos mejorar nuestro sonido. Pues muchas veces achacamos a composición lo que realmente es producción...

Esta tarde veremos por ejemplo el tema de la reverb. Los que son más antiguos aquí saben de mis experiencia con las reverbs. He probado todas las del mercado y me he empollado hasta el último parámetro. Para apredender a crear planos, pues eso es lo que había oído. Me pegué meses expermentando.

Pues bien, todo mentira. Un instrumento más alejado no tiene más reverb, por qué va a tenerla. Si acaso tendrá menos predelay, tema ya más complicado de explicar pues hay que saber las tres fases de la reverb, predelay, reflexiones primarias y cola.

Pero antes de enrollarme diré que ahora utilizo una reverb que ni siquiera es de impulsos y tiro de presets. Fíjate si le he dado importancia y fíjate la que le doy ahora...La reverb la pongo 'casi' de forma automática.

Pues no, la distancia no se crea añadiendo reverb. Se crea ajustando la EQ. Cualquier instrumento en un hall crea una reverb igual de larga y de la misma intensidad. Los parámetros que el oyente distingue desde un punto fijo (oyente) son el predelay que he dicho antes y la EQ. Y el predelay influye realmente poco, si acaso en las cuerdas quedan muy bonitas con un predelay alto en pasajes lentos. Y punto. El resto, EQ.

Llegué a hacer cálculos (increíble pero cierto) de a cuánta distancia estaba cada instrumento del oyente y de las paredes para calcular su reverb exacta y saber cómo serían su reflexiones. Porque había leído 'expertos' (nótese la ironía) que así lo aconsejaban.

Ahora sin embargo afino un poco el oído y ecualizo. Y con la misma reverb (salvo matices), un instrumento parece que lo tienes pegado y el otro que está a 50m sin complicarme la vida..

En fin, que lo que debemos aprender sobre todo es que nunca hay que comparar cómo suena en directo a las herramientas que usamos para reproducir ese directo.

POr cierto, Miguel Ángel, razón tienes, en el messen no estoy nunca. Porque sé qeu vez que entro, vez que echo la tarde, jeje, mi verborrea incontinente. Pero cuando quieras hablar o estés por ahí mándame un privado aquí a Hispa y me conesto..

Abrachos
Subir
Miguel Ángel Cossío
#42 por Miguel Ángel Cossío el 19/01/2008
Alguien escribió:

Miangaco, los directores de orquesta no usan ni compresores ni EQ´s, y valla que pueden salir buenas interpretaciones de la mano de un Abbado o un Toscanini!!!!

Estamos hablando de grabaciones, tanto reales como con vsti.
En el ejemplo anterior me he referido a vsti pero si fuera una orquesta real ocurriría lo mismo.
Subir
Bozz
#43 por Bozz el 19/01/2008
bueno, si me lo me permitís, yo también voy a daros mi opinión al respecto. disculpadme si me extiendo demasiado, pero es que el tema da mucho de sí.

y lo primero que quiero destacar es que la equalización es sólo un MEDIO, tan versatil y util como complejo, y que se puede utilizar para fines tan diversos como cortar frecuencias molestas, resaltar el carácter de un único instrumento o pulir la impresión sonora de todo el conjunto.

puede parecer una obviedad, pero creo que la mayoría de nosotros tenemos la tendencia a generalizar sin más. la respuesta no puede ser tan sencilla como si sí o si no a la ecualización. al final todo, absolutamente todo depende de factores tan dispares como la propia forma de trabajar de cada uno, del estilo, de sus gustos personales, de los buenos y malos hábitos, de su formación, del carácter de la composición... y del objetivo a alcanzar: qué es lo que queremos grabar/ emular? una de mandolinas en el salón de mi casa, o una orquesta al completo en la Sidney Opera House? (o a la inversa ;)

ahora bien, y como supongo que lo que la mayoría de nosotros perseguimos es la emulación acústica "perfecta", independientemente de los gustos personales de cada uno, lo que es impepinable es que para emular esas características y condiciones reales, la ecualización a consciencia se convierte en un medio totalmente indispensable.

no estamos hablando de si me gusta más o menos que mis temas hagan "reventar" el subwoofer de mi buga, sino de emular con mayor o menor fidelidad unas características acústicas que sí que existen en la realidad y que responden a las leyes naturales de la física, sin más.

por ejemplo: el sexteto de bajos está posicionado justo detrás de los cellos, y estos se encuentran a unos seis metros a la derecha del trío de flautas. el lugar, con sus propias características acústicas (longitud, altura, forma, materiales, humedad, cantidad de instrumentistas y espectadores, etc.) impregnará inevitablemente primero el sonido de cada uno de los instrumentos por separado, y luego el conjunto en total. en nuestros plugins de reverberación esto se controla primero con el "predelay" y el "tail". pero un plugin de reverb sin más, y al no ser que las "convolutions" estén grabadas a propósito en cada una de las posiciones y para cada uno de los instrumentos, no está en condición de ofrecerme esas características acústicas específicas.

haciendo panning lo que hacemos es posicionar los instrumentos en su plano horizontal (amplitud). para posicionarlos en el plano vertical (profundidad), no nos va a bastar con subir o bajar el volumen. por qué? porque es evidente que la distancia aporta otra serie de características al sonido que afectan directamente a sus frecuencias. cuanto mayor sea la distacia de un instrumento en relación a nuestra posición, su sonido se volverá más difuso y adquirirá en mayor grado las características propias de la sala. esto se percibe sobre todo en los agudos y los graves, que irán perdiendo fuerza y precisión. de ahí la necesidad de conseguir/ emular esa pérdida a través de la ecualización y sólo en la amplitud de frecuencia adecuada.

y ahí es donde desde mi punto de vista radica la mayor de las dificultades: cada emulación de sala implica una laboriosa búsqueda de las frecuencias correctas a "cortar". y cuanto mayor sea la sala emulada, mayor la dificultad. cada sala es un mundo y cada composición otro.

en nuestras librerías, y a pesar de que se perjure de que las grabaciones están compensadas equitativamente (VSL), cualquier oído un poco entrenado se percatará de que dependiendo de la articulación y del instrumento, el sonido y sus características varían en ocasiones de manera drástica. así que por mucho que lo perjure VSL, la afamada "Silent Stage" sí que ha condicionado el sonido de las grabaciones. es por otro lado inevitable. alguien ha probado por ejemplo a combinar unos cellos legato forte con un sforzatto...? el sonido de los sforzattos suena en comparación estridente y antinatural. así que por si fuera poco, habrá articulaciones de un mismo instrumento que habría que ecualizar por separado. por alguna razón los chicos de VSL hace tiempo que están trabajando en el proyecto MIR. todavía no se sabe con exactitud como funciona ni qué es lo que verdaderamente aportará. si les sale bien, y teniendo en cuenta que va a ser un producto optimizado sólo para sus librerías, podría ser la solución (por el momento) definitiva. hasta entonces no nos va a quedar más remedio que seguir buscando y cortando frecuencias con el EQ.

un musical saludo

bozz
Subir
Ludwigvan mod
#44 por Ludwigvan el 19/01/2008
99'9% de acuerdo.

(No puedo darte el 100% porque soy aragonés y perdería fama ;))
Subir
Miguel Ángel Cossío
#45 por Miguel Ángel Cossío el 19/01/2008
=D> =D> =D> =D> =D> =D> =D> =D> =D> =D> =D> =D>
Buena lección.
Subir
Hilos similares
Nuevo post

Regístrate o para poder postear en este hilo