Professional Documents
Culture Documents
Este e-‐book é totalmente autoral. Sinta-‐se à vontade para compartilhar com os amigos e amantes do áudio,
porém qualquer utilização do material ou partes sem prévia autorização ou citação devidas do autor estão
sujeitas às penas estabelecidas pelas leis de direito autoral.
Airsculping Produções / Nando Costa Music © 2018
E-Book – Guia de Teoria de Áudio, Mixagem e Masterização – Nando Costa
“Engenheiro de Áudio: Um cara que veio para resolver os problemas que você não sabia
que tinha, de uma forma que você não consegue entender.” – Autor desconhecido
O que é Mixagem?
Definições da palavra (Dicionário Michaelis)
1. Operação que consiste em mesclar, numa só faixa sonora, os sons de várias outras
faixas de diálogos, música e ruídos. 2. Ato ou efeito de mixar.
Elementos Principais
O processo de Mixagem de áudio pode ser entendido como o balanço e
organização de várias fontes sonoras levando em consideração os seguintes elementos
básicos:
1. Volumes
2. Panorama (Pan)
3. Equalização
4. Compressão
5. Excitação Harmônica (Drive, Simuladores de Amplificadores, etc)
6. Efeitos (Delay, Chorus, Reverb, etc)
Metodologia Básica
A Mixagem pode ser entendida como um processo em espiral. Geralmente não
trabalhamos em um elemento e o consideramos "pronto" até o final da mix. Precisamos
trabalhar e ouvir cada elemento presente na música e possivelmente teremos que
revisitar cada um deles algumas vezes até encontrar a forma mais adequada para que ele
se ajuste e esteja balanceado com o restante dos elementos da mix.
Mixagem com elementos em SOLO: Apesar de ser a forma mais intuitiva de
começar a fazer os ajustes dos elementos na mix, é a forma mais traiçoeira. O track pode
soar interessante sozinho, mas geralmente não se encaixará com os demais elementos.
Pode levar à erros com mais frequência e fazer com que você tenha que gastar mais
tempo corrigindo e descobrindo inconsistências sonoras.
Mixagem com todos elementos tocando: A forma que parece menos intuitiva e
mais difícil num primeiro momento te levará à resultados cada vez mais consistentes e
interessantes ao longo do processo de aprendizado. Só assim começará a ter domínio
pleno das ferramentas de áudio.
à O ponto mais básico para começar a sua mixagem talvez seja fazer uma Rough
Mix:
1. Você pode optar por zerar todos os faders ou partir do ponto original em que os
faders estão; se você participou da gravação e produção, é provável que já tenha
direcionado a sonoridade nas fases anteriores, portanto recomendo que não zere
os faders. Se está mixando para alguém, faça um bounce da sessão do jeito em
que ela se encontra. Este bounce será seu ponto de referência. Aí sim, se desejar,
pode abaixar os faders para começar do zero. Utilize este bounce como
referência ao longo do processo de Mixagem para saber de onde partiu e para
onde quer ir. É muito comum, quando se está aprendendo, processar tracks além
da conta; neste caso, voltar ao bounce original para se ter uma referência é muito
importante. Se os sons "mixados" e "processados" estão piores do que a faixa
"crua", você saberá na hora. Evite processamento desnecessário!!!
2. Remova todos os plugins (deixe apenas aqueles que fazem parte da produção,
como por exemplo plugins de efeitos especiais ou possíveis simuladores de
amplificadores);
3. Comece a subir os faders (caso tenha zerado) ou balanceie, pouco a pouco,
utilizando volumes apenas;
4. O ideal seria fazer este processo por grupos, como por exemplo o grupo da
bateria (ou beats eletrônicos), percussões, instrumentos de corda, teclados /
sintetizadores e vozes;
5. Junto ao ajuste de volumes, trabalhe o ajuste de pan, que permitirá dispor os
elementos de forma mais clara no campo estéreo (esquerda / direita).
à Volume e Pan são os elementos mais básicos da mix e por isso os mais
importantes. A todo momento, você estará ajustando volumes e pan para chegar em um
resultado mais preciso, porém este ajuste básico guiará todo o seu processo. Portanto,
atente-‐se! Se você largar um elemento com um pan extremo para a esquerda, por
exemplo, será muito trabalhoso, em um momento mais avançado do processo de
Mixagem, a modificação do posicionamento deste elemento sem afetar drasticamente o
todo. Cada elemento dentro da mix depende de todos os outros elementos da mesma.
Portanto, seja bem consciente neste processo!
Mixagem Visual
Podemos entender a Mixagem como um processo em 4 dimensões. Podemos ver
os elementos dispostos como uma imagem em 3 dimensões, que se move ao longo do
tempo (4a dimensão). Sendo assim, os elementos do áudio podem ser dispostos da
seguinte maneira na mix:
Volume Nível de Efeitos
Frequências Altas Mínimo 100% Wet
(20.000 Hz)
Compressão
Mínima
Volume
Máximo
Frequências Baixas
(20 Hz)
Nível de Efeitos Compressão
100% Dry Máxima
Exemplo com instrumentos:
Esta forma de associação com imagens ajuda bastante no processo de Mixagem
do nosso dia-‐a-‐dia e pode facilitar o entendimento, agilizando o aprendizado das técnicas
num curto espaço de tempo.
Mixagem Funcional
Apesar da imagem com a visualização dos instrumentos ser bem útil como uma
“fotografia” da sua mixagem, podemos utilizar o conceito de “Mixagem Funcional” para
auxiliar ainda mais no processo de organização da mix.
Cada instrumento ou elemento da mix tem a sua função musical bem definida. De
uma forma geral, bateria e baixo criam a base, guitarras complementam a base, mas
podem também criar detalhes, enquanto que as vozes
trazem a mensagem principal e ficam sendo o foco das
atenções. Alguns elementos permanecem ativos durante
toda a duração da música, enquanto que alguns
sintetizadores e percussões podem aparecer apenas por
curtos trechos do arranjo. O entendimento de todos os
elementos e o julgamento das funções e importância de
cada um deles dentro da mix, guiará nosso processo e
metodologia de Mixagem.
Não existem regras quanto à escolha da ordem de
trabalho dos elementos de uma mix, mas o entendimento
de suas funções facilita o processo como um todo. A
grande maioria dos engenheiros de Mixagem segue o
seguinte raciocínio: bases à complementos à vozes e
detalhes.
Este raciocínio segue a lógica de uma construção civil, por exemplo. Os
engenheiros planejam a construção de uma casa fazendo a fundação, lajes e vigas (base),
depois paredes e telhado (complementos) e então o revestimento interno, portas e
janelas (vozes e detalhes). Trabalhar nos elementos rítmicos facilita o processo para o
balanço e colocação dos elementos de harmonia e vozes na mix. Em grande parte das
vezes, a adoção deste processo leva à um resultado bem mais rápido na mixagem.
Mesmo assim, dependendo da música, algum outro elemento pode guiar a atenção do
engenheiro para começar o trabalho por ele ao invés dos elementos rítmicos ou base.
Mas, de qualquer forma, a base sempre terá uma atenção bem grande logo no início do
processo.
Obviamente, não podemos nos esquecer dos detalhes, pois estes podem
simplesmente arruinar uma mixagem. Alguns elementos, mesmo que não tocados na
maior parte do arranjo da música, podem obstruir ou atrapalhar algum elemento chave
da música, se tratados de forma incorreta.
As variações de pressão do ar quando um tambor é tocado ou quando falamos é o
que gera o som. Estas variações de pressão são transmitidas para as regiões mais
próximas (moléculas de ar) e, desta forma, se propagam no meio. Percebemos o som
porque estas vibrações entram em nosso canal auditivo e fazem com que os ossos
internos do ouvido vibrem em consonância com o movimento do ar. Estes, por sua vez,
excitam as terminações nervosas do ouvido, fazendo com que impulsos nervosos sejam
transmitidos ao nosso cérebro. Desta forma, conseguimos ouvir.
No mundo do áudio, podemos fazer a mesma analogia. Um microfone funcionaria
como se fosse o ouvido humano. O ar em movimento atinge a cápsula do microfone (que
pode ser constituída de várias formas e ter vários processos para a transdução do som) e
esta vibra em reação às diferenças de pressão do ar. Este movimento da membrana da
cápsula faz com que haja variações elétricas na cápsula (cada tipo de microfone tem uma
forma de fazer isso), gerando um sinal proporcional ao som transmitido que é enviado
pelo cabo do microfone. Esse sinal elétrico pode ser transmitido diretamente à uma mesa
de som ou amplificador para a replicação do sinal ou gravação em tape ou computador
(disco rígido).
Da mesma forma, quando enviamos um sinal de áudio para um amplificador (e
consequentemente caixas de som para a reprodução), o processo inverso é realizado. O
sinal elétrico é ampliado (amplificado) e segue nos fios até o alto-‐falante; a variação de
tensão no sinal faz com que os falantes sejam movidos para frente e para trás, replicando
fisicamente o movimento do som original. O movimento dos falantes cria a variação de
pressão no ar e gera acusticamente o som armazenado previamente.
• Ciclo de onda: Uma onda sonora sai de um ponto de repouso (pressão normal do
ar – silêncio), passa por um ponto de compressão máxima do ar (área indicada
“compressão”), um ponto de compressão mínima do ar (área indicada
“rarefação”) e retorna ao seu ponto de repouso inicial. Isso é o que chamamos de
ciclo de onda;
• Frequência: Número de ciclos por segundo de determinada onda (medida em Hz –
Hertz);
• Comprimento de Onda (ou Wavelength): Espaço físico necessário para
determinada onda se formar;
• Período: Tempo gasto para a formação desta onda sonora;
• Amplitude: Magnitude de determinada onda sonora. Em termo práticos, quanto
maior a amplitude, maior o "volume" da onda.
• Fase: Damos o nome de fase à cada uma das porções da onda; à porção de
compressão do ar damos o nome de fase positiva e à porção de rarefação do ar
damos o nome de fase negativa.
Só para você ter uma idéia prática (sem entrar em matemática), se pegarmos uma
onda sonora de 1000 Hz (frequência), ela precisa de um espaço físico de 1 pé (33 cm –
comprimento de onda) para se formar e leva 1 milisegundo para se formar (período).
Quanto mais grave a onda sonora, maior o comprimento de onda e maior o período para
se formar também. Esta é a razão pela qual conseguimos distinguir melhor os sons
graves quando nos afastamos das caixas de som. As ondas sonoras ficam mais evidentes
à medida em que temos mais espaço físico para elas se formarem.
Com esses conceitos em mente, podemos ainda falar sobre uma diferença básica
entre som e ruído sonoro. Se determinada onda sonora é periódica, ou seja, se tem
repetição de ciclos durante um determinado período de tempo, este som será percebido
como uma nota musical (independente do timbre gerado). Se uma onda sonora não
segue padrões de repetição contínua, o que é percebido é um ruído (não conseguimos
distinguir uma nota musical).
O chamado tom puro (onda senóide -‐ sine wave) é uma onda sonora contínua e
cíclica, como mostrado a seguir:
Fisicamente, seria uma oscilação contínua perfeita e ininterrupta à uma
determinada velocidade de repetição (frequência). A maioria dos afinadores de
instrumentos possuem a opção de ouvir a frequência referência de 440 Hz. Quando
habilitamos esta opção, o que ouvimos é um tom puro de 440 Hz. Praticamente qualquer
DAW (Digital Audio Workstation) possui osciladores para teste e conseguimos gerar
esses tons puros para a calibragem de equipamentos e manipulações de áudio.
No entanto, no mundo real do áudio, praticamente nenhuma onda sonora é feita
de apenas um tom puro. Quando tocamos uma nota Dó no piano, o que ouvimos na
verdade não é apenas a nota Dó que possui a frequência de 261.6 Hz. É uma combinação
de vários sons que são originados pela vibração da corda do piano em várias extensões e
intensidades diferentes.
A nota Dó 261.6 Hz é o que chamamos de nota fundamental ou 1o Harmônico
(Overtone). No entanto, a corda do piano vibra ao mesmo tempo em metade de sua
extensão, como mostra a figura acima. É o que chamamos de 2o Harmônico. É outro tom
puro gerado, porém com a sua frequência dobrada (523,2 Hz); já que vibra na metade do
comprimento de onda do tom puro fundamental, sua frequência dobra. Analogamente, a
mesma corda possui uma vibração que é feita no espaço de 1/3 do comprimento de onda
original (3o Harmônico); esta frequência será 3 vezes maior que a frequência da nota
fundamental e assim por diante. Isso é o que chamamos de série harmônica.
A combinação de um tom puro fundamental com vários tons puros harmônicos, em
intensidades diferentes, é o que define o timbre de um instrumento ou som.
Desta forma, uma onda sonora comum é mais parecida com o que representamos
abaixo. Considerando uma onda fundamental de 100Hz mais o segundo e terceiros
harmônicos (200 e 300Hz), temos a geração de uma onda complexa, que é mostrada na
parte inferior da ilustração.
Um dos grandes problemas que nos deparamos frequentemente em mixagens é
o que chamamos de cancelamento de fase. Apesar de não nos depararmos apenas com
tons puros no mundo real, a visualização deste fenômeno com tons puros facilita o
entendimento e generaliza a situação para qualquer tipo de onda sonora.
Quando temos qualquer instrumento gravado com dois ou mais microfones (os
casos mais comuns do dia-‐a-‐dia são bateria, percussão, baixo – DI box e microfone no
amplificador, violão, etc), a onda sonora emitida pelo instrumento será captada por
ambos microfones em posições diferentes e poderá atingirá a cápsula dos microfones
em tempos diferentes. Quando os microfones estão muitos próximos e a onda atinge as
cápsulas ao mesmo tempo ou em uma fração de tempo muito próxima, temos a
chamada interferência construtiva. As ondas são somadas, gerando uma onda resultante
de maior amplitude (exemplo superior da ilustração a seguir). No entanto, se os
microfones não estiverem na posição correta, poderá haver um atraso “desagradável”
quando a onda sonora atingir um deles; neste caso, as ondas ficarão desalinhadas como
é o caso do exemplo inferior. A fase positiva de uma onda se encontrará com a fase
negativa de outra e, desta forma, teremos a chamada interferência destrutiva. Em um
caso extremo, que é facilmente mostrado através de um teste com osciladores,
podemos gerar o chamado cancelamento total, onde, mesmo que ambos osciladores
estejam emitindo sons ao mesmo tempo, as caixas de som não emitem som algum.
Espectro Sonoro
Os seres humanos conseguem identificar sons entre 20 Hz e 20.000 Hz (20 kHz).
Mesmo que com a idade a nossa percepção sonora nos agudos tenda à reduzir, no
mundo do áudio trabalhamos com o processamento de sinais todo baseado neste
conjunto de frequências.
Geralmente dividimos todo o espectro sonoro em: grave, médio-‐grave, médio,
médio-‐agudo e agudo. As frequências exatas que definem cada uma dessas regiões
geralmente diferem para cada profissional da área, mas as regiões aproximadas são as
mostradas acima. Frequências acima de 20KHz são chamadas de supersônicas e
frequências abaixo de 20Hz são chamadas de subsônicas.
Musicalmente falando, quando tocamos no piano uma nota Lá 440 Hz e na
sequência a nota Lá 880 Hz que possui o mesmo som, porém mais agudo, dizemos que a
segunda nota está à uma oitava de distância da primeira. Portanto, qualquer distância
que dobre a frequência de um som a outro, é o que chamamos de oitava. Baseado nesta
idéia, podemos dividir nosso espectro sonoro em 10 oitavas, significando uma oitava de
20 à 40Hz, outra de 40 à 80Hz e assim por diante. Para facilitar os valores e a
representação com a frequência de 1 kHz como referência central do espectro e seus
múltiplos 2, 4, 8 e 16 kHz com valores exatos, utilizamos as frequências centrais de cada
oitava (octave band) representadas abaixo: 31 Hz, 63 Hz, 125 Hz, 250 Hz, 500 Hz, 1 kHz, 2
kHz, 4 kHz, 8 kHz e 16 kHz.
Alguns equalizadores e equipamentos de áudio ainda podem trabalhar com a
visualização da chamada 1/3 (third) octave band, que basicamente são frequências que
dividem cada oitava em 3. Desta forma, ao invés de enxergarmos o espectro em 10
bandas, passamos a vê-‐lo com 30 ou 31 bandas (comumente visto em equalizadores
gráficos).
dB (decibel)
Como mostrado no gráfico das octave bands da página anterior, o eixo horizontal
representa o espectro sonoro em termos de frequências. O eixo vertical representa a
amplitude do sinal em dB. No mundo do áudio, várias grandezas físicas podem ser
representadas pelo dB (decibel), como pressão sonora, intensidade de sinal elétrico ou
amplitude do sinal gravado digitalmente.
Quando tratamos do
som físico, estamos falando de
dB SPL (sound pressure level).
Esta grandeza seria a análise
do nível de pressão sonora do
ar. Quando falamos que um
show de rock gera 110 dB de
som ou a turbina de um avião
cria 130 dB de ruído, estamos
falando de pressão sonora. 0
(zero) dB SPL representaria o
silêncio absoluto (chamamos
de threshold of hearing), porém no mundo real esta situação não pode ser observada.
Situações como esta só podem ser observadas em salas acústicas especiais e câmaras
anecóicas (sem eco). Uma pressão sonora de 140 dB (threshold of pain) causa danos
irreversíveis à audição.
Em termos práticos, podemos medir o ruído de um ambiente com um aparelho
medidor de pressão sonora ou aplicativos de celular que fazem este trabalho de forma
mais simples. 85 dB é um nível de pressão sonora que permite trabalhar com áudio por
até 8 horas diárias sem problemas de audição. A cada 3 dB que aumentarmos o som,
temos que reduzir o tempo de exposição pela metade. A tabela abaixo mostra um guia
com o nível de som e o tempo de exposição permitido para não causar prejuízos à
audição.
Um outro grande benefício que temos ao trabalhar com o som à um nível
adequado se refere à forma de percepção das frequências. As curvas de Fletcher-‐
Munson foram estudos feitos pelos cientistas Harvey Fletcher and Wilden A. Munson
para mostrar que o ouvido humano percebe o espectro sonoro de formas diferentes
dependendo da pressão sonora.
Cada curva apresentada no gráfico, representa um nível de pressão sonora (neste
caso representada pela grandeza Phons, que significa o nível de pressão sonora de
determinada curva na frequência de 1 kHz, que é a referência deste modelo). Ao
ouvirmos um som com volume menor, percebemos que ouvimos muito menos graves do
que se ouvirmos o mesmo som à um nível mais alto. Estas curvas nos indicam o quanto
de pressão sonora precisamos ter em determinado nível de audição para cada região de
frequências. Podemos observar também que, em todas as curvas, a região entre 2 e 5
kHz tem uma redução drástica de pressão sonora. Isso mostra a área em que nosso
ouvido é mais sensível. Portanto, precisamos de muito menos pressão sonora naquela
região do que nas demais para sentir a mesma “percepção” de som. Estas curvas nos
ajudam a concluir que o nível de pressão sonora mais consistente através do espectro é a
curva de 80 phons. É a curva onde as diferenças de pressão sonora são menores de
região para região. Por isso, o nível de audição ideal para se trabalhar com áudio é por
volta de 80 dB SPL. Além do mais, é um nível sonoro totalmente seguro para a saúde dos
ouvidos.
Ainda no assunto de dB, temos a representação elétrica do som (dBV, dBu, dBVU)
e a representação digital (dBFS). Sem entrar muito em detalhes, as grandezas dBV e dBU
servem para definir o padrão de operação de voltagem de determinado equipamento ou
sistema de som. É comum vermos em mesas de som ou equipamentos eletrônicos uma
chave seletora +4 dBu (equipamento profissional) ou -‐10 dBV (equipamento consumidor).
Basicamente, estes valores definem o nível de voltagem com que cada tipo de
equipamento trabalha. Se um sinal entra num sistema à +4 dBu, fisicamente ele
representa uma onda sonora com amplitude de 1.23 Volts. Por outro lado, se o sistema
trabalha em -‐10 dBV, um sinal que entra com esse valor tem fisicamente uma voltagem de
0.316 Volts, que é bem menor. Geralmente, equipamentos de estúdio e sonorizações
profissionais trabalham com o nível de voltagem mais alta (+4 dBu), como padrão de
referência.
Independente do nível de referência adotado para o sistema, quando
trabalhamos com áudio, temos o chamado Standard Operational Level, que seria um nível
de áudio seguro para se trabalhar com a mixagem e evitar picos excessivos (e clips, no
mundo digital). Medidores de VU (Volume Unit) são comumente encontrados em mesas
analógicas e qualquer hardware em estúdio, porém
hoje em dia também são representados em vários
plugins que emulam equipamentos analógicos. O que
chamamos de Standard Operational Level é o que
representamos neste marcador com o ponto 0 (zero),
o chamado 0 dBVU (Volume Unit). Se o sinal passar
de 0, não acontecerá nada demais, pois o sistema
ainda possui alguns dB de headroom (espaço extra)
para acomodá-‐lo. Esse headroom é o que permite que picos de bateria e instrumentos de
percussão sejam gravados e trabalhados sem problemas. No entanto, temos sempre que
focar a média do sinal em 0. Se a média for mais alta, o áudio pode ficar comprometido,
pois se o sistema não possui headroom suficiente, fortes picos de sinal poderão ser
comprometidos.
Para ficar mais claro ainda, vamos supor que o nosso sistema seja profissional e
esteja configurado para +4 dBu. Neste caso, o nosso nível padrão de voltagem será de
1.23 Volts, como dito anteriormente. Isto significa que se estivermos trabalhando com a
média de sinal por volta de 0 dBVU, nosso sistema estará sendo alimentado por uma
voltagem de 1.23 Volts. Se este mesmo medidor estivesse em um equipamento mais
simples, como um aparelho de som caseiro, um sinal de áudio mostrado em 0 dBVU
indicaria uma voltagem interna de 0.316 Volts.
A representação digital do áudio é feita a partir do valor máximo que pode ser
representado (0 dBFS – Full Scale) e os valores menores seguem em sentido negativo –10
dBFS, -‐20 dBFS e assim por diante. Portanto, trabalhar em uma mixagem onde o seu
medidor master varia entre -‐20 dBFS e -‐10 dBFS seria uma estratégia adequada para
evitar problemas de picos e clips.
Porém, o que não deve ser confundido é que o dBVU é uma representação de nível
sonoro no domínio analógico e não tem a relação com o dB mostrado nos
medidores do seu DAW (Pro Tools, por exemplo). Em um sistema bem calibrado, 0
dBVU em um equipamento analógico pode representar valores entre -‐16 e -‐20 dBFS
no computador. Algumas interfaces e sistemas nos permitem definir este valor de
referência para calibragem do sistema digital com o analógico, porém esta média
de valores é o que mais vemos em sistemas de áudio profissionais.
Todos estes valores e conceitos sobre sinais e níveis de amplitude são bem gerais
e podem, certamente, ser mais detalhados, dependendo do contexto em que estivermos.
Seria interessante também, sempre que falarmos de níveis, compreender se estamos
falando sobre níveis Peak ou níveis RMS. A filosofia é bem simples. Níveis peak são os
níveis de amplitude do sinal medidos instantaneamente. Geralmente associamos o nível
peak a um nível de amplitude máximo atingido pelo sinal, mas a todo momento estamos
lendo o nível peak. O nível RMS é uma leitura “média” do sinal. Dá uma percepção mais
“real” do que seria o nível do sinal para os nossos ouvidos. Para compreender melhor a
relação entre níveis Peak, RMS e também LUFS (Loudness Units Relative to Full Scale),
confira o vídeo abaixo no meu canal:
Níveis, Loudness, Master para Spotify, YouTube e afins...
Áudio Digital
Diferentemente do mundo analógico, onde o sinal de áudio que alimenta as
mesas de som e equipamentos são sinais elétricos, no mundo digital, o áudio é
representado em bits no computador (valores compostos de 0's e 1's).
Anteriormente, foram citadas as etapas de como uma onda sonora (ar em
movimento) se transforma em impulso elétrico (através do microfone) e como este sinal
elétrico volta à ser convertido em onda sonora através do amplificador e dos alto-‐
falantes. A este modelo, podemos inserir o processamento e armazenamento do sinal na
forma digital, que é a forma mais comum de trabalho nos dias de hoje. Portanto, assim
que o sinal sai do microfone, alimentamos um pré-‐amplificador (que aumenta a
amplitude do sinal capturado pelo microfone) e este o enviará ao chamado ADC (Analog-‐
to-‐Digital Converter). Este dispositivo é responsável por interpretar o sinal analógico do
áudio e transformá-‐lo em sinal digital (bits) que será armazenado e processado no disco
rígido. O processamento feito dentro de qualquer software de áudio ou DAW é o que
chamamos de DSP (Digital Signal Processing). Este nome pode ser visto também fora
do ambiente dos computadores, mas é sempre relacionado com o processamento digital
(como por exemplo, hardware de delay ou reverb digital, pedaleiras de guitarra, etc).
Após o sinal ser processado (equalizadores, compressores, etc), ele é enviado para o
conversor (DAC -‐ Digital-‐to-‐Analog Converter) que fará o processo inverso; os bits
processados serão convertidos em sinais elétricos novamente e alimentarão um
amplificador. Este amplificador ampliará o nível do sinal para então gerar a onda sonora
acústica, através de caixas de som ou fones de ouvido.
O processo de digitalização do áudio pode ter uma analogia com o processo de
digitalização de uma máquina fotográfica. Em uma imagem, quanto maior número de
bits, maior a possibilidade de representação de cores. Uma imagem de 8 bits pode
representar até 256 cores diferentes, enquanto que uma imagem de 24 bits pode
representar até 16,777,216 cores diferentes. O número de pixels da imagem, ou seja, o
número de pequenos pontos que forma a imagem, traz mais resolução e qualidade.
Quanto maior a resolução e número de pixels, mais fiel à imagem original a fotografia
ficará. No áudio, é exatamente a mesma coisa. Ao número de bits, damos o nome de Bit
Depth e ao invés de representar cores, no áudio representamos amplitudes de onda
diferentes (de forma leiga “volumes”). Isto significa que um áudio de 24 bits pode
representar até 16,777,216 possíveis valores de amplitude (“escala de volumes”) para a
onda sonora. A resolução no áudio é determinada pelo valor da Sample Rate (taxa de
amostragem). Esta taxa de
amostragem é, basicamente, o
número de pequenas "fotos" que
o conversor tira do áudio original
em cada segundo para
representar a amplitude do sinal
em determinado momento. Cada
sample é armazenado com sua
determinada amplitude. Quanto
maior o número de samples, mais
próximo do áudio original o áudio
digital estará. Nesta ilustração,
podemos ver este processo bem
detalhado. Na esquerda, temos o
sinal analógico entrando no
conversor. A primeira etapa do conversor, chamada Sample and Hold (S/H), tira as
"fotos" do áudio com suas amplitudes relacionadas (Estágio 1). Este sinal é enviado ao
Quantizador (Estágio 2), que arredonda as amplitudes aos possíveis valores da escala do
sistema (bit depth). Esta sequência de valores é então armazenada no computador. Todo
esse processo é gerenciado por um clock, que é o sample rate do sistema.
Configurações Mais Comuns
Mídia Bit Depth Sample Rate
Áudio de CD 16 bits 44.1KHz
Áudio em DAW 16/24/32 bits De 44.1KHz à 192kHz
DVD 24 bits Até 192kHz (stereo) ou até 96kHz (surround)
Blue Ray 24 bits Até 192kHz dependendo do codec
Processamento de Áudio (DSP)
O processamento de sinal digital (DSP) pode ser realizado de duas formas básicas:
processamento em tempo real (plug-‐ins) ou processamento offline (aplicação do efeito
no áudio -‐ exemplo: Audio Suite no Pro Tools). Existem várias categorias de unidades DSP,
sendo que as mais comuns são:
• Equalizadores;
• Controladores de dinâmica (compressores, expansores e gates);
• Efeitos baseados em tempo (reverbs, delays, phaser, chorus e flanger);
• Excitadores Harmônicos;
• Manipuladores de imagem (processadores Mid/Side);
• Redutores de ruído (de-‐noiser, de-‐clicker, etc).
Equalizadores
Servem para alterar o ganho em porções específicas do espectro do sinal de áudio.
Em termos práticos, os equalizadores servem para alterar "a cor" de um elemento
dentro da mixagem. Podem ser de vários tipos:
• EQ de Banda Fixa: tem apenas os controles de ganho (boost) ou corte (cut) e a
frequência central de cada banda é definida pelo fabricante;
• EQ Gráfico: possui apenas boost ou cut para cada frequência central, porém
possui muitas frequências ao longo do espectro;
• EQ Paramétrico: Além de boost e cut e controle de seleção de frequências,
permite a seleção da largura da banda (Q). Quanto menor o valor de Q, mais largo
(amplo) é o boost ou cut; quanto maior o valor de Q, mais preciso e cirúrgico é o
boost ou cut.
Tipos de Filtro
Cada equalizador pode ter um ou mais tipos de filtros:
• Band Pass (também chamado de Bell): Boost ou cut baseado na frequência central
escolhida e largura definida pelo parâmetro Q (quando disponível);
• High Pass Filter (HPF): Remove as frequências abaixo da frequência selecionada
(cut-‐off frequency) e deixa passar apenas as frequências acima dela -‐ em
português, filtro de passa-‐altas;
• Low Pass Filter (LPF): Oposto do HPF; remove apenas as frequências acima da
frequência selecionada;
• High-‐Shelf: Boost ou cut em todas as frequências acima da frequência
selecionada;
• Low-‐Shelf: Boost ou cut em todas as frequências abaixo da frequência
selecionada;
Algumas arquiteturas de equalizadores ainda
possuem filtros diferenciados como é o caso por
exemplo do Low e High-‐Shelf com ressonância. Um
high-‐shelf com ressonância basicamente dá um
boost em todas as frequências acima da frequência
selecionada e pouco abaixo dela cria uma área de
cut, como pode ser observado no exemplo ao lado.
Neste caso, todas as frequências acima de 11.479 Hz
têm um ganho de 6dB e pouco abaixo desta área há uma pequena atenuação, deixando
o ganho na região acima ainda mais evidente.
Equivalências de EQ: Yin and Yang
Durante o processo de Mixagem, equalizar é certamente o movimento mais
realizado para que se consiga organizar os elementos, juntamente com os ajustes de
volume. A melhor prática que se deve adotar para que se tenha uma mixagem mais
rápida e precisa é o que chamamos de equalização subtrativa. Em grande parte do
tempo, pense sempre em retirar o que não se quer em termos de frequências do que
adicionar o que se quer, em um primeiro momento. Seguindo este paradigma de
trabalho, você pode evitar horas de retrabalho, principalmente em sessions com muitos
elementos. Tenha em mente que quanto menos você fizer em um track, menos terá que
fazer nos outros para que todos convivam harmoniosamente na mixagem.
De uma forma geral, você pode utilizar a equalização subtrativa como uma
"correção" do espectro e a equalização aditiva como "coloração" do espectro. Pergunte
sempre, antes de equalizar, se o track realmente precisa ser equalizado e em quais áreas
do espectro ele precisa ser processado. Muitas vezes (realmente muitas), não
precisamos nem equalizar o track. Muitas vezes o que precisamos fazer é equalizar um
grupo de tracks (por exemplo, conjunto de tracks com caixa da bateria ou conjunto de
tracks de baixo) ao invés de equalizar tracks individuais. Este é o grande segredo para se
conseguir uma sonoridade com punch e muito natural. Quanto menos processamento,
melhor!!!
Seguindo esta idéia, a psicoacústica explica alguns fenômenos que percebemos e
que são muito úteis no dia-‐a-‐dia do processo de Mixagem. Sempre que pensarmos que
um track está com uma sonoridade mais "escura" ou grave, não siga a intuição que ele
simplesmente precisa de mais agudo. Ao invés disso, remova os graves indesejáveis e
continue o processo. Quanto mais balanceado cada track individualmente soar, mais fácil
será para encaixar todas as peças do seu quebra-‐cabeças. Outros exemplos práticos
seriam estes:
• Cut nos médios graves (ex.: 250Hz) gera uma sensação psicoacústica de boost nos
médio-‐agudos (por volta de 5KHz);
• Boost com low-‐shelf cria sensação de “tirar” brilho e boost com high-‐shelf deixa o
track “mais magro”;
• Cuts nos médios geram uma sensação de som “oco”; ficamos com os graves e
brilhos mais evidentes.
≅
De uma forma leiga, queremos sempre “clarear” os tracks. Muitas pessoas que
estão começando a aprender áudio caem no erro de dar boost nas frequências altas e
média-‐altas intuitivamente em todos os tracks. Isto cria uma mixagem extremamente
estridente, cansativa e sem peso. Clarear, na maioria das vezes, significa apenas limpar os
graves e médio-‐graves. Quando o áudio “não pedir” mais para limpar os graves, você
terá o caminho livre para colorir as frequências altas e média-‐altas apenas nos tracks que
“pedirem”.
Compressores
Talvez a ferramenta mais mal compreendida e mal utilizada do mundo do áudio, o
compressor basicamente tem a função de fazer o que o próprio nome diz: comprimir a
variação dinâmica do áudio. É natural que na gravação de uma bateria haja variação de
intensidade nas batidas de bumbo e caixa ou então na gravação de violão que alguns
acordes saiam mais fortes que outros. Isso tudo é natural, mas na mix é muito
importante se ter controle sobre estes elementos para que possamos organizar o som de
forma mais precisa. Poderíamos simplesmente utilizar um fader de volume para fazer
esses ajustes de variações dinâmicas, porém os compressores servem justamente para
fazer esta tarefa de forma automática, ainda mais considerando que muitos elementos
podem ter os problemas descritos anteriormente e simplesmente seria inviável
endereçar todas essas situações individualmente.
A ilustração abaixo mostra a diferença entre um sinal de áudio antes e depois da
compressão:
O que o compressor fez em termos práticos foi segurar as porções de áudio mais
altas e, com isso, geramos um som mais cheio (com menos picos). Através do ganho de
compensação, as porções de menor intensidade são ampliadas e, desta forma, criamos
uma diferença menor entre as porções mais fortes e mais fracas do sinal. Daí, atingimos o
que chamamos de redução da variação dinâmica do áudio.
Para realizar este trabalho, um compressor básico utiliza-‐se de 5 parâmetros:
• Threshold;
• Attack;
• Release;
• Ratio;
• Make-‐Up Gain.
Dependendo da arquitetura do compressor, ele pode conter todos estes
parâmetros, alguns mais e às vezes nem todos. Alguns compressores, por exemplo,
possuem parâmetros de attack ou threshold pré-‐definidos pelo fabricante (que não
podem ser selecionados pelo usuário), mas te permitem selecionar o release e / ou ratio.
O Threshold é o parâmetro que define a partir de que ponto o compressor
começa a atuar. O compressor atua apenas na região que está acima do threshold (mais
alta em amplitude), em um primeiro momento.
Vamos supor que um track de violão gira sua amplitude peak média em -‐20 dBFS.
A partir de um certo ponto, o músico começou a fazer acordes com uma batida um
pouco mais pesada e o sinal ficou mais forte consequentemente. Se definirmos o
threshold do compressor em -‐18 dBFS (estará acima do ponto de -‐20 dBFS), ele não
atuará durante a maior parte do sinal de áudio. Se, à partir do momento em que o músico
começou a tocar mais forte, o som vier à passar de -‐18 dBFS, o compressor entrará em
funcionamento e assim permanece até que o sinal retorne novamente abaixo de -‐18dBFS.
Obviamente, o compressor depende de um outro parâmetro importante para
entrar em ação assim que passa o threshold: o Ratio. Ratio é a razão (ou taxa) de
compressão. Na ilustração a seguir vemos diferentes linhas com os valores 1:1, 2:1, 4:1 e
20:1. Se o nosso compressor estiver selecionado no modo 1:1, nenhuma compressão
ocorrerá. 1:1 significa que para cada 1 dB que passar acima do threshold, 1 dB será
resultante como sinal de saída. Desta forma, o sinal permanece intacto. No entanto, se o
compressor estiver no modo 2:1, teremos uma compressão leve. Para cada 2 dB que
exceder o threshold, apenas 1 dB estará na saída do sinal. No nosso caso anterior, vamos
supor que em determinado momento o músico tocou um acorde que teve seu pico em -‐
12 dBFS. Nosso threshold foi colocado em -‐18 dBFS, portanto o sinal o excedeu em 6 dB.
À uma taxa de 2:1, ao invés do sinal de saída ser -‐12 dBFS, ele passará a ser de -‐15 dBFS,
pois teremos uma redução de 3 dB (metade do sinal que excedeu o threshold). Quanto
maior o ratio, maior a compressão. Uma compressão muito forte (por exemplo 20:1) é o
que damos o nome de limiter. Se um sinal excede o threshold de um limiter, ele é
praticamente "cortado", sobrando apenas a porção abaixo do threshold. Um limiter
muito forte é o que chamamos de brickwall limiter ("parede de tijolos").
O parâmetro de attack define o quão rápido um compressor entra em ação assim
que o sinal excede o threshold e release, o quão rápido o compressor deixa de comprimir
assim que o sinal volta para baixo do threshold. São parâmetros que definem o shape (ou
molde) do som. Um som com attack muito rápido soa mais agressivo, enquanto que um
ataque mais lento deixa os transientes e porções graves do som passarem sem serem
muito comprimidos, gerando um som mais natural. Um release rápido também faz com
que o som fique mais agressivo, já que a passagem do som comprimido para o não
comprimido é feita de forma muito abrupta. Um release médio à longo geralmente é
mais utilizado em situações práticas gerais, pois possibilita que o som seja mais macio e
controlado. Existem várias correntes de pensamentos e aplicações diferentes em relação
à seleção dos tempos de attack e release do compressor, mas não regras definitivas em
relação a isso.
Quando o expander começa a agir, definimos o tempo de release. Quando o som
retorna acima do threshold, o expander (ou gate) "abre" e o que define o quão rápido é
essa abertura é o parâmetro de attack. Expanders e gates tem ainda dois parâmetros
especiais dependendo de sua arquitetura: range e hold. Range define qual a máxima
redução em dB que o processador poderá fazer, criando assim, um "limite do chão" para
o ruído de fundo. Hold é utilizado para “pedir" ao expander para aguardar um
determinado tempo (em milisegundos) antes que o processador comece a empurrar o
som para baixo. O tempo de release começa a contar após o tempo de hold. Se hold é 0
ms, apenas o tempo de release é levado em conta.
Existe ainda um tipo especial de expander, o upward expander, que é utilizado
para tratar a parte superior do sinal, assim como o compressor, porém ele realiza uma
"expansão" dinâmica para cima. Este tipo de expander é utilizado para tratar sinais de
áudio processados erroneamente, principalmente compressão e limiter utilizados de
forma inadequada e extrema. É uma ferramenta super funcional e de grande utilização
em Masterização (mais explicações na seção de Masterização deste e-‐book). Ele não
salva a qualidade do áudio, mas possibilita que um sinal totalmente "limitado" ou
squashed seja tratado com um mesmo nível de compressão de outros elementos dentro
de uma mixagem.
Fisicamente, a reverberação ocorre da forma mostrada na figura acima. O sinal
original (impulso inicial) é reproduzido em determinado ambiente. Depois de um tempo
bem curto (pre-‐delay), o sinal original atinge inicialmente as paredes do ambiente, onde
ocorrem as primeiras reflexões do som (early reflections). O som é refletido nas várias
paredes e começa a rebater durante um período de tempo nas demais paredes (late
reflections ou reverb). O tempo que o som demora para ser reduzido em 60 dB a partir
do início das reflexões primárias é o que chamamos de tempo de reverberação, ou
simplesmente, reverb time (em alguns processadores pode ser chamado de decay time).
Desta forma, os principais parâmetros de um processador de reverb são:
• Tipo: Podemos selecionar o ambiente como room, hall, plate, chamber e assim por
diante;
• Decay: Tempo de reverberação (geralmente mostrado em segundos);
• Pre-‐Delay: Atraso entre o impulso original e as primeiras reflexões; um valor maior
de pre-‐delay cria a sensação de uma sala mais ampla;
• Room Size: Determina o tamanho físico da sala e geralmente aumenta
proporcionalmente o decay, caso a sala seja grande;
• Diffusion: Determina a quantidade de difusão de uma sala; uma sala com
superfícies irregulares, tende a "espalhar" mais as reflexões sonoras, gerando
uma sonoridade mais "colorida" (valor diffusion maior); uma sala com superfícies
mais retas tende a espalhar menos o som, gerando um som mais neutro e
transparente (valor diffusion menor).
Ao contrário do reverb, que gera muitas reflexões que são percebidas como uma
grande massa sonora, o delay pode ser percebido como repetições distintas do áudio. O
processamento básico do delay é bem simples. O áudio passa pelo processador, que
armazena o conteúdo em sua memória; depois de um determinado período de tempo
pré-‐definido (delay time), o som armazenado é repetido, sendo somado ao som original
durante o período de tempo especificado pelo feedback. Este som armazenado ainda
pode ser processado antes de ser replicado; este processamento é feito pela unidade de
modulação que existe em vários processadores de delay. Esta modulação serve para
alterar o tempo de repetição do delay através dos parâmetros depth e rate. Com a
unidade de modulação ativa, um processador de delay pode criar os efeitos de phaser,
chorus e flanger, que são basicamente, formas de delay criadas a partir da modulação do
sinal repetido.
Excitadores Harmônicos
É muito comum ver, hoje em dia, simuladores de amplificadores e hardware de
áudio em formato de plugins. Estes tipos de processadores utilizam o que chamamos de
excitação harmônica. Podemos gravar um som de guitarra limpa para então
processarmos inteiramente no decorrer da mix, escolhendo um amplificador virtual, tipo
de caixa de som, tipo de microfone utilizado na gravação e assim por diante. Todo esse
processamento define o timbre do sinal de áudio, ou seja, altera as características e inter-‐
relação entre as frequências fundamentais e sons harmônicos do sinal.
Não apenas podemos utilizar estas ferramentas no caso de tratar inteiramente o
som de guitarra gravado sem nenhum processamento, como também podemos
adicionar energia, criar distorção harmônica e muitos outros efeitos interessantes
utilizando plugins de excitação harmônica. Existem muitas ferramentas destas
disponíveis no mercado, mas podemos citar algumas bem utilizadas:
• Waves NLS: Simuladores de mesas de sons analógicas;
• Waves Vitamin: Excitador harmônico multibandas;
• Guitar Rig, Amplitube e Ampeg SVX: Simuladores de amplificadores para guitarra
e baixo;
• Kramer Tape, UAD Studer e Ampex Tape Recorder: Simuladores de gravadores de
fita magnética;
• PSA Sansamp e UAD Thermionic Culture Vulture: Unidades de distorção.
Manipuladores de Imagem (Mid/Side)
Mid/side é uma técnica de processamento de sinal que nos permite tratar o áudio
estéreo de uma forma diferente. Em mid/side (ou M/S), podemos tratar de forma
totalmente independente o áudio em fase (que sai igualmente nas duas caixas de som,
que consequentemente é o som que sai no centro da imagem estéreo) do áudio fora de
fase (que é o áudio que sai apenas dos lados, com o pan aberto) – mais detalhes sobre
M/S na seção de Masterização. Isso nos possibilita realizar ações como, por exemplo,
ampliar a sensação de abertura estéreo de um sintetizador gravado em dois canais ou até
mesmo transformar um som estéreo em mono (somando os dois canais). Podemos
também gerar o chamado falso estéreo, criando uma sensação de profundidade e
abertura em um som que foi gravado originalmente em mono.
Várias ferramentas também estão disponíveis no mercado para este tipo de
manipulação na Mixagem, como por exemplo:
• Waves S1 Stereo Imager;
• Waves PS22 Mono to Stereo Enhancer;
• UAD Precision K-‐Stereo Ambience Recovery;
• Izotope Ozone (permite abertura da imagem stereo, equalização e compressão
no modo Mid/Side).
Redutores de Ruído
Uma produção bem-‐sucedida depende de uma mixagem impecável, porém não
podemos nos esquecer de que o trabalho de edição antes da mix é vital. E quando
estamos editando o áudio, ajustando a performance, escolhendo os melhores takes,
afinando vozes e assim por diante, podemos nos deparar com situações em que o áudio
precisa ser tratado. Sons de “socos de ar” ao gravar voz com microfones dinâmicos, sons
de clicks, ruídos indesejados, ruídos de cabos ou “hum” e assim por diante, podem e
devem ser tratados durante o processo de Produção Musical. Existem inúmeras
ferramentas de “restauração” de áudio disponíveis no mercado de várias marcas. O mais
importante, no entanto, é entender as categorias de processamento e suas
funcionalidades. Hoje em dia, muitas pessoas utilizam estas ferramentas de forma
totalmente errônea e é preciso entender quando usar, o que usar e como usar:
• De-‐clicker: Ferramenta utilizada para remover eventuais clicks causados por
picos elétricos, falhas de continuidade de ondas sonoras, clicks causados por
áudio editado incorretamente (sem fades ou crossfades), estalos e assim por
diante;
• De-‐clipper: Ferramenta utilizada para “desfazer” o achamento da onda sonora
(clip digital) que ocorre principalmente se o áudio é captado com muito ganho
no pré-‐amplificador ou se simplesmente teve um ou mais pontos de ganho
excessivo ao longo de uma performance musical, excedendo o limite de
Devemos utilizar com muita cautela qualquer uma destas ferramentas de redução
de ruídos, pois elas deixam muitos artifícios no áudio quando utilizadas erroneamente.
Elas são medidas corretivas para quando temos um problema no áudio e não podemos
regravar, editar ou utilizar um outro take. Sempre dê preferência a ter um áudio natural
com ruído do que um áudio limpo, porém extremamente processado. Como sempre digo,
utilize ferramentas de redução de ruídos apenas em último caso e se o “áudio pedir”!
7 – De-‐esser na voz: Como as vozes são geralmente os elementos mais importantes
da mix e queremos sempre que fiquem bem presentes e vivos sem ficarem
"chatos", o trabalho do de-‐esser na voz para tratar os brilhos é fundamental;
8 – Brilhos (topo da voz x pratos x percussões x violões e detalhes mais
cristalinos): Da mesma forma que o trabalho nos graves é feito de forma contínua
durante a mix, devemos ter cuidado nos agudos. Queremos uma mix viva e
cristalina, porém é muito fácil errar a mão e fazer com que a mix soe chata, irritante
e sem corpo;
9 – Edição / Clicks / pops / noise e afins: Como dito há pouco, antes de começar a
mixar pra valer, devemos nos lembrar de que toda mix deve passar por um
processo minucioso de edição, limpeza de sujeiras, seleção de takes, afinação de
vozes, etc; Seja cuidadoso!!!
10 -‐ Deixe a criatividade fluir sem limites!!! Teste, erre, refaça, leia, assista vídeos
(do meu canal também, sem moderação!!!) e nunca deixe a frustração te limitar. O
processo de mixagem leva muitos anos para ser aprimorado e o seu ouvido precisa
de tempo para interpretar e assimilar as nuances para que você chegue ao
resultado dos mestres!!!
O que é Masterização?
A Masterização pode ser entendida como a última etapa do processo de
Produção Musical antes da duplicação / geração das mídias e arquivos digitais para o
consumo. Antigamente, na era dos vinis, a Masterização era um processo mais técnico,
onde o engenheiro responsável tinha de gerar as matrizes de acetato para a duplicação
dos discos propriamente ditos. Neste caso, ele deveria fazer o corte no acetato, tomando
cuidado para não deixar que, por exemplo, as gravações tivessem um volume muito alto
ou grave excessivos e criassem problemas no corte do vinil. Uma gravação com este tipo
de problema poderia fazer com que a agulha pulasse do vinil, por exemplo. Por isso, os
cuidados dos engenheiros de Masterização tinham uma primeira relação com a parte
física do processo. Com o passar dos anos, o advento dos processadores digitais, uso de
computadores no cenário de Produção Musical e consequente migração da forma de
mídia de áudio para o mundo digital (CD's, DVD's, BlueRay, Mp3's etc), fizeram com que
o papel do engenheiro de Masterização fosse tomando uma dimensão mais ampla e,
hoje em dia, mesmo tendo que lidar com vários aspectos técnicos, um engenheiro de
Masterização pode assumir uma posição artística dentro do trabalho e, muitas vezes,
fazer total diferença no resultado final de uma produção musical.
Quando falamos o termo "Masterização", o que vem à mente é um engenheiro
gerando o disco "Master" com as faixas do álbum. Na verdade, o que chamamos de disco
"Master" é, tecnicamente, o disco "Pré-‐Master" (que em casas de Masterização é
referenciado como PMCD -‐ "Pre-‐Master Compact Disc"). Este "Pré-‐Master" é a mídia
física que é enviada para a fábrica para a duplicação em CD nos dias atuais e na fábrica é
gerado o disco "Master" que é na verdade parte da produção física de um CD. O Pré-‐
Master contém todas as faixas editadas e sequenciadas (com utilização de fade-‐ins e
fade-‐outs), com espaçamento correto entre elas, marcadores de início e fim das faixas e
informação do tempo de duração dos tracks (chamados de PQ list), informações como
nome das faixas e do artista (que é o conteúdo chamado de CD Text) e ISRC's
(International Standard Recording Code -‐ que são os códigos de registro dos fonogramas).
Para não criar confusão nas nomenclaturas, mesmo que saibamos agora que este disco
final é tecnicamente o Pré-‐Master, usaremos o termo disco Master para representar o
resultado final da Masterização. Além disso, podemos enviar um disco Master para a
fábrica de forma digital com a utilização do formato DDP (disc description protocol) que
pode ser gerado em vários softwares de Masterização.
Em que consiste?
Muitas vezes, o escopo e objetivos da Masterização são nebulosos e muitas
pessoas não conseguem definir claramente o que um engenheiro de Masterização faz
para dar o tratamento final à uma Produção Musical. De uma forma bem leiga, é comum
ouvirmos as pessoas falando que o que Masterização faz é "deixar uma música mais alta".
Isso não deixa de ser verdade, já que lidar com o nível de saída do áudio é uma das
tarefas que o engenheiro de Masterização possui, porém é apenas um dos itens a serem
considerados dentro de vários outros fatores. Além disso, todos os aspectos do áudio
são intimamente interligados e, à medida que você utiliza mais as ferramentas, vai
aprendendo a lidar com estas interações. O fato de uma música soar "alta" está
intimamente ligado ao conteúdo do material trabalhado, ao balanço do espectro e à
O objetivo no Cubo Mágico é fazer com que todos os lados do cubo tenham todos
os quadrados da mesma cor do lado. Podemos chegar em um ponto onde 8 quadrados
do lado branco estão brancos e apenas um é vermelho. Ao movermos este quadrado
vermelho para outro lugar e tentarmos trazer o último branco para o lado branco, o que
fazemos é criar uma bagunça em todo o cubo, com todos os lados sendo modificados.
Na Masterização, ocorre exatamente a mesma situação.
Imagine uma situação de uma mixagem onde você tenha, bateria, baixo, guitarra
e voz. Suponha que um amigo envie o track para você masterizar. Ao ouvir o track pela
primeira vez, você claramente percebe que a voz está um pouco "alta" devido ao fato de
que sua região de médios está um pouco à frente do resto da mix. A primeira ação que
deveria ser feita na Masterização, então, seria a utilização de um equalizador para poder
atenuar a região de frequências que está incomodando o balanço da mix. No entanto,
você vai reparar que, ao cortar por exemplo a área de 500Hz, várias coisas irão acontecer.
A voz é amaciada, como previsto. Porém, algumas coisas que você não estava nem
considerando irão acontecer: a guitarra vai perder um pouco de presença, o baixo ficará
um pouco mais opaco e a bateria também vai perder um pouco de punch. Logo, você vai
reparar que a mixagem como um todo ficou levemente mais grave, visto que a região de
médios do baixo e do bumbo foi atenuada simultaneamente em ambos instrumentos.
Este tipo de análise é o que fazemos o tempo todo durante o processo de Masterização e
é o que dita a sequência de ações que devemos tomar para dar o polimento final ao track.
No caso do nosso exemplo, após fazer a ação de atenuação dos médios e analisar suas
consequências, vamos fazer o segundo movimento de equalização, agora para tratar os
graves que ficaram mais evidentes depois do primeiro movimento. O ajuste correto dos
graves vai te levar a ouvir outras coisas que vieram a ficar mais evidentes no track.
Seguimos o processo com as demais ferramentas. Por isso, achar o sweet spot (ponto
ideal) de cada ação é essencial e apenas a experiência leva a isso. É sempre importante
entender que temos que, muitas vezes, compromenter um timbre ou outro em prol do
"todo", ou seja, o resultado final da mix. Se algum elemento não soa do jeito que
imaginou durante o processo de Masterização, o ideal é voltar atrás e ajustar a mix. A
Masterização pode te dizer muito do que está acontecendo na mixagem e é comum, em
projetos maiores, que os engenheiros de Mixagem enviem uma versão inicial de
mixagem para a Masterização e então analisem o resultado final. As mudanças feitas na
Masterização podem dizer o "status" atual o trabalho. Às vezes a mix está balanceada,
porém o timbre de alguns instrumentos pode ser melhorado. Às vezes os timbres estão
no ponto exato, porém o balanço da mix não está correto e assim por diante.
O processo de Masterização se encerra quando você consegue endereçar todos os
problemas evidentes, que realmente ofusquem a mensagem da música ou mudem
a estética sonora desejada para o trabalho e ainda consiga fazer o equilíbrio geral
das frequências, balancear a compressão, controlar a excitação harmônica e
dispersão da imagem estéreo, utilizar limiter e ajustar o nível de saída (volume)
do track.
Além disso, todos estes ajustes devem ser feitos levando-‐se em consideração o
contexto. Em um álbum, por exemplo, é comum adotarmos uma das faixas como sendo
a nossa faixa de referência (benchmark) e masterizá-‐la. Ela ditará as características
sonoras que serão referenciadas para a masterização das outras faixas. A masterização
de faixas isoladas pode fazer com que as faixas estejam corretamente masterizadas,
porém artisticamente desconectadas das demais, pois não foram feitas levando-‐se em
consideração as demais faixas do mesmo álbum. O mesmo ocorre com faixas
participando de álbuns diferentes ou coletâneas. Estas faixas poderiam ser
remasterizadas para se encaixarem em uma nova estética, compatível com as demais
faixas. Um exemplo clássico é análise de como se masterizar uma faixa acústica. Se esta
faixa pertence a um disco acústico, a abordagem será totalmente diferente do que se a
faixa pertencer a um disco plugado. A distribuição das frequências pode ser repensada
neste contexto.
A mesma faixa pode ser masterizada com leves variações de acordo com o
ambiente sonoro no qual será inserida.
Ferramentas
• Equalizadores
Assim como na Mixagem, o equalizador é a ferramenta mais básica do processo.
Porém, existe uma diferença de como utilizamos os equalizadores (e na verdade
qualquer ferramenta de processamento de sinal) na Masterização que é a quantidade de
processamento. É comum nos vermos dando boosts ou cuts de 3 dB ou até mais durante
o processo de Mixagem quando queremos colorir o som de um track em particular. No
entanto, na Masterização, geralmente os boosts e cuts são bem menores, podendo
chegar a poucos décimos de dB na maioria dos casos. Isso parece um tanto quanto
imperceptível num primeiro momento, mas na verdade não é. Perceber o que a utilização
de determinado filtro provoca sobre o espectro de uma mixagem é relativamente mais
fácil do que um boost ou cut leves sobre determinado instrumento solado. Isto porque
um movimento do equalizador no processo de Masterização afeta vários elementos ao
mesmo tempo e, desta forma, percebemos com mais clareza o que está acontecendo.
Também de forma análoga à Mixagem, eu costumo dizer que podemos pensar na
equalização de duas formas na Masterização. Podemos utilizar um EQ para limpar o que
não queremos de um track ou corrigir problemas de espectro, utilizando filtros com
largura de banda menor (parâmetro Q do equalizador maior) e pequenas quantidades de
atenuação (de uma forma geral). Desta forma, os cortes mais precisos nos permitem
deixar no áudio apenas o som que queremos ouvir. É o que chamamos de equalização
subtrativa. Depois do track limpo, podemos colorir da forma que desejarmos para seguir
no processo, geralmente com boosts suaves e filtros com largura de banda maiores
(menor Q). Isso faz com que a equalização seja espalhada com mais sutileza por várias
oitavas do espectro sonoro. Esta seria a equalização aditiva.
® Equalizadores de Fase Mínima e Fase Linear
Quando estamos equalizando, basicamente o que o equalizador está fazendo é
somar o sinal original com uma versão “atrasada” do mesmo, como podemos ver na
figura a seguir. É a soma da versão original com a versão “fora de fase” que altera o
espectro da onda sonora (e assim “equaliza” o som), já que interferências construtivas e
destrutivas serão criadas e isso irá gerar somas e subtrações de amplitudes em
determinadas porções da onda sonora. É a forma de implementação básica tanto de
equalizadores em hardware quanto na maioria dos processadores digitais.
V mostra o eixo de voltagem (amplitude) e j o eixo de fase (em graus)
No entanto, é importante entender que este processo de implementação cria um
efeito colateral. Quando damos um boost ou cut em determinada frequência em um
equalizador, áreas próximas da frequência selecionada são alteradas também e quanto
maior o boost ou cut, mais variação de fase nas regiões próximas teremos. Portanto, um
boost nos médios, por exemplo, afeta não só os médios, mas também as regiões vizinhas
da área selecionada. Por isso é sempre importante fazer os movimentos corretos no
equalizador, para evitar o uso excessivo de equalização. Estes são os chamados
equalizadores de mínima fase (minimum phase). No entanto, alguns equalizadores
digitais podem ter algoritmos que inteligentemente calculam a variação de fase gerada
nas regiões próximas quando estamos dando um boost ou cut e, assim, podem atrasar as
demais porções do áudio para que todas as regiões do espectro de frequências fiquem
alinhadas no tempo, ou seja, estejam perfeitamente em fase. Estes são os chamados
equalizadores de fase linear (linear phase). De uma forma geral, são ferramentas que
quando utilizadas como plug-‐ins nos DAW’s geram uma latência muito grande pela
própria natureza de sua implementação. Sonoramente, estes equalizadores são
totalmente transparentes por não gerarem variação de fase, por isso são ideiais quando
queremos uma sonoridade plana e sem coloração. Dependendo da situação, estes
equalizadores podem soar até "frios" demais. Os equalizadores de mínima fase podem
ser ouvidos como mais "coloridos" e "vivos". Dependendo do momento, podemos optar
por uma característica ou outra. Devemos seguir o ouvido para fazer este julgamento ao
escolher o tipo de equalizador na Masterização.
A seguir, a tela da suíte de processadores de sinal da Izotope, o Ozone, que é
comumente utilizado na Masterização em ambiente digital. Na tela de equalização,
vemos as opções Analog e Digital. Neste caso, Analog representa a modelagem de fase
mínima, originalmente utilizada nos equipamentos analógicos e Digital representa a
modelagem de fase linear, utilizada em alguns algoritmos digitais.
Em Mixagem, podemos trabalhar também com equalizadores de fase linear, porém
eles soam sem “muita força” neste contexto. Faça o teste, compare e tire suas
próprias conclusões. Além do Ozone, existem várias ferramentas que possuem
equalização com fase linear no mercado, como é o caso do Linear Phase EQ da
Waves. O H-‐EQ, também da Waves, nos permite a escolha de filtros de fase mínima
ou linear por banda. É bem versátil no contexto de um master bus, por exemplo.
® Modos de Operação -‐ Stereo, L/R e Mid/Side (M/S)
A maioria das suítes de processadores voltados para Pós-‐Produção e
Masterização nos permite uma flexibilidade na utilização das ferramentas em termos de
modo de operação de canais. Quando lidamos com a Masterização de música, lidamos na
maior parte do tempo com arquivos estéreo. Portanto, é intuitivo pensar que, ao
equalizar uma faixa, toda operação feita no equalizador será aplicada igualmente tanto
no canal L quanto no canal R do seu arquivo. No entanto, esta é apenas uma maneira de
se trabalhar nestes processadores. Este modo de operação padrão é o que chamamos de
modo Stereo e na maior parte das vezes partimos daqui. Porém, podemos pensar em
querer equalizar algo de forma diferente nos canais L e R. Imagine, por exemplo, a
situação onde temos uma mixagem com um cowbell com o pan totalmente para a direita
com um timbre um tanto quanto estridente. Se tivermos o equalizador no modo padrão
Stereo, a atenuação da região de médio-‐agudos que nos incomoda no timbre do cowbell
acarretará na atenuação de tudo o que tiver aquela região médio-‐aguda na mix, como
por exemplo um som de triângulo que esteja em pan para o lado esquerdo. Neste caso,
podemos configurar o equalizador para funcionar em modo L/R, onde poderemos
equalizar os dois lados do campo estéreo de forma levemente diferente. Assim,
poderíamos atenuar a região desejada para limpar o som do cowbell sem atrapalhar o
timbre do triângulo. Na prática, este conceito é aplicado mais comumente no modo
chamado de Mid/Side (M/S). A idéia básica é a mesma explicada acima, porém dividimos
o campo estéreo em duas regiões, como já comentado anteriormente. A região chamada
Mid representa todos os elementos da mix que estão em mono, ou seja, que são
somados e tocados igualmente nos canais L e R (no "meio" do campo estéreo).
Simplificando esta idéia, são basicamente todos os elementos que tem o seu pan no
centro e porções mais centralizadas de elementos espalhados no campo estéreo. A outra
região é chamada de Side e representa todos os elementos que estariam "fora de fase"
na mix, ou seja, que são tocados nos canais L e R mas não nos dois em intensidades iguais
ao mesmo tempo (nos "lados" do campo estéreo). É basicamente tudo o que está
“aberto” em pan na mix. Por ser um modo de operação extremamente flexível, ele nos
possibilita coisas incríveis na Masterização.
Uma forma bem comum de utilização deste modo é vista no tratamento dos
graves da mix. Geralmente, os elementos graves (bumbo, baixo) são centralizados na
mixagem e a razão principal pela qual isso é feito é porque as frequências graves
(geralmente abaixo de 120Hz) são ditas omnidirecionais, ou seja, nosso cérebro não
consegue distinguir a localização física de um som grave, por isso teoricamente esta
energia sonora pode vir de qualquer lugar. Se a concentração de energia grave está no
centro da imagem estéreo, podemos endereçar os problemas de equalização e correção
dos graves no canal Mid do equalizador. Desta forma, poderemos, por exemplo, filtrar
uma área de densidade de médio-‐graves no bumbo e baixo sem afetar o corpo (graves)
de um violão ou guitarra com pan para a direita ou esquerda. Geralmente os efeitos em
estéreo como reverbs e delays são facilmente ouvidos no canal side. No modo de
operação M/S, poderíamos tirar um excesso de brilho de um reverb, por exemplo, sem
tirar o brilho da voz principal. Estes são apenas alguns dos poucos exemplos do que pode
ser feito, porém várias situações podem ser endereçadas na Masterização devido à
possibilidade de escolha do modo de operação.
Estes modos de operação geralmente estão disponíveis em compressores,
compressores multibanda, excitadores harmônicos e manipuladores de imagem estéreo
voltados para a Masterização. Isso nos dá um universo de possibilidades enorme para se
trabalhar com o áudio e endereçar os problemas com mais eficiência.
• Compressores
Depois do domínio do uso dos equalizadores, a ferramenta que mais deve ser
entendida para se conseguir um bom resultado na Masterização é o compressor. A
essência básica de utilização do compressor no processo de Masterização é similar ao
uso na Mixagem, porém a diferença novamente está na proporção dos parâmetros. A
taxa de compressão (ratio) geralmente é menor do que 2:1 e, em compressores
dedicados de Masterização, é comum encontrarmos o ratio com configurações de, por
exemplo, 1.2:1, 1.5:1, 1.8:1 e assim por diante.
Dangerous Compressor. Possui ratio de 1.4:1 e 1.7:1 como taxas “baixas”
de compressão para masterização.
É incomum termos que utilizar uma taxa de maior que 2:1, pois isso soaria muito
agressivo no contexto da master. Se estivermos comprimindo um track estéreo com uma
taxa de 2:1 e ainda sentirmos necessidade de controlar mais a dinâmica de alguma faixa
de frequências, é comum utilizarmos um outro compressor em série ou até mesmo uma
banda específica de um compressor multibanda. Outra diferença notável está na
quantidade de redução de ganho (gain reduction). Em Mixagem é comum comprimirmos
um track de voz ou guitarra e ver no medidor de redução de ganho atenuações de 5, 6
dB's ou até mais. Em Masterização, na maior parte do tempo, a atenuação não passa de 1
ou 2 dB no compressor principal da sua cadeia de processadores. Caso tenha um
segundo compressor atuando no processo, possivelmente este não estará comprimindo
mais que alguns décimos de dB.
O que provoca muita confusão para quem está querendo dominar as ferramentas
no mundo do áudio é a utilização dos parâmetros attack e release de um compressor e
sua consequente interação com os outros parâmetros do compressor e até mesmo com
as outras ferramentas da cadeia de Masterização.
Como explicado mais no início do e-‐book, o attack seria o tempo que o
compressor demora para começar a atuar assim que um sinal excede o nível pré-‐definido
no threshold. O sinal então é comprimido na taxa definida pelo ratio. Quando o sinal
começa a descer e volta para baixo do nível do threshold, o compressor começará a
"descomprimir" o som no tempo estabelecido pelo release. Esta é a teoria básica, porém
entender sonoramente o que o compressor faz confunde um pouco as pessoas. Na
Masterização, estes controles de attack e release são fundamentais para definir o
"shape" do track. Uma filosofia que desenvolvi ao longo dos para entender e utilizar a
compressão da forma ideal é a seguinte:
• Attack: Manipula o shape dos graves. Quanto mais rápido o attack, mais as
frequências graves serão comprimidas, por isso o track soará mais "prensado",
com o grave atenuado. Consequentemente, as frequências médias e agudas irão
aparecer mais. Quando atrasamos o attack, o grave "passa" mais livremente pelo
compressor, deixando o som mais "solto". Se quisermos então valorizar mais os
graves, devemos achar o tempo certo para permitir que aquela região de
frequências graves passe pelo compressor sem ser exageradamente comprimida.
Caso o track tenha bastante informação grave que precise ser controlada, a
tendência é de deixarmos o attack rápido/médio, porém nunca extremamente
rápido, pois isso mataria o corpo da mix e nunca extremamente lento, pois isso
deixaria os graves frouxos e sem controle algum.
• Release: Manipula o shape dos agudos. Como explicado acima, assim que o som
retorna ao nível abaixo do threshold, o compressor começa a "descomprimir".
Quanto mais rápido o release, mais rápido o compressor tende a voltar ao estado
de "não compressão". Forçar o compressor a este estado constantemente, faz
com que haja uma variação de ganho constante no track, provocando uma
sonoridade mais "nervosa" e "viva". Isto gera uma sonoridade com agudos mais
brilhantes e vivos. No entanto, se estivermos trabalhando com um track que já
tenha bastante informação na região dos agudos, o uso de um attack muito
rápido faria com que o track soasse "estridente" e em alguns casos até "irritante".
Nesta situação, queremos "amaciar" os agudos e isso é feito atrasando o release
do compressor. Em resumo, se quiser ajustar o shape da música para mais brilho,
utilize um release mais rápido; para um som mais macio, utilize um release mais
lento.
• Excitadores Harmônicos
Um processador que ainda não é bem explorado pela maioria das pessoas que
estão se desenvolvendo no mundo do áudio, mas é extremamente importante para se
conseguir mixes e masters "vivas" é o excitador de harmônicos. A utilização destes
processadores deve ser feita com muita cautela principalmente durante a Masterização.
Levamos um tempo para desenvolver os ouvidos e perceber quando utilizar um
excitador ao invés de um equalizador. Quando precisamos dar mais vida ao som, criar
uma sonoridade mais granulada ou simplesmente dar uma “sujada” em alguma região de
frequências, podemos utilizar um excitador. O que ele faz basicamente é criar uma
distorção harmônica de acordo com as características selecionadas. Existem modos que,
por exemplo, saturam apenas os harmônicos pares e outros que saturam apenas os
harmônicos ímpares do som. Isso cria "cores" de saturação diferentes e o que você
precisar fazer no track, será dito pelo próprio conteúdo do áudio.
• Manipuladores de Imagem Estéreo
Muitas vezes, criamos mixagens com os timbres corretos, balanço correto,
quantidade certa de efeitos, porém uma análise mais detalhada do trabalho pode revelar
algumas inconsistências na imagem estéreo. Como mostrado na figura da página 5, uma
mixagem pode ser entendida em 4 dimensões. Entendendo o pan como o manipulador
dos elementos no sentido horizontal da mixagem, podemos analisar o seu reflexo neste
processo. Uma mixagem com elementos totalmente abertos e pouco conteúdo no
centro da imagem gera uma sonoridade artificial e "fora de fase". Da mesma forma, uma
mix com um "bolo" de informações no centro e poucos elementos em pan cria uma
sonoridade "chapada" e pouco interessante, soando quase que como um bloco em
"mono". Por isso é interessante ter essa distribuição em mente durante o processo de
Mixagem.
Caso haja alguma inconsistência ou simplesmente se quisermos fazer ajustes mais
finos, é possível endereçar problemas deste tipo na Masterização e para isso podemos
utilizar algumas ferramentas de controle de imagem estéreo. O Ozone possui um
processamento multibanda para o controle de imagem estéreo. Podemos, por exemplo,
querer fechar um pouco a abertura da banda aguda em um track de samba, devido à
dispersão excessiva de brilhos dos instrumentos de percussão. Em um track de dance
music, é interessante observar como os graves se comportam, pois, neste caso, é bem
importante que os graves estejam bem condensados no centro da imagem. Às vezes,
precisaremos isolar a banda mais grave e fechar a imagem estéreo para fazer isso. Em um
track de country, por exemplo, podemos ter a necessidade de espalhar mais o conteúdo
de médios, devido ao excesso de informações na mix, como guitarras e violões.
Uma ferramenta também interessante para fazer este tipo de processamento é o
Center, da Waves. Podemos, por exemplo, controlar individualmente o ganho dos canais
Mid e Side do track estéreo. Se quisermos uma imagem mais ampla, basta reduzir o
conteúdo Mid e aumentar o Side. Se quisermos fechar a imagem, basta fazer o oposto.
Além disso, podemos direcionar onde queremos enfatizar o conteúdo de graves e
agudos da mix. Se quisermos, por exemplo, deixar os agudos mais abertos e fazer a mix
mais espacial, basta rodar o knob high em direção à extremidade sides. Para fazermos os
graves totalmente em mono, como comentei acima no caso do track de dance, podemos
simplesmente girar o knob low para a posição Center. O knob Punch serve para controlar
a dispersão dos transientes do track. No caso de nosso track de samba, este knob é
interessante para movermos os transientes para os lados e enfatizarmos mais os
instrumentos percussivos que estiverem em pan na mix.
• Limiters
O papel de um limiter no processo de Masterização parece bem intuitivo, porém
temos que ter um grande cuidado na hora de manipular esta ferramenta, pois ela pode
simplesmente destruir todo um trabalho de Produção em um simples ajuste errôneo dos
parâmetros. Não podemos nos esquecer de que um limiter nada mais é do que um
compressor com um ratio muito alto (com taxas de 10:1, 20:1 e assim por diante) e
geralmente funciona com um threshold muito alto (de forma que atue apenas nos picos
mais fortes) com parâmetros de attack rápido e release podendo ser rápido ou lento
dependendo da situação. Portanto, sua tarefa é segurar os picos excessivos da mix e com
o controle destes picos, o track pode ganhar volume. O que muitas vezes é mal-‐
entendido é que um limiter é utilizado apenas para maximizar a faixa e isto não é verdade.
O ajuste correto do threshold e do release do limiter modifica a tonalidade do track em
combinação com o equalizador e compressor.
Todas as ferramentas na Masterização estão intimamente ligadas e a modificação
de parâmetros em um processador implicará no reajuste de parâmetros em outro
processador para se manter o equilíbrio dos elementos!!!
O ajuste dos parâmetros do limiter como attack (se houver) e release, seguem a
idéia dos ajustes destes parâmetos como explicado no uso dos compressores acima. Se
um track contém muita informação na região de altas frequências, por exemplo, o ajuste
do release do limiter vai tender a ser mais lento.
Outra coisa que é muito mal compreendida na utilização dos compressores e
limiters (principalmente) é o ajuste do threshold. Um processador não precisa estar
atuando 100% do tempo para você achar que a configuração está correta. Dependendo
do conteúdo do track que estiver trabalhando, a configuração correta do threshold do
limiter fará com que haja limitação do som em apenas alguns pontos, onde os picos
estiverem realmente mais altos. Se você tiver, por exemplo, um track de violão e voz e
achar que seu limiter deve atuar durante toda a música, você estará comentendo um
grande erro. Tracks com menos transientes (como bateria e percussão) tendem a ter
menos picos e por isso o limiter atuará menos também, mesmo com a regulagem correta
de parâmetros. A regulagem errônea do threshold fará com que você (intuitivamente)
desça mais o threshold até o ponto em que o áudio comece a "tocar" com mais
frequência o threshold do limiter e por isso você venha a achar que o funcionamento
está correto. No entanto, você fará com o track soe extremamente alto e perca
totalmente sua dinâmica e peso. Aí mora o grande erro da utilização de limiters e
maximizers em Mixagem e Masterização. É o que comentaremos a seguir na discussão
da Loudness Wars. Siga seu ouvido e não se prenda apenas aos números e informações
na tela. Se soa estranho ou mal, volte o parâmetro onde estava.
Outra recomendação muito importante na regulagem do limiter é o valor ceiling,
que pode ter outros nomes dependendo do processador, mas basicamente representa
qual é o valor máximo de saída que seu áudio pode chegar ("teto" do nível de saída).
Muitas pessoas regulam o celing em 0 dBFS, porém isso nunca é uma boa idéia. Nunca
configure o ceiling do limiter em 0 dBFS!!! O que eu sugiro é que você ajuste este
parâmetro para algo em torno de -‐0.2 ou -‐0.3 dBFS. Isso tem uma explicação. Quando
Pretendo fazer um vídeo explicativo sobre dithering no meu canal em breve!
Fique ligado!!!
Signal Flow na Masterização
Com todas as ferramentas em mente, temos que pensar como conectá-‐las, já que
no mundo do áudio a ordem dos fatores altera totalmente o produto! Num ambiente de
estúdio dedicado de Masterização, há a mescla de equipamentos digitais e analógicos,
que podem ser roteados para funcionar em praticamente qualquer ordem na cadeia de
processamento. No entanto, existem alguns formatos mais comuns para o uso destes
processadores na Masterização. O primeiro, eu mostro logo abaixo:
Loudness Wars
Um tema que ainda está bastante em voga, mas que aos poucos esperamos que
seja extinto é a guerra dos volumes (Loudness Wars). A figura seguinte ilustra
claramente o que o título quer dizer:
A primeira imagem representa o waveform de uma master comum na década de
80. A segunda, uma master da década de 90 e a terceira, uma master do começo do
século até os dias atuais. O que era um arquivo de áudio dinâmico, cheio de picos e
variações tornou-‐se um "bloco" sonoro sem nenhuma dinâmica e com picos cerrados.
O problema maior não é o fato da onda ser muito "alta", comprimida ou limitada,
já que hoje mesmo com esses padrões, existem discos com sonoridade magnífica devido
ao talento de muitos engenheiros de Mixagem e Masterização. O problema é o fato de as
pessoas terem em mente que a mix "tem que soar alta" e a master "tem que soar alta".
O fato de ter que soar alto muda totalmente a direção de trabalho de uma produção
musical que deveria ser "tem que soar bem". Os níveis de volume realmente são
importantes em um mercado competitivo, onde cada vez mais a sua música merece ter o
destaque devido. Porém, já está mais que provado que soar mais alto não significa ter
mais sucesso ou ter o trabalho mais reconhecido. Muitas vezes, ele pode ser reconhecido
justamente pelo fato de soar alto em si, como é o caso do disco Death Magnetic do
Metallica. Este disco é visto como um dos ápices que atingimos com a guerra dos
volumes. O disco soa extremamente alto (falarei logo abaixo sobre alguns pontos de
referência de volume), porém extremamente sem peso e cansativo de ouvir. O uso
excessivo de limiter e compressão tanto na Mixagem quanto na Masterização fazem com
que a região de médios do espectro fique muito evidente para que o som fique "mais
alto" e consequentemente a música perde toda a densidade e profundidade de uma boa
gravacão. Existe o ponto ideal de volume para cada faixa e isto deve ser considerado
quando estamos masterizando. Não ache que em um disco todas as faixas têm
tecnicamente o mesmo volume percebido (volume RMS) em todos os momentos porque
não tem. Uma faixa acústica ou com poucos elementos nunca irá competir em pressão
sonora com uma faixa mais densa, cheia de elementos. No entanto, o balanço geral de
equalização, compressão e limiter será sonoramente idêntico em todas as faixas do disco.
que seria o ponto máximo antes do clip digital. Além disso, é importante que se deixe
uma margem (o que chamamos de headroom) do sinal abaixo de 0 dBFS Peak, já que o
áudio será masterizado e o engenheiro de Masterização precisará de alguns dB's de
margem para manipular o áudio. Se, durante a Mixagem, você tiver um ou dois pontos de
clips digitais aleatórios ao longo do tempo de duração da faixa, isso não será algo a se
preocupar, já que nossos ouvidos não irão identificar aqueles picos como distorção.
Porém, se a cada batida forte da caixa da bateria tivermos um pico indo para o vermelho
no medidor, deveremos tomar cuidado e reajustar a mix para evitar esta situação, pois aí
sim teremos sérios problemas com a qualidade do áudio.
O nível importante para a percepção real de volume é o nível RMS (root mean
square). Este sim representa, de forma mais próxima da percepção dos ouvidos, o
volume real do track. O nível RMS pode ser observado em plugins analisadores de
espectro e plugins dedicados de medição de sinal. Durante a Mixagem, um nível saudável
seria algo girando entre -‐20 dBFS e -‐12 dBFS RMS. Estes níveis finais de saída, gerariam
uma mix "cheia" e ainda com chances menores de clips digitais, se considerarmos os
níveis Peak equivalentes destes sinais. Durante a Masterização, obviamente, o fator
volume RMS se torna mais importante, pois justamente é o momento da Produção
Musical que devemos cuidar deste item. Masters atuais tem os seus volumes RMS em
média entre -‐10 dBFS e -‐5 dBFS RMS, dependendo do momento da música e do conteúdo
do material. Para se ter um comparativo, o álbum mencionado acima, do Metallica, tem
seções que chegam a -‐3 dBFS RMS!!! Isto significa que se o volume médio percebido está
em – 3 dBFS e os picos em 0 dBFS (fatalmente), a diferença de variação dinâmica entre os
picos e a "massa" sonora é de apenas 3 dB! Isso é como se o disco fosse uma massa
sonora de ruído, sem nenhum repouso durante grande parte do tempo. O resultado é um
som extremamente cansativo, obviamente não desmerecendo a qualidade artística das
composições e da banda.
Com alguns destes valores em mente, você pode começar a analisar suas
mixagens e masterizações e tirar algumas conclusões. Porém, não se esqueça de que os
ouvidos são sempre os julgadores finais; se algo no seu trabalho soa incômodo para você,
ele soará incômodo para outras pessoas, independente se os números estão de acordo
com alguma mix ou master bem-‐sucedida realizada por um profissional renomado da
área.
Nada melhor que um remix!
Muitas vezes, podemos nos deparar em situações de "sinuca" durante o processo
de Masterização. Você sabe como o track deveria soar, como imagina o som dos graves,
a compressão das guitarras e assim por diante. Se ficar muito tempo tentando processar
um track, comprimindo, equalizando, etc e ainda assim não conseguir caminhar na
direção que imagina, o problema pode não estar na Masterização, mas sim na Mixagem
em si. É muito comum, como comentei mais no começo do texto, que engenheiros de
áudio em projetos maiores enviem seus tracks para masterizar ainda durante o processo
de Mixagem de um disco. Isto dá um direção e status de onde o trabalho de Mixagem
está. Muitas vezes, pequenos ajustes na mixagem facilitam e mudam totalmente a
direção sonora e processamento durante a Masterização. Uma correção bem-‐feita pode
otimizar o processamento na Masterização e evitar artifícios devido ao processamento
de sinal desnecessário nesta fase do trabalho. Além disso, devemos ficar cientes de que
espectro, compressão, limitação e volumes dos mesmos, pode ser feita em qualquer
DAW. Abaixo, mostro a tela do Pro Tools com 3 faixas a serem masterizadas:
Colocamos as faixas no mesmo track em sequência. Isso facilita a visualização e
também nos permite fazer uma comparação inicial de volumes, simplesmente tocando
trechos aleatórios de cada clip de áudio. Um ajuste inicial de ganhos nos clips facilita
demais o processo de nivelamento de volumes finais dos tracks masterizados. Então
criamos um master track (ou podemos também utilizar um auxiliary track). Direcionamos
a saída do track contendo os clips originais para este master fader (ou aux track) que
conterá os plugins de processamento de Masterização. Então, criamos um track de áudio
vazio logo abaixo, que será utilizado para se consolidar o resultado do processamento. O
bus indo para o master fader (ou a saída do aux track) deverá ser selecionado como
entrada deste track de áudio vazio. Habilitamos o botão de REC e o deixamos sempre
ativo para estarmos sempre monitorando o áudio original passando pelo processamento
de plugins. Este é o signal flow básico de um sistema de Masterização. Além disso,
podemos criar logo abaixo um track com as cópias dos arquivos originais, que na figura
acima eu chamei de "Reference". Então, direcionamos este track para uma outra saída da
placa de som (caso possua). Caso não tenha, você pode simplesmente direcionar o track
para a saída principal estéreo e deixá-‐lo em mute; quando precisar ouví-‐lo, basta alternar
o controle de mute com o track processado. Com o som processado saindo no track de
áudio vazio e o track original sempre disponível no track "Reference", podemos manter
uma comparação crítica em todos os momentos da Masterização, para conferir se
realmente estamos nos movendo na direção correta.
O objetivo da Masterização já é atingido caso venhamos a melhorar, de alguma
maneira, a mixagem original!!!
Se você chegou até este ponto do e-‐book, significa que realmente se interessa e
está disposto a abrir a sua mente para uma nova mentalidade sobre o estudo do áudio.
Todo o conteúdo que escrevi neste PDF foi criado com muito carinho para uma
referência básica e visão global do entendimento do processamento do áudio dentro do
universo da Mixagem e Masterização. Toda esta informação reflete apenas a “ponta do
iceberg” do que realmente precisamos entender e dominar plenamente para mixar e
masterizar com fluência. Se quiser mergulhar de cabeça para “enxergar” e “abraçar”
este iceberg, eu posso te guiar nesta jornada através dos meus treinamentos presenciais
ou on-‐line sobre Produção Musical, Mixagem e Masterização. Se quiser saber mais
informações sobre os treinamentos, quais estão agendados presencialmente e quais já
estão disponíveis em plataforma on-‐line, basta me enviar um e-‐mail
(contact@nandocostamusic.com) e eu terei o maior prazer em guiá-‐lo nesta busca de
conhecimentos.
Agora sim, ótimas Mixagens e Masterizações a todos!!!
Abraços,
Nando Costa.
P.S.: Se você ainda não curtiu minha página no Facebook e não se inscreveu no meu canal
no YouTube, não perca tempo e cadastre-‐se já, para conferir conteúdo gratuito semanal e
informações sobre Produção Musical, Mixagem e Masterização!!!