You are on page 1of 10

D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.

doc 1/7

EL CINE SONORO
El sonido se incorpora al cine en Estados Unidos a
finales de los años 20, desencadenando un proceso de
transformación industrial que acabará extendiéndose a
todas las cinematografías del mundo.
Entre 1926 y 1930, se resuelven los innumerables
problemas técnicos que plantea la sincronización de
imagen y sonido, y también la amplificación del volumen
a los niveles requeridos por las salas de grandes
dimensiones. Pero aunque estas innovaciones prometen
ser una inversión segura, todo el mundo parece estar de
acuerdo en que el cine sonoro es un completo disparate.
Se hablará de las películas sonoras con el nombre
despectivo de “talkies”. Hará que se eclipsen muchas
estrellas del cine mudo, y otras como Chaplin se
resistirán a rodar filmes sonoros.
“El cantor de jazz” 1927
Primer largometraje con música y diálogos

Detalle del tocadiscos con que iba provisto


el aparato “Western electric”

Aparato “Western electric” de los años 30, que


permitía tanto proyectar películas sonoras
sincronizadas con un disco (Vitaphone), como
las que incorporaban banda de sonido óptico.

Al principio, sólo una productora menor, la WARNER BROS, mostrará interés por el cambio en su intento de competir
con las grandes compañías de Hollywood, estableciendo un acuerdo adquiere el derecho de explotación del sistema de
grabación y reproducción electrónica a través de discos fonográficos, al que denominarán Vitaphone.

Los primeros ensayos realizados en 1925, van encaminados a la grabación de breves números de variedades, cómicos o
musicales que la productora ofrece, como novedad, junto con su producción de largometrajes mudos. El estreno
definitivo del Vitaphone se realiza al año siguiente con la producción Don Juan (1926),con la música orquestada de la
ópera de Mozart; pero será El cantor de jazz (The Jazz Singer, 1927) el primer largometraje con música y palabras.
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 2/7

En 1928 la FOX FILM CORPORATION adopta un


sistema óptico de grabación de sonido en la cinta de
celuloide, paralelo a los fotogramas. Todas la productoras
se irán sumando al invento. Algunas desarrollarán sus
propias patentes como la RKO en Estados Unidos y la
TOBIS KLAUGFILM en Alemania.

La guerra comercial volverá a producirse durante los años


1928 a 1931 para repartirse el mercado mundial de los
equipos para estudios y salas.

La implantación del cine sonoro en España no será fácil.


En 1930 tan sólo se rueda una película con sonido. Durante
estos años, para sonorizar las películas se recurrirá a otros
países, principalmente a Francia. Curiosamente, uno de los
clásicos mudos del cine español, La aldea maldita, rodada
en 1929 por Florián Rey, será posteriormente sonorizada
en Francia.

Con el paso de los años, la implantación del cine sonoro


tendrá consecuencias beneficiosas, tanto a nivel industrial
como artístico. La incorporación del sonido aportará a la
narrativa cinematográfica muchos cambios
revolucionarios, tanto técnicos como formales. Al Fotogramas con banda de sonido óptico.
principio se vuelve al “teatro filmado”, en el que el
ritmo de los planos, fijos y teatrales, se ven supeditados
a los interminables diálogos y canciones. Aparece el género del music-hall y de la comedia musical. Pero la
utilización del sonido permitirá descubrir elementos expresivos de gran eficacia y demostrará definitivamente la
capacidad del cine para abordar conflictos y personajes de gran complejidad.

La diversidad idiomática dificulta la distribución internacional de las películas. Para salvar este obstáculo, las
productoras filman la misma película en varios idiomas, sustituyendo a los actores y actrices, pero utilizando los
mismos decorados y el mismo equipo técnico. Entonces, se le abre a la industria cinematográfica española una
oportunidad de expansión a todos los países hispanohablantes, pero serán las productoras de Hollywood las que toman
esta iniciativa y, a partir de este momento, comienzan a importar también, artistas y técnicos españoles con los que
producirán la versión castellana de sus películas.

HISTORIA DE LA BANDA SONORA


En sus inicios, el cine sonoro fue considerado como una curiosidad
científica, pensándose que su explotación comercial tenía un futuro
incierto.
En el método óptico las ondas sonoras son convertidas por un micrófono
en impulsos eléctricos equivalentes, que a continuación son amplificados
y activan un dispositivo que modifica la intensidad de un rayo de luz
(mediante una válvula de luz activada electromagnéticamente) o su
tamaño (por medio de un espejo vibrador activado
electromagnéticamente o una ranura de anchura variable). El rayo de luz
resultante se enfoca sobre una película en movimiento, que cuando se
revela proporciona una pista fotográfica. La pista grabada en el primer
caso, al modificar la intensidad del rayo, presenta una densidad
variable y una anchura constante. La pista grabada en el segundo caso,
variando el tamaño del rayo de luz con un espejo vibrador o una ranura de anchura variable, presenta áreas de película
oscuras y claras (anchura variable).
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 3/7

Para reproducir la pista de sonido se enfoca una fuente de luz


sobre la película y se coloca una célula fotoeléctrica detrás de
ella. Las fluctuaciones en la cantidad relativa de luz que pasa
a través de la película generan una corriente eléctrica variable
en la célula fotoeléctrica. Esta corriente se amplifica y se
transforma en sonido por medio de un altavoz o bocina.

A finales de los años 20 se multiplicaron las salas que


incorporaban la posibilidad de reproducir este sonido, es más,
crecieron a un ritmo excesivo, porque se produjeron constantes
avances que no se incorporaron a las salas, porque éstas ya
acababan de invertir en la nueva tecnología. Un ejemplo se dio
con los altavoces, que mejoraron a toda velocidad, optimizados
para salas más grandes y para más frecuencias, y a los técnicos de
sonido les asaltó una duda: Si debían optimizar el sonido para los
nuevos altavoces o para los antiguos. Como dos versiones de una
película eran poco rentables, hubo que sacrificar los progresos de
calidad durante bastante tiempo.
En los años 30 se produjo una estandarización de los
sistemas de sonido y los propietarios de los cines
empezaron a equipar las salas con los medios más
adecuados a lo que ofrecían los estándares en la producción
cinematográfica, porque sabían a qué atenerse. El resultado
fue un esquema de grabación y reproducción que hizo
posible que casi todas las películas sonaran aceptablemente
en cualquier cine del mundo. El problema fue que el
esquema carecía de flexibilidad para incorporar mejoras
que superaran las limitaciones existentes en la época. Y
esta situación se prolongó una década más.
A principios de los 50, la industria cinematográfica
buscó también en el sonido una mejora sustancial del
terrible y conocido competidor que acechaba: el televisor.
“Flores y árboles” 1933 Se introdujo una banda magnética para el sonido, que
curiosamente fue un descubrimiento muy relacionado con
Sonido óptico de densidad variable la propia televisión y sus sistemas electrónicos de
transmisión y almacenamiento de datos. Después de
imprimir la imagen, se aplicaban estrechas bandas de un
material basado en óxido de hierro ( la banda magnética en
sí). En los estudios se grababa en tiempo real en las bandas
magnéticas y supuso un avance significativo que
proporcionaba una fidelidad muy superior a la del sonido
óptico convencional.
Además se permitió la reproducción de sonido
multicanal, la voz de los actores se escuchaba desde varias
fuentes, izquierda, centro o derecha según aparecieran
éstos en pantalla. Esto dió un gran realce a los sistemas
panorámicos visuales que surgieron por las mismas
razones. Y no sólo con las voces, también se logró un
mayor realismo en el apartado musical, los efectos
especiales de sonido resultaban mucho más creíbles desde
“Blancanieves y los siete enanitos” 1937 la parte trasera de las salas. Los principales sistemas de
sonido que se crearon son el denominado Todd-AO de
Sonido óptico de área variable 70mm con seis canales y el conocido CinemaScope de 35
mm con cuatro.
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 4/7

Sin embargo pasaron los años y el sonido magnético, que durante las décadas anteriores floreció con las
superproducciones de inmenso realismo, sufrió una grave crisis en los 70. Un declive generalizado acechó a la industria
y hubo que recortar gastos. El resultado fue la vuelta al sonido mono y óptico de baja fidelidad.
En ese momento de crisis fue una resolución muy inteligente: la cabeza lectora de sonido óptico era conocida,
económica y sencilla, y también resultan rentables los modos de captación, transporte y mantenimiento del sonido, a lo
que hay que añadir que el soporte es el mismo que el de la imagen sin añadidos de ningún tipo. Por su parte la banda
magnética cayó en desuso y quedó relegada a estrenos y grandes películas en sólo unas pocas salas. Los rodajes de
grandes producciones se seguían grabando con la mayor calidad posible, pero sólo se hacían contadas copias con esa
calidad, mientras que se optimizaba la calidad de la banda óptica en mono; por supuesto, hasta los evidentes límites que
ésta tiene. Curiosamente muchos hogares disfrutaban en aquellos momentos de los sistemas de alta fidelidad, con
mucha mayor calidad que las salas de cine.
Durante los 80 la industria estaba viviendo una recuperación financiera y se hizo necesario un modo de volver de algún
modo a la calidad de hacia 30 años. Surgieron los sistemas multicanal para algunas películas importantes. El gran
avance fue la investigación de Laboratorios Dolby de un formato de sonido estéreo para películas de 35 mm, cuyo
nombre es conocido por todos nosotros: Dolby Stereo. En el espacio ocupado por la pista convencional óptica mono
hay dos pistas que no sólo contienen información de canales izquierdo y derecho como en sonido estéreo doméstico,
sino que también contienen codificada la información para un tercer canal de pantalla (central) y un canal envolvente
para sonidos de ambiente y efectos especiales.
Este formato no sólo permitió usar el sonido multicanal sino que también mejoró la calidad del propio audio y
supuso un gran avance en cuanto al diseño de la banda sonora: Los sistemas tenían (y tienen) códigos para ser
comprendidos por lectores novedosos, pero también pueden ser asimilados por lectores antiguos para reproducir
el sonido sin las ventajas adicionales. Esto supone que no es necesario cambiar el sistema reproducción sonora de
un cine cada vez que surge una innovación.
En cuanto a la fidelidad, hubo muchas técnicas que la mejoraban, tanto en reproducción como en grabación. Lo
principales fueron la reducción del ruido Dolby A, que elimina el soplo y el sonido de fritura, característicos del
sonido óptico, y la ecualización de los altavoces para ajustar el sonido del sistema a una curva de respuesta estándar.
Como resultado, las películas Dolby Stereo podían reproducirse en los cines instalando procesadores Dolby, con una
respuesta en frecuencia mucho más amplia y una distorsión mucho mejor que las películas convencionales. Otra
ventaja del formato Dolby es que las bandas de sonido se imprimen simultáneamente con la imagen, al igual que
en las anteriores películas mono. De este modo, el coste de las copias ópticas con cuatro canales no es mayor que el
de las mono, y mucho menor que el de las magnéticas. El resultado, aún en los 80, fue la capacidad multicanal
equivalente al de las películas magnéticas de 35 mm, que enseguida quedaron obsoletas, con una mayor fidelidad,
mayor fiabilidad y menor coste.
En 1986, los Laboratoriso Dloby introdujeron un nuevo proceso de grabación denominado Dolby Spectral Recording.
Como sistema de reducción de ruido era un sistema de codificación-decodificación simétrico usado tanto en grabación
como en reproducción. Alcanzaba una reducción de ruido equivalente al doble que el sistema Dolby A. Las bandas de
sonido óptico de 35 mm tratadas con Dolby SR en lugar de Dolby A no sólo sonaban excelentemente en los cines con
los nuevos procesadores SR, sino que también se podían reproducir satisfactoriamente en todos los cines con Dolby
Stereo. Esto llevó a la situación actual en que prácticamente todas las copias con sonido analógico tengan el
formato Dolby SR.
El siguiente desarrollo de Laboratorios Dolby (que ya se había convertido en la máxima autoridad en el campo del
diseño de pistas de audio) fue presentado en 1992 y pasaba ya al sistema digital. El Dolby Digital consta de una banda
de sonido óptica compuesta por seis canales digitales, además de una banda analógica de cuatro canales SR. Todo
ello en una película de 35 mm. Este formato fue otro avance significativo en el sonido cinematográfico que permitía
cinco canales independientes (izquierdo, central, derecho, Surround izquierdo y Surround derecho) y un sexto canal
para efectos de baja frecuencia (los bajos de una orquesta, golpes, temblores de tierra y todos los sonidos que precisen
de un refuerzo en este campo). Además de seis canales, el formato Dolby Digital proporciona una gran capacidad
dinámica, amplia respuesta en todas las frecuencias, baja distorsión y la inmunidad al desgaste similar a las películas
actuales de celuloide. Hoy es el formato digital más conocido, con el que se han realizado un mayor número de
películas y el que más cines de todo el mundo tienen instalado.
El último avance del sistema Dolby ha sido el Dolby Digital Surround EX, que, como su propio nombre indica,
añade una pista Surround extra al Dolby digital. Este canal se reproduce por los altavoces Surround de la pared trasera
de las salas. Surgió en 1999 y ha sido un recurso muy solicitado para dotar de más espectacularidad a las producciones
de Hollywood.
LA MÚSICA
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 5/7

Las funciones de la música varían según sea su origen. En este sentido diferenciamos entre música diegética; aquella
que pertenece al mundo de los personajes (por ejemplo, en una escena de baile en una película de los años 50, la música
de la orquesta que toca en la sala) y la música no diegética: la que existe fuera del mundo de los personajes, y por tanto
ellos no la pueden oír.
Aunque la función principal de la música diegética es la de suministrar apoyo y coherencia a aquello que se nos
muestra en la imagen el hecho de hacerla necesaria puede ir ligado a unas intenciones más complejas del realizador (y
no olvidemos que los grandes realizadores consiguen subvertir esta dicotomía -una música diegética se funde en una no
diegética). Sea o no necesaria, la música de una producción audiovisual puede cumplir alguna de las siguientes
funciones:
- Suministrar información: la letra de una canción puede explicarnos cosas que pasan, sentimientos de
los personajes, etc.; también el estilo musical nos puede informar de la época y el lugar en el que se
desarrolla la acción.
-Captar la atención del espectador: a base de golpes orquestales, fanfarrias, sintonías de programas.
-Establecer el ritmo: de la edición de la imagen o del diálogo.
- Mantener el flujo y la continuidad de la acción: la persistencia de una música suavizará cortes
abruptos, rupturas de raccord visual.

Existen determinados formatos musicales destinados a cumplir funciones específicas:

- Sintonía: caracteriza inequívocamente un programa o producción audiovisual; avisa de su inicio o final.


-Ráfaga: fragmento de música sin otra finalidad que la de introducir variación o distracción sonora.
-Cortinilla: fragmento breve utilizado para delimitar y separar secciones de una misma producción.
- Fondo o ambiente: música incidental, que suele ir mezclada con diálogos o efectos importantes, y que
contribuye a mantener una continuidad anímica o estructural.
- Banda Sonora: suele identificarse como tal la banda musical pero incluye también la banda de efectos y
la de diálogos.

Pero lo más importante de la música es que diga algo. La música sugiere. Es un hecho innegable. Es más, por eso
existe. Como imagen auditiva que es, trae recuerdos de otras imágenes o de sentimientos.

LOS EFECTOS DE SONIDO


Un efecto de sonido puede considerarse como cualquier sensación auditiva que trate de acompañar a la acción y
proporcionar realismo a una producción audiovisual. Los efectos pueden representar objetos, movimientos en el espacio
o en el tiempo, estados emocionales, procesos de pensamiento, contacto físico entre objetos, escenarios, entidades
irreales, etc. Éstas son los diferentes tipos que hay, según su origen:

- Efectos originales: Son los procedentes de las tomas de sonido directo o sonido de producción. Estos
efectos pueden ir en sincronía con determinadas imágenes o ser independientes de ellas, si bien su origen
sigue siendo los lugares del rodaje. Cuando la planificación de la producción establece la grabación de
sonidos originales hay que conseguirlos con la máxima nitidez sonora posible Los efectos originales
tienen los inconvenientes de que es difícil hallar lugares lo suficientemente tranquilos y silenciosos que
garanticen una buena grabación, y que muchos eventos naturales son poco controlables y difícilmente
repetibles. Por todo ello los efectos originales a menudo requieren de algún tipo de procesado posterior
antes de incluirlos en la banda sonora.
- Efectos de sala: Son sonidos que reemplazan los sonidos de ambiente y los efectos que se pierden
cuando se doblan diálogos o se graban en directo. En general los efectos de sala acostumbran a ser pasos,
roces de ropa, ruidos domésticos, puertas que se abren y se cierran, etc., y para su grabación los estudios
disponen de suelos de superficie variable. Efectos típicos de sala son los pasos de un caballo creados a
partir de golpear cocos contra un suelo de tierra o de grava, la lluvia creada a partir de volcar tierra sobre
un papel situado encima del micrófono, los sonidos de comida friéndose creados a partir de poner trapos
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 6/7

mojados sobre una superficie ardiente, los truenos creados a base de sacudir un globo lleno de perdigones
o bolitas de plomo, o el fuego creado arrugando papel celofán. Los efectos de sala no siempre tienen que
ser lo que definitivamente vaya a sonar: posteriormente pueden procesarse o acumularse unos sobre otros
hasta conseguir el tipo de sonido que mejor se adecue.
- Efectos de colecciones o de bibliotecas: Las colecciones en discos son el recurso más utilizado a la hora
de construir la banda sonora de una producción audiovisual. Suelen venderse en sitios especializados y
están organizadas temáticamente con categorías tales como transporte, naturaleza, domésticos,
electrónicos, exteriores, humanos, etc.
- Efectos electrónicos o sintéticos: Ya en los años 50 algunos creadores de efectos de sonido
construyeron máquinas especiales para generar determinados tipos de efectos, y también son de aquella
época los primeros sonidos verdaderamente sintéticos. No obstante, hasta los años 70 los sintetizadores y
otros dispositivos electrónicos no empezaron a funcionar a gran escala. Además empezó a utilizarse el
denominado Sampler, que es un sistema electrónico para colocar efectos en tiempo real. Éstos están
almacenados en una base de datos y se insertan adecuadamente. Los sonidos pueden ser naturales, es
decir, que el efecto sea el sonido del mismo objeto que lo ha producido o falseado, a esto se lo denomina
"sonido característico". Es una imitación del objeto que está sonando. Un sonido característico puede
reconocerse, pero no es el original de la fuente sonora sino aquél que se supone, o que se supone que el
oyente puede suponer, que ha de tener la fuente sonora.

La deformación o imitación de un sonido característico se hace con el fin de intensificar el impacto


sobre el espectador. Un ejemplo muy interesante ocurrió en USA: durante muchos años todos los anuncios
de automóviles utilizaban el mismo sonido, el de un Deussenberg del 35, debido a que su timbre no
enmascaraba las voces de los locutores y realmente "parecía un coche"; para el oyente especialmente si no
era demasiado entendido en sonidos de coches el efecto utilizado era apropiado, aunque no fuera el que
correspondía en realidad al coche que se promocionaba.
Los sonidos tienen distintas funciones en las producciones audiovisuales:
- Sonidos objetivos: aquellos que suenan a consecuencia de la aparición de la imagen de un objeto que
emite el sonido. Un sonido objetivo suena como se supone que sonará el objeto que aparece en la imagen
(no necesariamente suena exactamente como lo hace en la realidad).
- Sonidos subjetivos: aquellos que apoyan una situación anímica o emocional de la trama o de los
personajes, sin que necesariamente el objeto productor del sonido aparezca en la imagen.
-Sonidos descriptivos: aquellos que no representan a ningún objeto de los que aparecen en la imagen, sino
que son abstracciones o idealizaciones de los sonidos supuestamente originales (aquellos que podríamos
escuchar). Podemos considerarlos como sonidos metafóricos.
TRATAMIENTO DEL SONIDO
Ya que nuestra mayor nitidez se encuentra en la franja en que percibimos las voces, hay que tener especial cuidado al
tratarlas. Muchas formas de tratamiento y grabación pierden calidad y se hacen notar en este margen. Por lo tanto hay
que tratar de mantener su calidad e incluso mejorarla.
En el mundo del sonido existen equivalentes a los encuadres visuales. El concepto de planos sonoros se refiere a
las relaciones existentes entre las diversas fuentes que coexisten en una banda sonora, es decir, las diferentes
voces, la música y los efectos.
Hay cuatro tipos de planos básicos:

- El narrador: Son las voces en off que buscan cercanía al espectador. Se utiliza mucho el efecto de compresión y se le
dota de más intensidad que al resto. La sensación resultante consiste en que sentimos que quien nos habla se encuentra
cerca. Ésta es la función principal de los compresores mencionados antes: Cuando oímos más altas las frecuencias de
poca intensidad, nos invade la sensación de que nos hablan muy de cerca. Las voces susurrantes salen muy reforzadas
con este sistema.
- El primer plano: Cuando vemos a alguien en pantalla y debe ser el centro de atención también debe tratarse con fuerza
su muestra de audio. Es la voz del protagonista manteniendo una conversación. El mezclador debe tener cuidado de que
sea a él a quien se oiga principalmente, aunque haya otros sonidos de fondo. Por supuesto, también la música puede
estar en primer plano.
- El segundo plano: Es un concepto difícil de explicar. No es lo que llama la atención pero se oye. Puede ser una
conversación en secundaria a la que no prestamos atención (o no debemos). Gosford Park muestra numerosos ejemplos.
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 7/7

Otro caso interesante ocurre Parque Jurásico, cuando se visita la celda de los velocirraptores. Se utiliza como recurso
expresivo dando un segundo plano a los personajes que están en primer plano y se va cediendo la atención a otros.
También sirve de ejemplo el sonido de un televisor que no es el centro de atención. Literalmente, lo oímos en segundo
plano.

- El tercer plano: Consiste en el conjunto de sonidos que no tiene una relevancia especial, el ejemplo más ilustrativo es
el de gente en un bar hablando sin que nos demos cuenta de qué dicen.
Hay otros aspectos que tienen que tenerse en cuenta. Uno de ellos es la ambientación. Existen diferencias entre un
espacio abierto y un espacio cerrado tanto en el tratamiento de la fotografía como en el del audio. Mientras,
generalmente, la voz en un espacio abierto suena natural, en un espacio cerrado suena reverberada dependiendo de los
materiales y la arquitectura del entorno. Existen diferentes modelos de reverberación para cada situación. Incluso los
hay prefijados para habitaciones, grandes salones, etc.
Otras situaciones en las que se utiliza el efecto de reverberación es para dotar de importancia a un personaje. Dios,
como personaje en obras audiovisuales, ha tenido reverberación casi siempre que se ha representado en el cine. Incluso
es digno de tener en cuenta el caso de El Show de Truman: Ed Harris (tanto en versión original como aquí, doblado por
Salvador Vidal) susurra al final de la película a Truman. La reverberación con que le oye Jim Carrey es inmensa, y se
ve un plano del cielo gigantesco, ante las palabras "soy el creador". Luego oímos la continuación de la frase "...del
programa de televisión que llena de esperanza y felicidad a millones de personas". Esta parte es más digna de un dios
paródico, y la reverberación desaparece, porque vemos a Ed Harris hablando por un micrófono.
También hay casos en los que las convenciones han dejado atrás el realismo. En las telecomedias no hay
reverberación, porque originalmente se graban ante el público.

La ecualización se utiliza mucho para restar calidad. Esto es un recurso expresivo también importante en algunos casos:
Mediante esta técnica se simulan llamadas telefónicas, voces en la radio, etc. No sólo tiene esta función expresiva,
también tiene una función correctiva, porque ayuda a disminuir partes no deseables. Pero lo interesante es tratar la
música con este sistema. Si se realza una parte de alta frecuencia del espectro, se da más brillo, si se realzan los bajos,
quedan tonos más sombríos. Nótese una vez más que se utilizan expresiones típicas de las imágenes visuales.

Para las voces también se aprovecha este sistema, realzando graves en los hombres, agudos en las mujeres y los niños
o cualquier aspecto que los realizadores pretendan manipular, por ejemplo, si queremos que una persona se oiga en un
segundo plano a través de una pared con suficiente calidad pero con algo de dificultad para que se le entienda.
Otro asunto digno de mención es la forma de solapar música con voz. Para que la música no impida escuchar un diálogo
se limita el volumen, se normaliza y luego se ecualiza reduciendo su fuerza en la zona de los 1.000 hz. El resultado es
que las voces se entienden mejor, porque el oyente no tiene obstáculos que impidan reconocer bien la parte que capta
nítida en el espectro, mientras que de fondo, nunca mejor dicho, se escucha la composición musical.
RUIDO Y SILENCIO
En la Teoría de la Comunicación se considera ruido al exceso de información o a la información no deseada. Esta
definición es perfectamente aplicable al sonido. La forma en que el ruido se plasma en el audio es en ondas de sonido
adicionales que dificultan o molestan en mensaje.
De cualquier manera, el ruido de fondo es habitual y característico en las películas. No es lo mismo grabar un momento
de silencio en un parque que en un sótano. Es más, si eliminamos ese ruido, el resultado es irreal. Debe haber un ruido a
no ser que se pretendan dar unas circunstancias concretas.

El silencio podemos entenderlo como un tipo de sonido especial. Su uso dosificado puede generar expectación, o un
gran impacto emotivo cuando el desarrollo lógico de la escena hace esperar un sonido fuerte.
Un tratamiento objetivo del silencio es la ausencia real de sonido en la narración cuando no hay imagen que justifique
un ruido.
El tratamiento subjetivo es utilizar el silencio para crear un ambiente emocional concreto. Además de generar
expectación o de contrastar escenas o mensajes visuales puede llegar a comunicar situaciones de desolación, muerte,
emociones desagradables... pero también tranquilidad o distanciamiento. Matrix es una de las pocas películas que se
han hecho con fragmentos sin absolutamente nada de ruido. La sala blanca completamente vacía donde se encuentran
los dos protagonistas pretende resultar falsa, increíble, y lo consigue mediante diálogos completamente limpios de ruido
y silencios absolutos. En otros casos resulta interesante la necesidad de buscar un ruido de fondo para dar más
credibilidad. Esto ocurre con la restauración de los clásicos y en ocasiones, con nuevos doblajes que se hacen de ellos.
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 8/7

Introducción al sonido digital


Bienvenidos a una clase de introducción al sonido digital. Vamos a hablar un poquito de teoría
(pese a que puede parecer un poco árida, os aseguro que merece la pena), sobre una de las
técnicas a las que menos atención se le presta en el video aficionado, pero una de las que más
importancia tiene para dar a cualquier corto un aspecto mucho más profesional.

Una de las muchas ventajas del nuevo formato DV (Digital Video), en su variante DVCAM o en
la más popular MiniDV, es su mejorada capacidad de grabación de audio. El estándar Digital
Video incluye grabación de audio PCM (Pulse Code Modulation). En la grabación de audio
analógica convencional, las ondas de sonido se registran como cambios en los campos
magnéticos de la cinta. La grabación digital graba el sonido como ceros y unos, tras haber
convertido las ondas en pulsos. La pista de sonido se graba en un tambor de grabación aparte
del de vídeo.

Las ondas de sonido son vibraciones en el aire con dos características básicas: FRECUENCIA
(que va desde los tonos más graves hasta los más agudos) y AMPLITUD, desde débil a fuerte.
Juntas forman lo que se conoce como una onda sinoidal.

Ahora imaginemos la forma de una de las


curvas de la M de macdonalds. La amplitud
de la onda se representaría con la altura
de la media M. cuanto más lejos de la base
llegue la cima de la curva, más fuerte es la
señal. La frecuencia puede representarse
con el número de veces por segundo que
la curva tarda desde que empieza a subir
hasta que llega otra vez abajo. A esto se le
llama "Ciclo" o "Hercio". cuantos más ciclos
Esta es la parte de violines en la que los protagonistas se por segundo, más alta es la frecuencia de
besan, cortesía de la grabación PCM. la onda. El oído humano puede oír
frecuencias que van desde los 20 ciclos, o hercios por segundo, o Hz, un tono muy grave,
hasta aproximadamente 22.600Hz. La distancia entre las "cimas" de las ondas se llama
longitud de onda, y se hace más pequeña a medida que la frecuencia aumenta.

El micrófono de la cámara digital recoge el sonido y lo transforma en una señal analógica


consistente en cambios de voltaje (normalmente de +1voltio a -1voltio). Esta parte es la más
mecánica, y dependiendo de la calidad del micrófono, esa señal tendrá mejor o peor calidad al
pasar a la siguiente etapa, un convertidor A/D (Analógico->Digital), que mide la señal y la
muestrea (o "samplea") miles de veces por segundo, y graba el resultado como unos y ceros.
Cuando se reproduce el sonido, los datos siguen el curso inverso, a través de un convertidor
D/A, hasta convertirse otra vez en sonido.

La calidad de reproducción depende de la calidad de la conversión original de analógico a


digital, y viceversa. La exactitud y detalle de la muestra depende principalmente de la cantidad
de muestras por segundo (que controla la respuesta de frecuencia), y del número de "bits" por
muestra (que se encarga de controlar el ruido y la distorsión).

La mayoría de las ondas de sonido son una compleja mezcla de ondas sinoidales. Sólo
necesitamos DOS muestras de la onda a su frecuencia más alta para poder reconstruirla más
tarde. La frecuencia de muestreo, pues, debe ser lo suficientemente alta para asegurar al
menos dos muestras a cualquier frecuencia del sonido original. Así, para grabar con esa
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 9/7

suficiente seguridad sonidos de hasta 22.600Hz (el límite audible por un oído humano)
necesitaríamos una frecuencia de al menos 44.100Hz, o 44,1KHz. Esta cifra os sonará a más
de uno como la frecuencia a la que suelen estar grabados los CDs musicales.

Los sistemas digitales de sonido usan el mismo esquema que los ordenadores. Eso significa
que cada dígito tiene solamente dos valores (0 y 1). Cada dígito añadido dobla el número de
valores que ese número puede manejar: Un número de un dígito tiene dos posibles valores (0
y 1); uno de dos dígitos tiene cuatro (00, 01, 10, 11), uno de tres dígitos tiene 8 valores, etc.

Los sistemas digitales miden en "trocitos", mientras que los analógicos miden en continuo. Una
señal digital que mide desde +1voltio a -1voltio oscila entre infinitos valores entre esos dos
puntos, mientras que un sistema digital solo puede "ver" un número finito de esos infinitos
valores. La diferencia entre los infinitos valores analógicos y los x (finitos) valores digitales
añade ruido y distorsión a la señal.

Pues bien, cuantos más dígitos tenga un sistema de grabación digital, más se acercará a la
calidad que es capaz de registrar un sistema analógico. Cada dígito extra, de hecho, corta por
la mitad esa diferencia. Ese aumento de "fidelidad" al original es equivalente a recortar ruido y
distorsión en 6dB (decibelios). En el caso de los sistemas de grabación DV, el modo de
grabación de 12 bits tiene un rango dinámico de 72dB, mientras que el modo 16bits (igual que
el de los CDs de audio) da un rango de 96dB, suficientes para acomodar el rango dinámico de
cualquier sonido.

Y si el sistema analógico de grabación es tan perfecto, ¿por qué no usarlo y olvidar el digital?
Pues la respuesta es bien sencilla: La ventaja FUNDAMENTAL de los sistemas digitales es que
no hay pérdida de información de generación en generación. Así como cuando duplicamos un
CD la copia es perfecta, bit a bit, del original, al copiar la información de una cinta DV a otra (o
al introducirla en el ordenador, editarla, y volver a volcarla a cinta) no perderemos ni un sólo
ápice de su calidad.

Además, la grabación digital tiene otra ventaja: no hay "wow and flutter" (diferencias de
sonido debidas a la irregular marcha del motor de arrastre de la cinta), debido a que los datos
se almacenan en un "buffer" de memoria, que se encarga de corregir las variaciones antes de
mandarlas a nuestro oído.

¿No es maravilloso lo que hemos aprendido hoy? Pues si no te has dormido antes de llegar
aquí, enhorabuena. Ahora sabrás mucho más sobre los principios del arte de la grabación
digital de sonido.
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 10/7

La pista de sonido óptico analógico tradicional es una banda opaca situada junto a la imagen en la película. Las pistas
son una expresión gráfica del audio, unas pistas transparentes cuya anchura varía de acuerdo con las variaciones del
sonido. Al pasar la película, un haz de luz atraviesa las pistas, y una célula fotoeléctrica convierte la luz en una señal
eléctrica que conserva una variación similar. La señal eléctrica se procesa y se amplía hasta convertirla en el código que
los altavoces reproducen.

You might also like