Professional Documents
Culture Documents
Entre 1943 y 1945, bajo la influencia de las ideas de Norbert Wiener, cre las bases de la
teora matemtica de las comunicaciones mediante la sntesis de los trabajos dispersos que se
remontaban a comienzos de la era de las telecomunicaciones, al tiempo que proporcion una
medida del valor de la comunicacin, punto esencial que habra de determinar todo el
desarrollo de lo que se llama ahora ciencia de las comunicaciones, o teora de la
informacin.
Impregnado de las ideas que reinaban en el MIT, pudo marginar el limitado problema del
contenido de un mensaje (el sentido), en beneficio exclusivo del continente (el soporte
material). Recogi una idea fundamental expresada dos siglos antes por Leibnitz, segn la
cual cualquier mensaje poda reducirse a una combinacin de seales de todo o nada,
(seales binarias de 0 y 1), transmitida de un punto a otro por un canal exento de ruido.
Cre entonces, mediante un razonamiento bastante simple, lo que se llama ahora Frmula
fundamental de Shanonn, mostrando que el valor del mensaje poda traducirse en una
magnitud que denomin informacin y que era equivalente, en el mundo de los signos, a lo
que Boltzmann, siguiendo a Clausius, haba llamado entropa a propsito de la agrupacin
de las partculas gaseosas en un recipiente.
Este estudio origin un progreso decisivo que se tradujo, hacia 1946, en tres artculos
clebres publicados en el Bell System Technical Journal, trabajo que se constituy en la base
de todos los problemas de construccin de un mensaje con elementos simples sacados de un
repertorio y combinados segn ciertas reglas. Dos aos ms tarde estos artculos se
reunieron en el volumen The Mathematical Theory of Communication, editado por la
Universidad de Illinois.
Algunos aos despus Shanonn, ya clebre, volvi como profesor al MIT, recinto en el que
continu desarrollando su teora, considerada como una prolongacin de las enseanzas de
Wiener y, al mismo tiempo, prefiguradora de una nueva forma de ciencia de las relaciones
entre el ser y el medio, de la que la informtica representa apenas un aspecto tcnico.
WEAVER, Warren
Cmo se comunican los hombres entre s? La palabra en forma directa, por telfono o
radiofona, la palabra escrita o impresa, transmitida por mano, por correo, por telgrafo o de
cualquier otra manera, son formas obvias y comunes de comunicacin. Pero existen muchas
otras. Una inclinacin de cabeza, un guiar de ojos, un toque de tambor en la jungla, un
gesto que aparece en una pantalla de televisin, las guiadas de una luz de seales, un trozo
de msica que nos recuerda un suceso del pasado, las seales de humo en el aire del
desierto, los movimientos y las posturas de un ballet, son todos medios que el hombre usa
para transmitir ideas.
Los problemas semnticos se refieren a la interpretacin del significado por parte del
receptor comparada con el significado que se propone transmitir el emisor. Se trata de una
situacin muy profunda y complicada, aun cuando se refiera a problemas relativamente
simples de la comunicacin por medio de la palabra hablada. Por ejemplo, si se sospecha que
el seor X no comprende lo que dice el seor Y, no es posible aclarar la situacin en un
tiempo finito por el nico expediente de hacer que el seor Y contine hablando con el seor
X. Si el seor Y pregunta: Me comprende usted ahora?, y el seor X contesta: Claro
que s, esto no asegura que se haya llegado necesariamente a un entendimiento. Quiz slo
se trate de que el seor X no comprendi la pregunta. Si esto le parece tonto, haga otra
prueba formulndola de esta manera: Czy pan mnie rozumier?, con la respuesta: Hai
wakkate imasu. En el restringido campo de la comunicacin hablada tal vez la dificultad se
reduzca a un tamao tolerable, pero las explicaciones jams la eliminarn del todo.
Presumiblemente, ellas no son sino aproximaciones a las ideas que se explican, pero
resultan comprensibles cuando se las expresa en un lenguaje que el uso ha hecho
razonablemente claro. Por ejemplo: no lleva mucho tiempo hacer que, en cualquier idioma,
resulte comprensible el smbolo para expresar s.
Los problemas relativos a la persuasin o efectividad se refieren al xito obtenido en el
sentido de que el significado transmitido al receptor conduzca a la conducta que de l se
desea. A primera vista podra parecer demasiado mezquina la idea de que toda comunicacin
tenga como propsito ejercer influencia en la conducta del receptor. Pero cualquier
definicin ms o menos amplia de conducta indica que la comunicacin la afecta o, de lo
contrario, carece en absoluto de un efecto discernible y susceptible de prueba.
Podramos sentirnos inclinados a pensar que los problemas tcnicos slo implican los
detalles tcnicos del buen diseo de un sistema de comunicacin, mientras que los
semnticos y persuasivos contienen la mayor parte -si no todos- de los que se vinculan con
el contenido filosfico del problema general de la comunicacin. Para darnos cuenta de que
no es as deberemos examinar ahora algunos importantes trabajos recientes dentro de la
teora matemtica de la comunicacin.
Esta teora no es de ninguna manera nueva. Tal como lo subraya el matemtico John von
Neumann, el fsico austraco del siglo XIX Ludwing Boltzmann sugiri que algunos
conceptos de mecnica estadstica son aplicables al concepto de informacin. Otros
cientficos, principalmente Norbert Wiener, del Instituto de Tecnologa de Massachusetts,
han efectuado aportes profundos. El trabajo sobre el cual informaremos aqu es el de Claude
Shannon de los Laboratorios de Telfonos Bell, que fue precedido por el de H. Nyquist y
R.V.L. Hartley de la misma organizacin. En principio, este trabajo es aplicable a la
problemtica tcnica, pero la teora tiene un significado ms amplio. Por empezar, el
significado y la efectividad se ven inevitablemente restringidos por los lmites de la
exactitud en la transmisin del smbolo. Y, lo que resulta an ms significativo, un anlisis
terico de los problemas tcnicos revela que ellos se superponen a los semnticos y
persuasivos mucho ms de lo que se pudiera sospechar.
Las cuestiones que deben estudiarse en un sistema de comunicacin tienen que ver con la
cantidad de informacin, la capacidad del canal, el proceso de codificacin que puede usarse
para convertir el mensaje en seal y los efectos del ruido.
En primer lugar debemos tener bien clara la extraa manera como se emplea en esta teora la
palabra informacin. Se trata de un sentido especial que, entre otras cosas, no debe
confundirse con significado. Resulta sorprendente pero es verdad que, desde este enfoque,
dos mensajes -uno muy cargado de significado y el otro sumamente tonto- pueden ser
equivalentes en cuanto a informacin.
En realidad, en esta nueva teora la palabra informacin se vincula, no tanto con lo que se
dice, como con lo que se podra decir. Es decir, la informacin es una medida de su
libertad de eleccin cuando usted elige el mensaje. Si se encuentra frente a una situacin
muy elemental en la que debe elegir uno de dos mensajes alternativos, se dice
-arbitrariamente- que la informacin asociada con esta situacin es una unidad. El
concepto de informacin se aplica, no a los mensajes individuales -como ocurrira con el
concepto de significado-, sino a la situacin considerada como un todo; la unidad de
informacin indica que, en esta situacin, la persona tiene una cierta medida de libertad de
eleccin al elegir el mensaje, que es conveniente considerar como estndar o cantidad de
unidad. Los dos mensajes entre los cuales se debe elegir en este caso puede ser cualquier
cosa que uno quiera: una de las alternativas sera la versin del Rey Jacobo de la Biblia y la
otra S.
Lo que hemos dicho hasta ahora se vincula con situaciones artificialmente simples en las
cuales la fuente de informacin tiene libertad para elegir slo entre varios mensajes definidos
-como el hombre que elige entre varias frmulas fijas de telegramas de felicitacin para
cumpleaos. Ms natural e importante es aquella situacin en la cual la fuente de
informacin realiza una secuencia de elecciones de un conjunto de smbolos elementales y el
mensaje queda formado con la secuencia elegida. De este modo el hombre puede elegir una
palabra despus de otra y estas palabras, individualmente seleccionadas, darn como
resultado el mensaje.
Cabe sealar que Shannon ha hecho notar que, cuando las letras o las palabras elegidas al
azar se colocan en secuencias dictadas solamente por consideraciones de probabilidad,
tienden a disponerse en forma de palabras y frases con significado (ver ejemplo en la pg.
72).
SEAL SEAL
FUENTE DE TRANSMISOR CANAL RECEPTOR DESTINO
INFORMACIN RECIBIDA
FUENTE DE
MENSAJE RUIDO MENSAJE
Para quienes han estudiado ciencias fsicas resulta muy significativo que una expresin
similar a la entropa aparezca dentro de la teora de la comunicacin como medida de
informacin. El concepto de entropa, introducido hace casi cien aos por el fsico alemn
Rudolf Clasius, estrechamente asociado con el nombre de Boltzmann y dotado de un
profundo significado por Williard Gibbs, de Yale, en su clsico trabajo sobre mecnica
estadstica, ha llegado a ser un concepto tan fundamental y general que Sir Arthur Eddington
sostiene: La ley que afirma que la entropa crece siempre -segunda ley de la
termodinmica- ocupa, en mi opinin, la posicin suprema dentro de las leyes de la
naturaleza.
El transmisor puede tomar un mensaje escrito y utilizar algn cdigo para cifrar dicho
mensaje en, por ejemplo, una secuencia de nmeros, nmeros que luego se enviarn como
seal a travs del canal. Decimos entonces, en general, que la funcin del transmisor
consiste en codificar y la del receptor en decodificar el mensaje. La teora se adapta a
transmisores y receptores sumamente sofisticados tales como, por ejemplo, aquellos que
tienen memoria, de modo que la manera como codifican cierto smbolo del mensaje
depende no slo de este nico smbolo, sino de los smbolos anteriores del mensaje y de la
manera como fueron codificados.
Estamos ahora en una posicin que nos permite enunciar el teorema fundamental para un
canal sin ruidos que transmita smbolos discretos. Este teorema se refiere a un canal de
comunicacin con capacidad para C unidades por segundo y acepta seales de una fuente de
informacin de H unidades por segundo. El teorema establece que, si se elaboran procesos
de codificacin adecuados para el transmisor, es posible transmitir smbolos a travs del
canal a un promedio que se acerca a C/H pero que, por excelente que sea la codificacin,
jams exceder de C/H.
Es verdad que cuando hay ruido la seal recibida se elige de entre un conjunto ms variado
de seales del que se propuso el emisor. Esta situacin ilustra muy bien la trampa semntica
en la que podemos caer si no recordamos que la palabra informacin se emplea aqu con
un sentido especial que mide la libertad de eleccin y, por lo tanto, la incerteza acerca de
la eleccin realizada. La incerteza que surge de la libertad de eleccin por parte del
emisor es una incerteza deseable. La incerteza que surge de errores o debido a la
influencia del ruido es, sin duda, indeseable. Para obtener la informacin til contenida en
el mensaje recibido debemos sustraer la parte espuria. Segn la teora, ello se consigue
estableciendo una cantidad conocida como equivocacin, que significa el monto de la
ambigedad introducida por el ruido. Se refina o extiende entonces la definicin anterior
sobre la capacidad de un canal sin ruido y se enuncia que la capacidad de un canal ruidoso se
define como igual a la velocidad mxima con que es posible transmitir informacin til (es
decir, incerteza total menos incerteza producida por ruido) a travs del canal.
Podemos ahora, finalmente, enunciar el gran teorema central de toda esta teora de la
comunicacin. Supongamos que un canal ruidoso de capacidad C est aceptando
informacin de una fuente de entropa H, entropa que corresponde al nmero de mensajes
posibles de la fuente. Si la capacidad C del canal es igual o mayor que H, elaborando
sistemas de codificacin adecuados ser posible transmitir la produccin de la fuente por el
canal con tan poco error como se desee. Pero si la capacidad C del canal es menor que H
-entropa de la fuente- resultar imposible elaborar cdigos que reduzcan la frecuencia del
error para hacerla tan baja como se desee.
Por ms hbil que sea en el proceso de codificacin, ser siempre verdad que, una vez
recibida la seal, quedar una cierta incerteza indeseable acerca de cul era el mensaje, y esta
incerteza indeseable -ruido o equivocacin- ser siempre igual o mayor que H menos C.
Pero siempre existe por los menos un cdigo capaz de reducir esta incerteza indeseable
hasta un valor que exceda muy poco H menos C.
Este potente teorema ofrece una descripcin simple, precisa y casi asombrosa acerca del
mximo de confiabilidad que podemos conseguir de un canal de comunicacin que funciona
con la presencia de ruido. Para darnos cuenta de la verdadera fuerza y amplitud de este
sorprendentemente slido teorema ser necesario reflexionar y considerar sus muchas
aplicaciones. Slo una de ellas podemos indicar aqu, pero, para hacerlo, debemos volver
por un momento a la idea de la informacin de una fuente.
Resulta interesante sealar que la redundancia del idioma ingls es de alrededor del 50%.
Dicho de otro modo, alrededor de la mitad de las letras o palabras que elegimos para
hablar o escribir provienen de nuestra libre eleccin, y alrededor de la mitad estn
realmente controladas por la estructura estadstica del lenguaje aun cuando, por lo
general, no nos demos cuenta de ello. Digamos al pasar que ste es ms o menos el mnimo
de libertad (o entropa relativa) en la eleccin de letras de que debe disponerse para poder
construir problemas de palabras cruzadas. En un lenguaje que slo tuviera 20% de libertad y
80% de redundancia sera imposible construir problemas de palabras cruzadas con suficiente
nmero y complejidad como para que el entretenimiento resultara popular.
El teorema que nos sirve de ayuda es aquel segn el cual una seal continua de T segundos
de duracin, y cuya banda de frecuencia est limitada al alcance cero a W, puede ser
totalmente especificada enunciando 2TW nmeros. Se trata de un teorema realmente
notable. Por lo general, slo es posible definir una curva continua de manera aproximada por
medio de un nmero definido de puntos. Pero, si la curva est construida con elementos
armnicos simples de un nmero limitado de frecuencias, dado que un sonido complejo se
construye con un nmero limitado de tonos puros, todo lo que se necesita para definir
completamente la curva es contar con un nmero finito de cantidades.
La teora matemtica de la comunicacin es tan general que no hace falta decir cules son
los smbolos que se consideran: letras o palabras escritas, notas musicales, palabras habladas,
msica sinfnica o imgenes. Las relaciones que revela se aplican a todos ellos y a otras
formas de comunicacin. La teora est tan imaginativamente motivada que llega al meollo
del problema de la comunicacin.
Una prueba de su universalidad es que ofrece un importante aporte -en realidad resulta
fundamental para su teora- a la criptografa, que, claro est, es una forma de codificacin.
Del mismo modo, la teora contribuye a la solucin del problema de la traduccin de un
idioma a otro si bien, en este caso, es necesario considerar no solamente la informacin, sino
tambin el significado. Las ideas formuladas en este trabajo se vinculan tan estrechamente
con el problema del diseo lgico de las computadoras que no nos sorprende que Shanonn
haya elaborado un trabajo sobre diseo de una de estas mquinas que sera capaz de jugar
hbilmente con el ajedrez. Y tambin es pertinente con lo que aqu se sostiene que su trabajo
se cierre con la afirmacin de que, o aceptamos que esa computadora piensa o
modificamos sustancialmente las implicancias convencionales del verbo pensar.
Si entramos en esos niveles, quiz resulte esencial tener en cuenta las caractersticas
estadsticas del destino. Es posible imaginar, como agregado a ese diagrama, otra casilla
titulada Receptor semntico que se colocara entre el receptor tcnico (que cambia las
seales por mensajes) y el destino. Este receptor semntico somete el mensaje a una
segunda decodificacin a la que se exige que equipare las caractersticas estadsticas
semnticas del mensaje con la capacidad estadstica semntica de la totalidad de los
receptores o de aquel sub-conjunto de receptores que constituye la audiencia a la cual se
desea afectar.
Podemos imaginar, de igual modo, otra casilla en el diagrama que, colocada entre la fuente
de informacin y el transmisor, podra denominarse ruido semntico (que no debe
confundirse con ruido tcnico). Ella representara las distorsiones en el significado
introducida por la fuente de informacin, como un orador por ejemplo, que no son
intencionales pero que, de todas maneras, afectan al destinatario u oyente. Y el problema
de la decodificacin semntica debe tener en cuenta este ruido semntico. Es posible
pensar, asimismo, en un tratamiento o ajuste del mensaje original que lograra que la suma
del significado del mensaje ms el ruido semntico fuera igual al total del mensaje que se
deseara hacer llegar al destino.
Otra manera en que la teora puede resultar til para mejorar la comunicacin surge del
hecho de que el error y la confusin aumentan y la fidelidad disminuye cuando, por bueno
que sea el cdigo, se trata de amontonar demasiado en un canal. Una teora general a todos
los niveles seguramente deber tener en cuenta, no slo la capacidad del canal (hasta las
palabras mismas son adecuadas) sino la capacidad de la audiencia. Por analoga directa
probablemente sea verdad que, si se excede la capacidad de la audiencia, no se la llene del
todo, y slo se desperdicie lo que queda porque se derram. Lo ms probable es que,
tambin por analoga directa, se produzcan error y confusin generales.
Pero un examen ms detenido de la teora nos ha permitido ver que este anlisis aclara el
ambiente de una manera tan penetrante que ahora, por primera vez, estamos preparados para
una verdadera teora sobre significado. Una teora matemtica de la comunicacin es como
la nia modosa y discreta que, en la oficina de telgrafos, acepta su telegrama. No presta
atencin alguna a su texto sea ste triste, alegre o embarazoso, pero debe estar preparada
para manejar con inteligencia todos los mensajes que llegan a sus manos. Esta idea de que
un sistema de comunicacin debe procurar manejar todos los mensajes posibles, y que la
manera inteligente de intentarlo consiste en basarse en el carcter estadstico de la fuente, no
deja de tener sin duda un significado para la comunicacin en general. El lenguaje debe
crearse o desarrollarse pensando en la totalidad de las cosas que el hombre puede desear
decir pero, si es incapaz de lograrlo todo, debe actuar lo mejor que le sea posible tan a
menudo como le sea posible. Es decir, tambin l debe enfrentar la tarea estadsticamente.
Este estudio revela hechos sobre la estructura estadstica del idioma ingls, tomado como
ejemplo, que deben resultar significativos a los estudiosos de cualquier fase del lenguaje y
la comunicacin. Sugiere, como camino prometedor, la aplicacin de la teora de la
probabilidad a los estudios semnticos. Es especialmente pertinente aquella parte importante
de la teora de la probabilidad que se refiere a lo que los matemticos llaman los procesos
de Markoff, segn los cuales los acontecimientos pasados ejercen influencia sobre las
probabilidades presentes y ello se debe a que esta teora se adapta especficamente para
manejar uno de los aspectos ms significativos pero difciles del significado: la influencia del
contexto. Tenemos la vaga idea de que la informacin y el significado pueden resultar algo
as como un par de variables unidas cannicamente en la teora del quantum, es decir, que la
informacin y el significado pueden estar sujetos a alguna restriccin conjunta que obliga al
sacrificio de uno si se insiste en tener mucho del otro.
Quizs el significado resulte ser anlogo a una de las cantidades de las que depende la
entropa de un conjunto termodinmico. Eddington tiene, acerca de esto, un comentario
pertinente: Supongamos que se nos pidiera ordenar lo que sigue en dos categoras:
distancia, masa, energa elctrica, entropa, belleza, meloda.
Pienso que existen excelentes razones para colocar la entropa con la belleza y la meloda, y
no con las otras tres. La entropa slo se encuentra cuando las partes se consideran
asociadas y es viendo u oyendo asociadas las partes como es posible discernir la belleza y
la meloda. En los tres casos se trata de aspectos que se vinculan con la disposicin. Es un
pensamiento lleno de posibilidades el que nos dice que una de estas tres socias debiera
figurar como cantidad comn de la ciencia. La razn por la cual esta extraa puede
inmiscuirse entre los aborgenes del mundo fsico es que ella es capaz de hablar en su idioma,
es decir, en el lenguaje de la aritmtica.
MODELOS FSICO-MATEMTICOS
Tomado de: