You are on page 1of 17

Comunicaciones Digitales Introducción a los Sistemas de Comunicaciones

Introducción a los sistemas de comunicación.


Desde la aparición del hombre en la Tierra, éste tuvo la necesidad de intercambiar ideas con los
demás. Así en un principio, quiso darse a entender con sonidos guturales; también utilizó el lenguaje de las
señas corporales, pero este tipo de “comunicación” solo le era útil para comunicarse en un corto espacio.

Después, el hombre tuvo la necesidad de comunicarse a mayores distancias y con ello ideó el uso de
señales de humo, aunque esto dependía severamente de las condiciones climáticas, que a veces no eran
favorables.

También creó las llamadas pinturas rupestres, donde plasmaba sucesos ocurridos o ideas de su ser.
Fue así como surgieron dos maneras de comunicación: (1) la comunicación escrita, con el arte de esculpir
signos sobre piedra y madera; y (2) la comunicación oral, a través de la emisión de sonidos guturales
perfeccionados, cuya mezcla resultó en palabras y frases.

En la actualidad, los sistemas de comunicación eléctrica se encuentran en todas partes donde se


transmite información de un punto a otro. Por ejemplo, en la vida diaria podemos mencionar los servicios de
teléfono, radio y televisión; en la navegación, en la investigación científica y más.

Ahora bien, la función básica de cualquier sistema de comunicación es la transmisión de


información. Para entenderlo, es necesario primero dar algunas definiciones importantes, que se usarán en
párrafos posteriores.

Comunicación. Es el proceso por medio del cual la información se transfiere de un punto llamado fuente, en
espacio y tiempo, a otro punto que es el destino o usuario.

Sistema de Comunicación. Es la totalidad o conjunto de mecanismos que proporcionan el enlace para la


información entre la fuente y el destino. Un sistema de comunicación eléctrica es aquel que realiza esta
función principal por medio de dispositivos y fenómenos eléctricos.

Mensaje. Es la manifestación física de la información producida por una fuente. Dada la diversidad de fuentes
de información, los mensajes aparecen de muchas formas, tales como:

‰ Secuencias de símbolos (código telegráfico o perforación de tarjetas)


‰ Magnitudes variando con el tiempo (presión acústica producida por voz o música, o la posición angular
de un giroscopio)
‰ Funciones y variables con el tiempo (intensidad de luz y color en una escena de televisión)

Pero independientemente del mensaje, el objeto de un sistema de comunicación es proporcionar una


réplica aceptable de dicho mensaje, en su destino. Como regla general, el mensaje producido por una fuente
no es de tipo eléctrico.

Onda de Modulación. Señal de baja frecuencia que lleva la información del mensaje.

Onda Portadora. Señal de alta frecuencia en la que se varía alguno de sus parámetros, proporcionalmente
con la señal del mensaje.

Onda Modulada. Señal resultante del proceso de modulación aplicada las ondas de modulación y portadora.

1/17
Comunicaciones Digitales Introducción a los Sistemas de Comunicaciones

Modelo de un sistema básico de comunicación.


La figura 1, muestra un modelo a bloques de un sistema básico de comunicación. A continuación se
describirán brevemente cada parte componente de este modelo.

Fuente de Canal de Destino o


Información Transmisor Receptor
Transmisión Usuario
(mensaje)

Transductor
Transductor
de entrada
de salida

Ruido, Atenuación
e Interferencia

Figura 1. Modelo de un sistema básico de comunicación.

Transductores de entrada / salida. El transductor de entrada es un dispositivo que convierte el mensaje


(forma de energía) en una señal eléctrica, la cual puede ser procesada por el transmisor; ejemplo de un
transductor de entrada puede ser un micrófono (conversión de energía acústica en energía eléctrica) o una
videocámara (conversión de energía luminosa en energía eléctrica). El transductor de salida es el dispositivo
que convierte la señal eléctrica que proviene del receptor en una forma adecuada de mensaje; por ejemplo un
altavoz o bocina (conversión de energía eléctrica a acústica) o una impresora (impresión de datos sobre un
papel).

Transmisor. El transmisor acopla la señal del mensaje de entrada hacia el canal. A pesar de que algunas veces
la señal del transductor puede acoplarse directamente al canal, muchas veces es necesario procesar y
modificar la señal de entrada, para producir una transmisión eficiente sobre el canal. En el transmisor se
llevan a cabo operaciones de procesamiento de señales que incluyen procesos de amplificación, filtrado y
modulación. La operación más importante es la modulación, un proceso diseñado para acoplar las
propiedades de la señal transmitida al canal, a través del uso de una onda portadora.

Modulación. Es la variación sistemática de algún atributo de una onda portadora, al como la amplitud, fase o
frecuencia, de acuerdo con una función de la señal del mensaje (onda moduladora).

Es importante mencionar que muchas formas de comunicación no eléctricas también encierran un


proceso de modulación y como tal, podemos mencionar la voz. Cuando una persona habla, los movimientos
de la boca ocurren lentamente, del orden de 10 Hz, a tal frecuencia es imposible producir ondas acústicas que
se propaguen. La transmisión de la voz se hace mediante la generación de tonos portadores de alta frecuencia
en las cuerdas vocales, tonos que son modulados por los músculos y órganos de la boca. Lo que el oído capta
como voz, es una onda acústica modulada, muy similar a una onda eléctrica modulada.

A pesar de una multitud de variedades, es posible identificar dos tipos básicos de modulación con
relación a la clase de onda portadora: la modulación de onda portadora continua (CW) y la modulación por
pulsos.

En la modulación de onda portadora continua (CW), la onda portadora es una onda continua
(típicamente una onda senoidal) en la que se modifica algún parámetro de ella en proporción a la señal del
mensaje. Por lo general, la onda portadora senoidal es de mayor frecuencia que cualquiera de las componentes
de frecuencia contenidas en la señal moduladora (mensaje).

2/17
Comunicaciones Digitales Introducción a los Sistemas de Comunicaciones

El proceso de modulación se caracteriza por una traslación de frecuencias, esto es, su contenido de
frecuencia se mueve hacia una banda mayor dentro del espectro electromagnético.

En la modulación por pulsos, la onda portadora generalmente es un tren periódico de pulsos. La


modulación por pulsos es un proceso discontinuo o discreto, en el sentido que los pulsos aparecen sólo en
ciertos intervalos de tiempo. Por eso, la modulación por pulsos se adapta mejor a los mensajes que son
discretos por naturaleza.

Se ha mencionado de manera concisa que la modulación se requiere para acoplar la señal con el
medio de transmisión. Sin embargo, este acoplamiento implica varias consideraciones, que se detallan a
continuación.

I. Modulación por facilidad de radiación. Una radiación eficiente de energía electromagnética requiere de
elementos radiadores (antenas) cuyas dimensiones físicas sean por lo menos 101 de su longitud. Pero muchas
señales, especialmente de audio, tienen componentes de frecuencia del orden de 100 Hz o menores, para lo
cual si dichas señales se quisieran radiar directamente al espacio para su propagación, y por ende su
transmisión, deberíamos que tener una antena para que fuese capaz de radiar señales con una longitud de onda
de:

c 3 × 10
8 m
seg
λ= = = 3 × 10 6 m
f 1 × 10 2 1
seg

para lo cual se necesitaría una antena con una altura de:

3×10 6 m
l antena ≅ 1
10
λ= 10
= 300 km.

Ahora bien, utilizando la propiedad de traslación de frecuencia de la modulación, éstas señales


pueden mezclarse sobre una señal portadora de alta frecuencia, con lo que se logra una reducción considerable
del tamaño de la antena. Por ejemplo, en la banda de radio F.M., donde las portadoras están en el intervalo de
88-108 MHz, las antenas no deben ser mayores a 1 metro de longitud:

3×108 m

Para 88 MHz: λ= c
f
= 88×10 6
seg
1 = 3.409 m. ⇒ l antena ≅ 1
10
λ= 3.409 m
10
= 34.09 cm.
seg

3×108 m

Y para 108 MHz: λ= c


f
= 88×10
seg
1 = 2.77 m. ⇒ l antena ≅ 1
10
λ= 3.409 m
10
= 27.7 cm.
seg

II. Modulación para reducir el ruido y la interferencia. El ruido no se puede eliminar totalmente del
sistema y aunque si es posible eliminar interferencia, puede no ser práctico. Existen ciertos tipos de
modulación que tienen la propiedad de suprimir tanto el ruido como la interferencia; aunque dicha supresión
tiene un precio, generalmente se requiere de un ancho de banda de transmisión mucho mayor que el de la
señal original. Lo anterior se designa como reducción del ruido de banda ancha.

III. Modulación por asignación de frecuencia. Si se transmiten directamente las señales en un mismo
medio, sin modulación, se produciría una mezcla inútil de señales interferentes. Sin embargo, señales con
modulación, pueden propagarse en el mismo medio sin problemas, siendo posible la selección y separación de
cualquier señal, dado que cada una tiene asignada una frecuencia portadora diferente.

3/17
Comunicaciones Digitales Introducción a los Sistemas de Comunicaciones

IV. Modulación para multicanalización. Cuando se desean transmitir muchas señales en forma simultánea
entre 2 puntos, las técnicas de multicanalización (como formas intrínsecas de la modulación) permiten la
transmisión de señales múltiples sobre un mismo canal, de tal manera que cada señal pueda ser captada en el
extremo receptor. Entre las aplicaciones de la multicanalización podemos mencionar la telemetría de datos,
emisión de F.M. estéreo y telefonía de larga distancia.

V. Modulación para superar las limitaciones del equipo. Cuando el equipo disponible para el sistema de
comunicación presenta inconvenientes en relación con ciertas frecuencias determinadas, entonces, por medio
de la modulación se puede recorrer el espectro de frecuencias de la señal a una parte donde las limitaciones
del equipo sean mínimas o donde mejor se adecuen los requisitos de diseño.

Canal de Transmisión. Es el medio físico entre la fuente y el destino. El canal puede ser un par de alambres,
un cable coaxial, el espacio libre o una fibra óptica. Durante la transmisión de la señal ocurren ciertos efectos
no deseados, algunos debido a las limitaciones propias del canal y otras debido a agentes externos.

Debido a sus limitaciones físicas del canal, este tiene un ancho de banda finito y presenta cierta
resistencia al paso de la señal, llamada atenuación, la cual produce una disminución progresiva de la potencia
de la señal conforme aumenta la distancia. La magnitud de la atenuación generalmente es de un valor grande.

Existen otros efectos no deseados que se manifiestan como alteraciones de la forma de onda de la
señal. Estas alteraciones son la distorsión, la interferencia y el ruido.

Distorsión. Es la alteración de la señal debida a la respuesta imperfecta del sistema con la misma señal. La
distorsión desaparece cuando la señal deja de aplicarse. El efecto de la distorsión se reduce mediante el diseño
de sistemas perfeccionados o de redes de compensación. En teoría, es posible obtener una compensación
perfecta, mientras que en la práctica la distorsión puede minimizarse dentro de límites tolerables.

Interferencia. Es la contaminación por señales extrañas, generalmente artificiales y de forma similar a las de
la señal. Ester problema es muy frecuente en las emisoras de radio, donde pueden ser captadas dos o más
señales simultáneamente por el receptor. La solución al problema de interferencia es obvia: eliminar la señal
interferente o su fuente.

Ruido. Es el conjunto de señales aleatorias e impredecibles de tipo eléctrico originadas en forma natural
dentro o fuera del sistema. Una de las formas de minimizar el ruido es incrementar la potencia de la señal. Sin
embargo, la potencia de la señal no puede incrementarse mas allá de ciertos niveles, porque a medida que se
aumenta la amplitud de la señal, se hacen presentes los efectos no-lineales de la señal y de los dispositivos
semiconductores con los que se construye el equipo.

El ruido no puede eliminarse completamente, por ello, se debe tener en cuenta ciertos parámetros
característicos del canal, tales como:

‰ Relación de potencia señal a ruido ( S R ).


‰ Ancho de banda útil (B).
‰ Respuesta en amplitud y fase del sistema.
‰ Propiedades estadísticas del ruido.

Ahora bien, se ha mencionado que el ruido es inevitable, pero uno podría preguntarse sobre la aceptación
de dicha declaración. Para tratar de encontrar una respuesta satisfactoria sobre lo inevitable del ruido, tenemos
que retomar conceptos de la teoría cinética.

Se dice que cualquier partícula a una temperatura diferente del cero absoluto, posee una energía
térmica que se manifiesta como movimiento aleatorio o agitación térmica. Si la partícula es un electrón, su

4/17
Comunicaciones Digitales Introducción a los Sistemas de Comunicaciones

movimiento aleatorio origina una corriente aleatoria. Luego, si esta corriente aleatoria ocurre en un medio
conductor, entonces se produce un voltaje aleatorio conocido como ruido térmico.

Mas aún, tomando la dualidad onda-partícula, existe ruido térmico asociado con la radiación
electromagnética. En consecuencia, no podemos tener comunicación eléctrica sin electrones u ondas
electromagnéticas, entonces tampoco podemos tener comunicación eléctrica sin ruido. Las variaciones típicas
del ruido son muy pequeñas, del orden de μV hasta mV. Si las variaciones de la señal son sustancialmente
mayores que las variaciones de ruido, entonces el ruido puede ignorarse, aunque siga presente.

Receptor. El receptor tiene como principal función producir la señal del mensaje de entrada a partir de una
versión degradada de la señal transmitida originalmente a través del canal.
El receptor realiza esta conversión mediante el proceso de demodulación, que es el proceso inverso de la
modulación realizada en el transmisor. Debido a la presencia de ruido y de otras degradaciones de la señal, el
receptor no puede recuperar la señal del mensaje perfectamente al 100%. Se utilizan diferentes formas de
aproximación para recuperar esta señal. Además del proceso de demodulación, el receptor también
proporciona amplificación y filtrado para la señal de salida.

En función al tipo de modulación utilizado y la clase de información que transmiten, los sistemas de
comunicación se clasifican en:

1. Sistemas de Comunicación Analógica. Son aquellos sistemas de comunicación que están diseñados para
transmitir información analógica usando técnicas de modulación analógica.

2. Sistemas de Comunicación Digital. Son aquellos sistemas que están diseñados para transmitir
información digital empleando técnicas de modulación digital.

3. Sistemas de Comunicación Híbridos. Son aquellos sistemas que utilizan técnicas de modulación digital
para transmisión de valores muestreados y cuantificados de una señal analógica del mensaje.

5/17
Comunicaciones Digitales Introducción a los Sistemas de Comunicaciones

Frecuencias de transmisión. El espectro electromagnético está dividido en sectores o bandas, donde cada una
de éstas tiene un nombre y límites específicas. En Estados Unidos, existe un organismo encargado para la
regulación del espectro electromagnético, la Comisión Federal de Comunicaciones, FCC. En México, esta
tarea es parte de COFETEL. Ver tabla 1.

Número Rango
de de Designaciones Usos Típicos
Banda Frecuencia
2 30 − 300 Hz ELF (Extremely Low Frequency)
3 0.3 − 3 kHz VF (Voice Frequency) Voz Humana
Navegación de largo alcance, comunicación
4 3 − 30 kHz VLF (Very Low frequency)
submarina.
Navegación de largo alcance, comunicación
5 30 − 300 kHz LF (Low Frequency)
submarina.
6 0.3 − 3 MHz MF (Medium Frequency) Transmisión marítima por radio, A.M.
Radio amateur, comunicación internacional,
7 3 − 30 MHz HF (High Frequency) militar, de aviones de crucero, de barcos,
telefonía, telegrafía y facsímil.
Televisión VHF, comunicación aérea en A.M.,
8 30 − 300 MHz VHF (Very High Frequency)
radio A.M.
Televisión UHF, telefonía celular, radar, enlaces
9 0.3 − 3 GHz UHF (Ultra High frequency) por microondas, sistemas personales de
comunicación.
Comunicación por satélite, enlaces de
10 3 − 30 GHz SHF (Super High Frequency)
microondas para radar.
Comunicación experimental para satélites y
11 30 − 300 GHz EHF (Extremely High Frequency)
radar.
12 0.3 − 3 THz Luz infrarroja Comunicaciones ópticas.
13 3 − 30 THz Luz Infrarroja Comunicaciones ópticas.
14 30 − 300 THz Luz Infrarroja Comunicaciones ópticas.
15 0.3 − 3 PHz Luz Visible Comunicaciones ópticas.
16 3 − 30 PHz Luz Ultravioleta
17 0.3 − 3 Ehz Rayos X
18 3 − 30 Ehz Rayos Gamma
19 30 − 300 Ehz Rayos Cósmicos
109 → GIGA 1015 → PETA
Prefijos: 1012 → TERA 1018 → EXA

Tabla 1. Frecuencias de transmisión y sus designaciones para el espectro electromagnético, según la FCC.

6/17
Comunicaciones Digitales Introducción a los Sistemas de Comunicaciones

Modelo de un Sistema de Comunicación Digital.


La figura 2 muestra un modelo a bloques para un sistema de comunicación digital. El propósito del
sistema es transmitir mensajes (o secuencias de símbolos) generados por una fuente a un punto de destino a
una razón de velocidad y precisión tal alta como sea posible. Los puntos de la fuente y el destino están
separados físicamente en espacio y entre ellos se conecta un canal de comunicación. Cada uno de los bloques
de la figura 2, se explicará a continuación.

TRANSMISOR

Fuente de Codificador Codificador


Modulador
información Fuente de Canal

Canal de
Comunicación

Ruido

Destino de la Decodificador Decodificador


Demodulador
información Fuente de Canal

RECEPTOR

Figura 2. Modelo de un Sistema de Comunicación Digital.

Fuentes de información. Las fuentes de información pueden clasificarse en dos categorías, de acuerdo a la
naturaleza de sus salidas: (1) fuentes de información analógica, como por ejemplo, un micrófono al hablar o
la exploración de una escena por una cámara de T.V. analógica que emite una o más señales de amplitud
continua, y (2) fuentes de información digital, como la salida numérica de una computadora que consiste de
una secuencia de símbolos discretos.

Una fuente de información analógica puede transformarse en una fuente de información discreta a
través de un proceso de muestreo y cuantificación. Las fuentes discretas de información se caracterizan por
los siguientes parámetros:

‰ Un alfabeto fuente (símbolos o letras).


‰ Una razón de símbolos.
‰ Conjunto de probabilidades del alfabeto fuente.
‰ Dependencia probabilística de los símbolos en una secuencia.

Transmisor. El transmisor acopla la señal del mensaje de la fuente de información hacia el canal. En general,
en el transmisor se llevan a cabo operaciones de tratamiento de señal que incluyen amplificación, filtrado y
modulación.

Para un sistema digital de comunicación, dentro del transmisor se observan 3 componentes: un


codificador fuente, un codificador de canal y un modulador.

7/17
Comunicaciones Digitales Introducción a los Sistemas de Comunicaciones

Codificador Fuente. El codificador fuente, convierte una secuencia de símbolos a una secuencia binaria de
0’s y 1’s, asignando palabras de código a los símbolos de la secuencia de entrada. La forma más sencilla en la
cual el codificador fuente realiza esta operación es asignando una palabra en código binario de longitud fija a
cada símbolo en la secuencia de entrada.

Suponiendo una secuencia de 16 símbolos, con un código binario, podemos asignar palabras de
código de 4 bits (24=16):

Símbolo Código
0 0000
1 0001
2 0010
3 0011
4 0100
5 0101
6 0110
7 0111
8 1000
9 1001
10 1010
11 1011
12 1100
13 1101
14 1110
15 1111

La codificación de longitud fija para símbolos individuales es eficiente sólo si los símbolos tienen
iguales probabilidades de aparición en una secuencia estadísticamente independiente. En muchos casos
prácticos, estos símbolos de la secuencia son estadísticamente dependientes y ocurren con probabilidades
diferentes. En esas situaciones, el codificador toma una cadena de 2 o más símbolos como un bloque y asigna
palabras de código de longitud variable a estos bloques.

Los parámetros importantes de un codificador son el tamaño del bloque, las longitudes de la palabra
de código, razón de datos promedio y la eficiencia del codificador.

Codificador de canal. Este elemento tiene la función de reasignar otra codificación al flujo de datos
provenientes del codificador fuente, con el objeto de que el sistema realice altas transmisiones y alta
eficiencia, sin tener que usar señales de larga duración en el proceso de modulación/demodulación.

Con la codificación digital del canal, se logra solo que un conjunto de señales, relativamente
pequeño, frecuentemente dos, sean seleccionadas para la transmisión por el canal lo que origina que en el
demodulador, conceptualmente, este bloque tenga como tarea simple la de distinguir entre 2 señales diferentes
de formas conocidas. Además, en la codificación del canal se realiza un control de error, que consiste
sistemáticamente en añadir bits extra al flujo de datos a transmitirse, y aunque estos bits no llevan
información relevante (con respecto al mensaje original) sí son de gran utilidad en el receptor para detectar
y/o corregir algunos de los errores en los bits que contienen la información.

Existen 2 métodos de realizar la operación de codificación de canal. En el primer método, llamado


método de codificación de bloques, el codificador toma un bloque de “k” bits de información del flujo de
datos del codificador fuente y le suma “r” bits de control de error. El número de bits de control de errores
añadidos a la información dependerá del valor de “k” y del control de error deseado.

El segundo método, llamado método de codificación convolucional, el flujo de datos que lleva
información es codificado en forma continua, intercalando bits de información y bits de control de error.
Ambos métodos requieren almacenamiento y procesamiento de datos binario, algo que en la
actualidad se logra fácilmente con los dispositivos de memoria y microprocesadores de estado sólido.

8/17
Comunicaciones Digitales Introducción a los Sistemas de Comunicaciones

Los parámetros importantes del codificador de canal son: el método de codificación, la razón o
eficiencia del codificador, capacidad del control de error y la complejidad del codificador.

Modulador. Este acepta un flujo de bits como entrada y lo convierte a una forma de onda eléctrica apropiada
para su transmisión a través del canal de comunicación. Los parámetros importantes del modulador son: los
tipos de formas de onda usados, la duración de esas formas de onda, el nivel de potencia de las señales y el
ancho de banda usado. La principal característica de este bloque, es que aquí se produce el mecanismo por el
cual lleva su nombre, la modulación.

Receptor. Su función principal es recuperar la señal de información del canal de transmisión para su
decodificación. En un sistema de comunicación digital, el receptor está formado por 3 bloques: un
demodulador, un decodificador de canal y un decodificador fuente.

Demodulador. Recibe una forma de onda proveniente del canal de transmisión y la convierte en un flujo de
bits, que luego será decodificado en las siguientes etapas.

Decodificador de canal. Este bloque recupera los bits que contienen la información del flujo binario
codificado. En esta etapa se realizan los procesos de detección y posible corrección de errores. El
decodificador de canal opera en modo de bloques o en modo secuencialmente continuo, dependiendo del tipo
de codificación usado en el sistema.

Decodificador fuente. Este bloque convierte la salida binaria del decodificador de canal en una secuencia de
símbolos. El decodificador para un sistema que usa palabras de código de longitud fija, es muy sencillo, pero
el decodificador para un sistema con palabras de código de longitud variable será demasiado complejo.
Decodificadores para estos sistemas pueden llegar a tener problemas de insuficiencia de memoria y pérdidas
de sincronización debido a los errores en los bits.

9/17
Comunicaciones Digitales Análisis de Fourier

Contenido de información de un mensaje.


Las fuentes de información pueden clasificarse en dos categorías: fuentes de información analógicas
y discretas.

Una fuente discreta de información consiste de un conjunto de letras o alfabeto de símbolos. En


general, cualquier mensaje emitido por una fuente consiste de una secuencia de símbolos. Estos símbolos son
emitidos cada uno a la vez en momentos discretos, casi siempre a una razón de tiempo fija. Cualquier mensaje
que sale de la fuente contiene alguna información, pero algunos mensajes llevan mas información que otros.

Con el objeto de cuantificar el contenido de información de los mensajes y el contenido promedio de


información de los símbolos dentro de un mensaje, se tendrá que definir una medida de la información.
Teniendo el contenido promedio de información de los símbolos y la razón de aparición de éstos, podremos
definir una razón promedio de información para la fuente de información.

Si las unidades de la información son dígitos binarios (bits), entonces la razón promedio de
información representa el número mínimo promedio de bits/seg necesarios para representar la salida de la
fuente como una secuencia binaria.

Supongamos que se planea realizar un viaje desde la Ciudad de México a Monterrey, durante el
periodo vacacional de abril. Pero antes de viajar queremos conocer el clima que prevalece en Monterrey. Para
ello podemos hacerlo de diversas formas, por medio de algún amigo o familiar que radique en esa ciudad o
por las noticias en radio, televisión o periódicos. Sin importar la forma en que la información llegará a
nosotros, la información es la siguiente:

9 Días soleados y poca humedad (días con mucho calor).


9 Días algo templados.
9 Días lluviosos y descensos bruscos de temperatura.

Vemos que tenemos tres pronósticos del clima para los próximos días, cada uno de ellos contiene una
cantidad de información distinta.

El primer mensaje, ”Días soleados y poca humedad”, contiene muy poca información dado que con
anticipación nosotros pensamos en días con mucho calor en Monterrey durante esta época del año
(primavera).

En el segundo mensaje, “días algo templados”, obtenemos un poco más de información, en virtud de
que un día con frío no es un evento cotidiano para esa temporada del año.

En el tercer pronóstico, “días lluviosos y fríos”, es todavía un evento que nos da mayor información,
ya que el hecho que haya frío y con lluvia, en temporada de primavera, es realmente un evento poco probable.

Entonces, se puede concluir, de manera intuitiva, que la cantidad de información de un mensaje


sobre un evento a pasar, está relacionado con la probabilidad de ocurrencia de ese evento. El mensaje
asociado con el evento menos probable a ocurrir, contiene más información.

En términos de probabilidad, este concepto puede establecerse como:

Supongamos que una fuente de información emite uno de los q posibles mensajes m1, m2,..., mq, los
q
cuales tienen como probabilidades de ocurrencia p1, p2,..., pq, de tal forma que ∑ pi = 1 , esto es
i =1

p1 + p2 + ... + pq = 1 .
De lo expuesto con el ejemplo, podemos decir que el contenido o cantidad de información en el k-
ésimo mensaje, denotado por I(mk), debe estar inversamente relacionado con pk. Entonces, I(mk) debe

10/17
Comunicaciones Digitales Análisis de Fourier

aproximarse a cero a medida que pk se aproxima a 1. Regresando a nuestro ejemplo, si tenemos otro mensaje
que diga “en los días soleados, el sol aparecerá por el oriente”, este nuevo mensaje no produce ningún tipo
de información (al menos que no conozcamos) porque todos sabemos que el sol siempre sale por el oriente
(entonces pk=1).

Por otro lado, el contenido de información I(mk) debe ser positivo, dado que cada mensaje contiene
alguna información. En el peor de los casos, I(mk) puede ser igual a cero.

De lo anterior, I(mk) deberá satisfacer que:

I (mk ) → 0 ⇒ pk → 1 ... (1)

I (mk ) ≥ 0 para 0 ≤ pk ≤ 1 ... (2)

( )
I (mk ) > I m j si pk < p j ... (3)

Además, debemos imponer otro requisito. Si dos mensajes son “independientes”, entonces el
contenido total de información recibida es la suma de información que lleva cada uno de los mensajes. Por
ejemplo, si recibimos una noticia que nos diga que “ESCOM realizará una expo-proyecto para el mes de
Junio del 2007” y otro mensaje que diga que “Se espera una devaluación del 10% para finales de noviembre
del 2007”, entonces tendríamos dos mensajes cuyos eventos no tienen relación alguna, por lo tanto, cada uno
aporta una cierta cantidad de información, que al sumarse, nos lleva tener una cantidad total de información
recibida.

En el ejemplo del clima, un mensaje que diga “Hoy será un día bastante soleado, esperando para
mañana concentraciones de nubes”, es lo mismo que la suma de dos mensajes “hoy será un día bastante
soleado” y “se pronostican nubes para el día de mañana”. Claro está, suponiendo que las condiciones del
clima del día de hoy, no afectan la de los siguientes días.

Este nuevo requisito puede establecerse como:

( ) ( )
I m k y m j = I m k , m j = I (mk ) + I m j ( ) ... (4)

donde mk y mj son dos mensajes independientes.

Una función continua de pk que satisface las restricciones anteriores, es la función logarítmica, y
entonces podemos definir la medida de la información como:

I (mk ) = log ( ) = − log( p


1
pk k ) ... (5)

La base de la función logaritmo determina la unidad utilizada para la medición del contenido de la
información. Si tomamos como base el número e, entonces la unidad para I(mk) es el nat (natural digit). Si
ahora se toma como base el número 10, entonces se dice que la unidad es el decit (decimal digit o Hartley) y
por último, si se toma como base el número 2, la unidad es bit (binary digit).

Si se toma al bit como la unidad de información, basado en el hecho que si dos posibles bits ocurren
con iguales probabilidades ( p1 = p 2 = 12 ) , entonces la correcta identificación de los bits nos lleva a una
cantidad de información I (m1 ) = I (m 2 ) = log 2 ( 12 ) = 1 bit .

11/17
Comunicaciones Digitales Análisis de Fourier

ENTROPIA
Contenido promedio de información de símbolos en secuencias independientes largas.

Los mensajes producidos por las fuentes de información consisten de secuencias de símbolos.
Mientras que el receptor del mensaje puede interpretar el mensaje completo como unidad, los sistemas de
comunicación frecuentemente tratan con símbolos individuales.

Por ejemplo, si enviamos un mensaje por teletipo, el usuario está interesado en recibir ese mensaje
principalmente en palabras, frases o enunciados, mientras que el sistema de comunicación trata con símbolos
o letras. Luego entonces, desde el punto de vista de los sistemas de comunicación, necesitamos definir el
contenido de información de símbolos.

Para esto, necesitaremos tener presente dos factores importantes:

1. El flujo instantáneo de información en un sistema puede variar ampliamente debido a que la selección de
los símbolos es un proceso aleatorio; luego entonces, tendremos que hablar de un contenido promedio de
información de los símbolos en un mensaje largo.

2. La dependencia estadística de los símbolos en una secuencia de un mensaje alterará el contenido


promedio de información de los símbolos.

Entonces, primero desarrollaremos las definiciones necesarias, suponiendo una fuente que emite
símbolos en una secuencia estadísticamente independiente, donde las probabilidades de ocurrencia de estos
símbolos permanecen constantes respecto al tiempo. Después, continuaremos el desarrollo para fuentes que
emiten símbolos en secuencias estadísticamente dependientes.

Supongamos que tenemos una fuente de información que emite uno de los M posibles símbolos s1,
s2,.., sM, dentro de una secuencia estadísticamente independiente. Esto es, que la probabilidad de ocurrencia de
un símbolo en particular durante un intervalo de emisión de símbolos no depende de los símbolos emitidos
por la fuente durante tiempos anteriores de emisión.

Digamos que p1, p2,..., pM son las probabilidades de ocurrencia de los M símbolos respectivamente.

Ahora, supongamos que tenemos un mensaje largo que contienen N símbolos y como se trata de una
fuente que emite secuencias estadísticamente independientes, entonces el símbolo s1 ocurrirá p1N veces en
promedio; el símbolo s2 ocurrirá p2N veces en promedio, y en general, tendremos que el i-ésimo símbolo (si)
ocurrirá piN veces en promedio.

Si tratamos a los símbolos individuales como mensajes de longitud unitaria, podemos definir el
contenido de información del i-ésimo símbolo como:

I (s i ) = log 2 ( ) bits
1
pi
... (6)

pero como éste i-ésimo símbolo puede ocurrir piN veces, entonces:

I (s i ) = p i N log 2 ( ) bits
1
pi
... (7)

De igual manera, podemos concluir que el contenido total de información del mensaje es entonces la
suma de las contribuciones debido a cada uno de los M símbolos del alfabeto fuente, de tal forma que:

Contenido total de información del mensaje I TOTAL


H = = ... (8)
Número de símbolos en el mensaje N

12/17
Comunicaciones Digitales Análisis de Fourier

Si dividimos entre el total de símbolos que componen el mensaje largo, N, el contenido de


información por símbolo será:

( )
M
H = ∑ p i log 2 1
pi
bits/símbolo ... (9)
i =1

El contenido promedio de información por símbolo se le conoce como la entropía de la fuente y se le


designa con la letra H. Podemos tener una idea de que en un mensaje podemos recibir H bits de información,
aún cuando no se ignore qué símbolos de esa secuencia ocurrieron.

Si consideramos una fuente de información emitiendo dos símbolos con probabilidades p y (1−p)
respectivamente, donde (0<p<1), entonces la entropía de la fuente será:

H = p log 2 ( ) + (1 − p )log ( )
1
p
1
2 1− p bits/símbolo

Si graficamos la expresión anterior, obtendremos:

Máximo
1
E ntropía de la fuente

0.5

0 0.5 1
Probabilidad de ocurrencia

Figura 3. Gráfica de la entropía para una fuente de dos símbolos: p y (1− p).

13/17
Comunicaciones Digitales Análisis de Fourier

Modelo Estadístico de Markoff.


Si consideramos un proceso aleatorio X(t) que está definido solo para un número contable de valores
discretos de tiempo t1, t2, t3,..., tal que ese proceso aleatorio puede representarse por una secuencia de
variables aleatorias X1, X2, X3,..., donde Xn denota X(tn).

Entonces, si asumimos que X(t) tiene solo un conjunto finito de valores permisibles, entonces el
proceso aleatorio X(t) se llama proceso aleatorio de tiempo discreto o de amplitud discreta. Este proceso
puede representarse por una secuencia de variables aleatorias discretas {Xn}.

Se usan como modelos para la salida de fuentes de información discreta como teletipos y
convertidores A/D.

Una secuencia {Xn} se denomina secuencia de Markoff si

{ } {
P X n = a in X n −1 = a in −1 , X n − 2 = a in − 2 ,K , X 1 = a i1 = P X n = a in X n −1 = a in −1 } ... (10)

donde a ik = a j y j ∈ [1, N ] .

Es decir, la ecuación anterior dice que {Xn} es una secuencia de Markoff si los valores anteriores de
la secuencia no tienen influencia sobre la estadística de valores futuros, bajo la condición que el valor actual
es conocido.

Un modelo estadístico que represente a las denominadas secuencias de Markoff (para modelar
fuentes discretas de información) se conoce como Modelo Discreto Estacionario de Markoff. Si se define una
fuente discreta estacionaria con M letras como aquella que emite unas secuencia de símbolos con influencia
de los últimos m símbolos y que puede representarse por n estados, donde n≤Mm, entonces el caso general
para un modelo de Markoff es el siguiente:

1. La fuente está en uno de los n posibles estados 1, 2, ..., n, al inicio de cada intervalo de símbolos. La
fuente cambia de estados una vez durante cada intervalo de emisión de símbolos, por ejemplo, el cambio de i
a j. La probabilidad de esta transición es pij, la cual depende solo del estado inicial i y del estado final j, pero
que no depende de los estados durante cualquier intervalo de emisión precedente. Las probabilidades de
transición pij (i,j=1, 2, ..., n;) permanecen constantes conforme el proceso progresa en el tiempo.

2. Cada vez que la fuente cambia de estado de i a j, esta emite m símbolos. El símbolo emitido en particular
depende del estado inicial j y de la transición i→j.

3. Tomemos a s1, s2, ..., sM, que sean los símbolos del alfabeto, y además que X1, X2, ..., Xk, ..., sea una
secuencia de variables aleatorias, donde Xk representa el k-ésimo símbolo de la secuencia emitido por la
fuente. Entonces la probabilidad que el k-ésimo símbolo emitido sea sq, dependerá de los símbolos previos X1,
X2, ..., Xk-1, emitidos por la fuente; es decir, sq es emitido por la fuente con la probabilidad condicional,

(
P X k = s q X 1 , X 2 ,K , X k −1 ) ... (11)

4. La influencia residual de X1, X2,..., Xk-1, sobre Xk está representado por el estado del sistema al comienzo
del intervalo de emisión para el k-ésimo símbolo. Esto es, la probabilidad de ocurrencia de un símbolo en

14/17
Comunicaciones Digitales Análisis de Fourier

particular durante el k-ésimo intervalo de emisión depende solamente del estado del sistema al inicio de ese
intervalo de emisión, o:

( ) (
P X k = s q X 1 , X 2 ,K , X k −1 = P X k = s q S k ) ... (12)

donde SK es una variable discreta aleatoria que representa el estado.

5. Al inicio del primer intervalo de emisión de símbolos, el sistema se encuentra en uno de los n posibles
n
estados 1, 2,..., n con probabilidades P1(1), P2(1),..., Pn(1), respectivamente ( ∑ Pi (1) = 1 ).
i =1

6. Si la probabilidad que el sistema está en el estado j al inicio del k-ésimo intervalo de emisión es Pj(k),
entonces podemos representar las transiciones del sistema como:

n
Pj (k + 1) = ∑ Pi (k ) p ij ... (13)
i =1

Si suponemos que P(k) es un vector columna n×1, cuya i-ésima entrada es Pi(k) y además φ es una
matriz n×n cuya (i,j)-ésima entrada es pij, entonces podemos reescribir la ecuación anterior en forma matricial
como:

P(k + 1) = φ T P(k ) ... (14)

La matriz φ se llama matriz de probabilidad de transición del proceso de Markoff. El proceso se


llama proceso estacionario de Markoff si P(k ) = φ T P(k ) para k=1.

Las fuentes de información cuyas salidas pueden modelarse mediante procesos discretos
estacionarios de Markoff se llaman fuentes discretas estacionarias de Markoff.

Las fuentes discretas estacionarias de Markoff se representan por gráficas de estados, donde
los estados representan los nodos de la gráfica y la transición entre los estados se representan por una
línea directa que une los estados inicial y final. En la figura 4, se puede observar como las
probabilidades de transición y los símbolos emitidos durante las transiciones se marcan por lo regular
a lo largo de las líneas de la gráfica.

1
2 C

1 2
4 1
1 1 4
C 4 2 C
A B

1
1 1 B 4 3 1
2 4

A B
1
A 4

Figura 4. Modelo de una fuente de información mediante una gráfica de estados.

La probabilidad de ocurrencia de un símbolo depende del símbolo en particular y del símbolo que lo
precede inmediatamente.

15/17
Comunicaciones Digitales Análisis de Fourier

La transición de estados y la generación de símbolos puede también ilustrarse por medio de un


diagrama de árbol. Un diagrama de árbol es una gráfica plana donde los nodos corresponden a los estados y
las ramas corresponden a las transiciones. Las transiciones entre los estados ocurren una vez cada Ts
segundos. Las probabilidades de transición y los símbolos emitidos se muestran a lo largo de las ramas del
árbol, según se muestra en la figura 5.

1/2
A 1 AA
1/4 C
1 1/4 B
2 AC
A
3 AB
1/2

1/4
A 1 CA
C C 2 CC
1/2
1 1/4
2 1/2 B
1/4
3 CB
B
1/4 A 1 BA
C
3 1/4
2 BC
1/4 B
3 BB

1/2 A 1 AA
1/4 C
1 1/4 B
2 AC
A
3 AB
1/4

1/4 A 1 CA
1/2 C 1/2 C
2 2 1/2 B 2 CC
3 CB
1/2 B
1/4 A 1 BA
1/4 C 2
3 1/4 B BC
3 BB
1/2
A 1 AA
1/4 C
1 1/4 B
2 AC
A
3 AB
1/4

1/4
A 1 CA
1/4 C 1/2 C
3 2 1/2 B 2 CC
3 CB
1/4 B
1/4
A 1 BA
1/4 C
3 1/4 B
2 BC
3 BB

Figura 5. Representación de una fuente de información por medio de un diagrama de árbol.

16/17
Comunicaciones Digitales Análisis de Fourier

Definimos la entropía de la fuente como un promedio con peso de la entropía de los símbolos
emitidos en cada estado, donde la entropía del estado i, denotado por Hi, se define como el contenido
promedio de información de los símbolos emitidos por el i-ésimo estado:

n ⎛ 1 ⎞
H i = ∑ p ij log 2 ⎜ ⎟ bits/símbolo ... (15)
⎜ p ij ⎟
j =1 ⎝ ⎠
La entropía de la fuente es entonces el promedio de la entropía de cada estado. Es decir:

n n ⎡n ⎛ 1 ⎞⎤
H = ∑ Pi H i = ∑ Pi ⎢∑ p ij log 2 ⎜ ⎟⎥ bits/símbolo ... (16)
⎢⎣ j =1 ⎜ p ij ⎟⎥
i =1 i =1 ⎝ ⎠⎦

donde Pi es la probabilidad de que la fuente se encuentre en el estado i.

La razón promedio de información R para esta fuente es:

R = rs H bits/seg ... (17)

Teorema. Suponga que P(mi) es la probabilidad de una secuencia mi de N símbolos emitidos por la fuente.
Entonces:

1
GN = −
N
∑ P(m ) log [P(m )]
i
i 2 i ... (18)

siendo GN el contenido de información promedio por símbolo en un mensaje de N símbolos.

17/17

You might also like