You are on page 1of 47

COMUNICACIONES I

1. CARACTERSTICAS DE PROCESOS ALEATORIOS.


1.1DEFINICIN DE PROCESO ALEATORIO (O ESTOCSTICO).
Para empezar, haremos un breve recordatorio sobre la definicin de variable aleatorio y la utilizaremos
para definir el concepto de proceso aleatorio (o estocstico).
Definamos lo que era una variable aleatoria de la siguiente manera:
VARIABLE ALEATORIA. Una variable aleatoria ni es una variable ni es aleatoria. Dado un experimento
con cierto espacio muestral , una variable aleatoria es una funcin que hace corresponder un nmero x()
a cada suceso elemental (o resultado) . Esta asignacin puede hacerse mediante una tabla, una frmula
o de cualquier otra forma.

x()
Espacio muestral =>resultados
Recta de los reales
id6900673 pdfMachine by Broadgun Software - a great PDF writer! - a great PDF creator! - http://www.pdfmachine.com http://www.broadgun.com
COMUNICACIONES I
En resumen:
Una variable aleatoria no es variable, es una funcin.
Una variable aleatoria no es aleatoria, ya que la funcin est definida de antemano a la realizacin del
experimento. Lo que es aleatorio es el experimento.
Ahora definiremos lo que es un proceso estocstico de forma equivalente.
PROCESO ALEATORIO (O ESTOCSTICO). Dado un experimento con cierto espacio muestral ,
asignaremos cada suceso elemental una funcin X (, t). Es decir, al resultado le asignamos una funcin
que depende del tiempo (adems de depender tambin del resultado del experimento).

t
x(t,)
COMUNICACIONES I
Es una v.a, asignamos un nmero a cada : en un proceso asignaremos una funcin.
La manera de hacerlo puede ser tambin a travs de una tabla o a travs de una funcin explcita de y
de t.
Por tanto, vemos que un proceso estocstico es una coleccin de funciones. A cada una de las
funciones se le llama realizacin del proceso.
t
X
1
(t,
1
)
t
X
2
(t,
2
)
t
X
n
(t,
n
)
experimento
Realizacin 1
Realizacin 2
Realizacin n
COMUNICACIONES I
t y variables {x(t, )} : x(t) => Proceso Aleatorio.
t fijo (t=t
i
) y variable: {x(t
i
, )}; x (t
i
) => Variable aleatoria.
t variable y fijo ( =
i
): {x(t,
i
)}: x
i
(t) => Realizacin del proceso (seal determinista).
t fijo (t=t
i
) y fijo ( =
i
): {x(t
i
,
i
)}: : x
i
( t
i
) => Valor concreto (nmero).
Normalmente, el smbolo del experimento se omite, utilizndose la segunda nomenclatura que se ha
dado en las frmulas anteriores.
Cuidado con la notacin!: hay ocasiones en las que se abusa de la notacin y se utiliza x(t) para
simbolizar las cuatro cosas que se han sealado anteriormente. Segn el contexto se entender que
x (t) significa:
Una coleccin de funciones del tiempo = un proceso estocstico (t y variables).
Una funcin del tiempo (t variable fijo).
Una variable aleatoria (t fijo, variable).
Un nmero (t fijo fijo).
En funcin de si t y son fijos o variables, podemos hacer la siguiente clasificacin:
COMUNICACIONES I
t
X
1
(t,
1
)
t
X
2
(t,
2
)
t
X
n
(t,
n
)
Funcin temporal
determinista
Realizacin 2
Realizacin n
Nmero
Variable aleatoria
ti
COMUNICACIONES I
OBSERVACIONES.
1. Para que un proceso est bien construido se le pide que para cada t x (t) sea una v.a, bien
definida.
2. Dos procesos son iguales si sus funciones son idnticas para cualquier resultado
x
3. Se define x(t)+y(t); x(t) y (t) o cualquier otra operacin con uno o ms procesos por medio de la
correspondiente operacin de sus funciones.
4. En general las funciones de un proceso estocstico son muy complicadas . Supongamos que x(t)
representa el movimiento de un electrn en tomo. El resultado del experimento es seleccionar un
electrn concreto y la funcin x(t) resultante es una funcin completamente irregular como la de la
figura.
t
x(t,)
COMUNICACIONES I
Esta curva no puede darse mediante una frmula y aunque se conozca para t<t
i
no puede
predecirse para valores de t posteriores.
Afortunadamente no todos los procesos tienen estas propiedades y entre ellos estn casi todos
los procesos con los que nos encontraremos en el estudio de las telecomunicaciones.
Ejemplo 1
Suponer que nuestro experimento es la fabricacin de generadores sinusoidales. Evidentemente
ninguno nos va a quedar exactamente igual a otro. Para cada generador construido () tendremos una
amplitud, una frecuencia y una fase inicial diferentes, pudiendo considerarlas como v.a.s A (),w(), ():
x (t)= Asen (wt +).
Las funciones de este proceso son bien regulares y conocidas. Adems si se conoce la funcin para t<t
i
tambin se conoce para t>t
i
Esto facilitar el trabajo con el proceso estocstico.
COMUNICACIONES I
Aunque este ltimo proceso ha sido construido a partir de varias v.a.s relacionadas mediante una funcin
y t, no debe pensarse que todos los procesos estocsticos se construyen como funciones de una o varias
v. a. s. y la t. Esta es la manera ms sencilla de hacerlo pero no es la nica.
No hay que pensar en x(t) como una funcin de una v. a. y t, y mucho menos como una v.a. que
depende de t. Es siempre cierto que para cada t tenemos una v.a., pero no todos los procesos se
construyen como una v.a. que depende de t.
Antes hemos visto el ejemplo del movimiento del electrn que era completamente impredecible y ahora
vamos a ver que tambin se pueden construir procesos muy sencillos sin necesidad de recurrir a una v.a.
Sea el experimento tirar una moneda. Creamos el siguiente proceso:
Si sale cara => x (t)= sent
Si sale cruz => x(t)=2t
No hemos recurrido a ninguna v.a. para construir el proceso y sus funciones son bien sencillas y
regulares.
Ejemplo 2.
COMUNICACIONES I
1.2 FUNCIONES DE DISTRIBUCIN Y DE DENSIDAD DE PROCESOS ALEATORIOS.
La definicin estadstica de un proceso aleatorio depende de las variables aleatorias que lo forman.
Para un proceso estocstico podemos definir:
Funciones de distribucin de primer orden: Se llama as a:
Funcin de distribucin de segundo orden: dados dos instantes de tiempo t
1
, y t
2
podemos
considerar las v.a.s x(t
1
) x (t
2
) de las que podemos calcular su funcin de distribucin conjunta,
que evidentemente depender t
1
y t
2
:
A la que llamaremos funcin de distribucin de segundo orden. Su funcin de densidad
correspondiente se halla haciendo la parcial respecto a x
1
y x
2
Es decir es la funcin de distribucin de la v.a. x(t) considerando a t como fijo . La funcin de
densidad correspondiente se puede hallar derivando.
{ } x t x P t x F s = ) ( ) , (
Funcin de densidad de primer orden: Tambin conocida como funcin de densidad de
probabilidad (f.d.p) se caracteriza como:
x
t x F
t x f
c
c
=
) , (
) , (
{ }
2 2 1 1 2 1 2 1
) ( , ) ( ) , , , ( x t x x t x P t t x x F s s =
COMUNICACIONES I
Funcin de densidad de segundo orden:
| |
2 1
2 1 2 1
2
2 1 2 1
) , ; , (
) , ; , (
x x
t t x x F
t t x x f
c c
c
=
Para este tipo de funciones se pueden dar propiedades equivalentes a las de las funciones de
distribucin y densidad conjunta de 2 variables aleatorias, slo que ahora hay una dependencia
adicional con dos instantes de tiempo t
1
y t
2
.
Un proceso estocstico x(t) queda determinado estadsticamente al si se conocen sus funciones
de distribucin de orden ensimo:
{ }
n n n n
x t x x t x P t t x x F s s = ) ( ,..., ) ( ) ,..., , ,.., (
1 1 1 1
Por tanto, para caracterizar por completo un proceso aleatorio necesitaramos conocer la funcin de
densidad conjunta de sus infinitas variables aleatorias.
COMUNICACIONES I
1.3 DEFINICIN DE ESPERANZA, CORRELACIN Y COVARIANZA.
Otro mtodo para definir un proceso es a partir de sus momentos de primer y segundo orden.
Esta es la forma ms habitual de trabajar con procesos.
ESPERANZA O VALOR, CORRELACIN Y COVARIANZA (Momento de primer orden)
Una forma intuitiva de ver qu es el valor medio de un proceso aleatorio es mediante la siguiente
grfica. Sea x(t) un proceso aleatorio formado por N realizaciones.
El valor medio o esperanza de proceso aleatorio es la ponderacin de sus valores por
la probabilidad de stos para cada instante de tiempos. Se calcula como:
} { = ) (t x E
Es una funcin que en cada instante toma un valor que es
la media de todos los posibles resultados que puede tener
la V.A. definida para este instante de tiempo. Tambin se
puede interpretar como una medida estadstica de las N
realizaciones del proceso. Por tanto se trata de una seal
determinista.
} {
}


= = = dx t x xf t t x E t m
x x
) ; ( ) ( ) ( ) (
COMUNICACIONES I
AUTOCORRELACIN (MOMENTO DE SEGUNDO ORDEN).
Indica el parecido entre variables aleatorias obtenidas al evaluar el proceso en los instantes t
1
y t
2
.
Lo que estamos midiendo es la aleatoriedad del proceso con el paso del tiempo, con lo que la
autocorrelacin nos da una medida de la predictibilidad de proceso.
Se calcula como:
{ } ) ( ) ( ) , (
2
*
1 2 1
t x t x E t t R
xx
=
Con
{ } ) ( ) ( ) , (
*
t x t x E t t R
xx
+ = +
2 1
t t =
O bien como:
!NOTA Para el alumno : Son dos tipos de notaciones diferentes que definen el mismo concepto.
La segunda es la ms habitual en el estudio de seales y sistemas de telecomunicaciones
COMUNICACIONES I
Es decir, la autorregulacin nos proporciona la potencia instantnea de la seal.
Si t
1
= t
2
{ } { } ) ( ) ( ) ( ) ( ) , (
2
*
t P t x E t x t x E t t R
x xx
= = =
AUTOCOVARIANZA (MOMENTO DE SEGUNDO ORDEN).
Se define como:
| || | { }
*
2 1 2 1
*
2 2 1 1 2 1
) ( ) ( ) , ( ) ( ) ( ) ( ) ( ) , ( t m t m t t R t m t x t m t x E t t C
x x xx x x xx
= =
Si t
1
= t
2
hablaremos de varianza, que nos indica la variacin de la seal en cada t con respecto al valor
esperado en ese instante.
| || | { } { }= = = =
2
*
2
) ( ) ( ) ( ) ( ) ( ) ( ) , ( ) ( t m t x E t m t x t m t x E t t C t
x x x xx
x
{ }
2 2 2
) ( ) , ( ) ( ) ( t m t t R t m t x E
x xx x
= =
Si lo relacionamos con la potencia:
2 2
2
) ( ) ( ) ( ) , ( ) ( t m t P t m t t R t
x x x xx
= =
COMUNICACIONES I
Y por tanto podremos definir la potencia como:
Todas estas funciones se pueden generalizar fcilmente a dos procesos x(t) e y (t)
2
2
) ( ) ( ) ( t m t t P
x x x
+ =
CORRELACIN CRUZADA (MOMENTO SEGUNDO ORDEN).
Caracteriza la similitud entre dos procesos aleatorios, es decir, indica el parecido entre variables
aleatorias de ambos obtenidas al evaluar cada proceso en los instantes t
1
y t
2
.
{ } ) ( ) ( ) , (
2
*
1 2 1
t y t x E t t R
xy
=
COVARIANZA CRUZADA (MOMENTO DE SEGUNDO ORDEN).
| || | { }
*
2 1 2 1
*
2 2 1 1 2 1
) ( ) ( ) , ( ) ( ) ( ) ( ) ( ) , ( t m t m t t R t m t y t m t x E t t C
y x xy y x xy
= =
COMUNICACIONES I
RESUMEN: La definicin estadstica de un proceso depende de las variables aleatorias que lo
forman. Podemos caracterizar un proceso a partir de:
Funcin de distribucin y densidad conjuntas de orden n-simo.
Momentos de orden 1 y 2 (la forma ms habitual).
-Valor medio o esperanza (M=1).
-Autocorrelacin (M=2).
-Autocovarianza y varianza (M=2).
Si bien la primera de las dos definiciones caracteriza completamente el proceso,
normalmente no conocemos dicha funcin de densidad o distribucin, as que normalmente
utilizaremos la segunda ya que nos permite trabajar con l aunque no sepamos la forma de
las seales que lo componen (esto no lo dara la definicin analtica).
COMUNICACIONES I
1.4 PROCESOS INCORRELADOS, ORTOGONALES E INDEPENDIENTES.
Se dice que dos procesos x(t) e y(t) estn INCORRELADOS si, para cualquiera t
1
t
2
tenemos:
0 ) , ( ) ( ) ( ) , (
2 1 2
*
1 2 1
= = t t C t m t m t t R
xy y x xy
Es decir, la autocorrelacin es igual al producto de medias estadsticas por tanto la covarianza
cruzada es nula.
Se dice que dos procesos x(t)e y(t) son ORTOGONALES si:
0 ) , (
2 1
= t t R
xy
2 1
, t t
Se dice que dos procesos x(t) e y(t) son INDEPENDIENTES si x(t
1
),x(t
n
) son
independientes de y (t
1
), y (t
n
) para todo t
i
, t
i
Los procesos fsicamente independientes son estadsticamente independientes y por tanto
tambin incorrelados.
RECORDAR!!: INDEPENDENCIA INCORRELACIN






La implicacin contraria no
tiene porqu ser cierta
COMUNICACIONES I
1.5 CLCULO PRCTICO DE ESPERANZAS Y CORRELACIONES.
Si bien hemos visto que para calcular esperanzas y correlaciones deberamos conocer las
funciones de densidad de primer y segundo orden de los procesos implicados, es decir:
} {
}


= dx t x xf t x E ) ; ( ) (
{ }
2 1 2 1 2 1 2 1 2
*
1 2 1
) , ; , ( ) ( ) ( ) , ( dx dx t t x x f x x t x t x E t t R
xx
} }
+

+

= =
En la mayora de los casos dichas funciones de densidad no sern conocidas (a excepcin del
proceso gaussiano y otros pocos).
Cmo calcular las esperanzas entonces?. En la mayora de los casos, conoceremos una
expresin analtica del proceso formado a partir de otros procesos de momentos conocidos
v.a.s y funciones temporales.
En estos casos debemos recordar que:
La esperanza de un proceso es una funcin determinada.
La esperanza de una funcin determinista es ella misma.
} { ) ( ) ( t m t x E
x
=
} { ) 2 cos( ) 2 cos( t f t f E
c c
=
COMUNICACIONES I
Siempre que tengamos una funcin determinista multiplicando a un proceso o a una variable
aleatoria podemos extraerla fuera de la esperanza.
EJEMPLO: Sea el proceso x(t)=A cos (2f
c
t), con A variable aleatoria. Si calculamos su esperanza:
} { } } { { ) 2 cos( ) 2 cos( ) ( t f A E t f A E t x E
c c
= =
Si tenemos un proceso estocstico definido con una funcin que depende de una o varias variables
aleatorias y el tiempo, debemos aplicar el teorema de la esperanza, preguntndonos qu es aleatorio.
EJEMPLO: Sea x(t)= g(Z,t) con Z variable aleatoria . Si calculamos su esperanza:
} { } {
}
+

= = dz z f t z g t Z g E t x E
z
) ( ) , ( ) , ( ) (
Lo que es aleatorio es Z
Cuidado! F
z
(z) no es una funcin de densidad de primer orden de ningn proceso, sino que es la
funcin de densidad de la variable aleatoria Z, y no depende del tiempo.
EJEMPLO: Sea el proceso x(t) = cos (2f
c
t+) donde es una variable aleatoria uniformemente
distribuida en [- , ] . Si calculamos la esperanza del proceso
} { } { 0
2
1
) 2 cos( ) ( ) 2 cos( ) 2 cos( ) ( = + = + = + =
} }
+

d t f d f t f t f E t x E
c c c
COMUNICACIONES I
2. ESTACIONARIEDAD, CICLOESTACIONARIEDAD Y ERGODICIDAD.
2.1 ESTACIONARIEDAD.
En general, diremos que un proceso aleatorio es estacionario cuando slo depende de la
diferencia de tiempos () y no del origen de tiempos (t).
Cuando hablamos de estacionariedad de un proceso podemos hacerlo en varios sentidos:
SENTIDO ESTRICTO.
Se dice que un proceso es estacionario en sentido estricto si sus caractersticas estadsticas no
se ven afectadas por traslaciones en el tiempo, es decir, los procesos x(t) y x(t+) tienen las
mismas caractersticas estadsticas para todo .
Se dice que dos procesos x(t) y (t) son conjuntamente estacionarios si las estadsticas conjuntas
de x(t) y, (t) son las mismas que la de x(t+ ) y(t+ ).
Si es un proceso es estacionario en sentido estricto su funcin de densidad debe cumplir.
Para la funcin de distribucin de primer orden: f(x;t)=f(x;t+) para cualquier f(x;t) debe ser
independiente de t y por tanto f(x;t)=f(x).
n t t x x f t t x x f
n n n n
+ + = ) ,..., ; ,..., ( ) ,..., ; ,..., (
1 1 1 1

COMUNICACIONES I
Esta definicin es aplicable a todos los momentos del proceso.
Si un proceso cumple que f(x;t) =f(x)
Si un proceso es estacionario entonces su funcin de distribucin de segundo orden debe ser
funcin de t
1
- t
2
{ } . ) ( cte t x E =
constante. esperanza io estacionar Proceso
) ; , ( ) ; , ( ) , ; , (
2 1 2 1 2 1 2 1 2 1
x x f t t x x f t t x x f = =
De lo anterior , para un proceso estacionario en sentido estricto:
Y para 2 procesos conjuntamente estacionarios:
{ } ) ( ) ( ) (
*
t x t x E R
xx
+ = ) , (
2 1
t t R
xx
Pasa a ser
2 1
t t con =
{ } ) ( ) ( ) (
*
t y t x E R
xy
+ = ) , (
2 1
t t R
xy
pasa a ser
2 1
t t con =
COMUNICACIONES I
SENTIDO AMPLIO.
Se dice que un proceso es estacionario en sentido amplio (p.a.e.s.a.) si su valor medio es
constante y su autocorrelacin depende de =t
1
t
2
, es decir.
Para momentos de orden1.
Sea x(t) un proceso aleatorio. Entonces:
La media no depende de t. { } = = . ) ( cte m t x E
x
Para momentos de orden 2.
Tanto la autocorrelacin como la autocovarianza slo dependen de la diferencia de tiempos.
Adems, sean x(t) e y(t) dos procesos aleatorios, diremos que son conjuntamente estacionarios
en sentido amplio si:
Cada uno de ellos es un p.a.e.s.a.
Y adems:
2 1 2 1
2 1 2 1
) ( ) , (
) ( ) , (
t t siendo C t t C
t t siendo R t t R
xx xx
xx xx
= =
= =


2 1 2 1
) ( ) , ( t t con R t t R
xy xy
= =
COMUNICACIONES I
Proceso estacionario en sentido estricto estacionario en sentido amplio.
Estacionario en sentido amplio proceso estacionario en sentido estricto.
X(t) estacionario orden dos estacionario en sentido amplio.
IMPORTANTE: Si x(t) es un proceso normal (gaussiano) y es estacionario en sentido amplio implica
que es estacionario en sentido estricto.
Es decir, si un proceso gaussiano tiene esperanza constante y autocorrelacin que depende de =t
1
-t
2
entonces es estacionario en sentido estricto.
EN PROCESOS GAUSSIANOS S. AMPLIO S. ESTRICTO.
Si un proceso estacionario es peridico con perodo T, entonces su funcin de autocorrelacin
tambin es peridica con el mismo perodo.
En el caso de procesos estacionarios, podemos dar una interpretacin intuitiva a la correlacin: si la
correlacin entre los procesos x(t) e y (t) es alta para una diferencia t=T, diremos que y(t) es
aproximadamente x(t) retrasada T.
Si hablamos de autocorrelacin, diremos que un proceso tiene periodicidad T en el caso de que R (T)=R (0),
es decir, tenemos un proceso que se repite cada T unidades de tiempo.
Los p.a.e.s.a. se pueden tratar como seales de potencia media finita . Esto implica que en el caso de tener
que calcular correlaciones y densidades espectrales, estas sern de potencia.
COMUNICACIONES I
EJEMPLO.
Sea el proceso aleatorio x(t)=r(t). cos (2f
c
t +), donde r(t) es un p.a.e.s.a. y es una variable
aleatoria tal que su funcin de densidad de probabilidad es:
2
1
) ( f


donde r(t) y son independientes. Definir el proceso.
Si r(t) es un p.a.e.s.a., sabemos que:
{ }
2 1 2 1
2 1 2 1
) ( ) , (
) ( ) , (
. ) (
t t donde C t t C
t t donde R t t R
cte m t r E
rr rr
rr rr
r
= =
= =
= =


COMUNICACIONES I
{ } { }
x r c r
c
incorr indep
t r
a v f
c
a p
m m d t f m
t f E t r E t f t r E t x E
= = = + =
=
)
`

+ =
)
`

+ =
}

0 0 ) 2 cos(
2
1
) 2 cos( ) ( ) 2 cos( ) ( ) (
), (
.) . ( . .

) ( ) , ( . 2
??

x x
xx
R t t R = +
{ }
| || | { }
{ }
{ } { }
) ( ) 2 cos(
2
1
) (
) 2 ) 2 ( 2 cos(
2
1
2
1
) ( ) 2 cos(
2
1
) (
) 2 ) 2 ( 2 cos( ) 2 cos(
2
1
) (
) ) ( 2 cos( ) ) ( 2 cos( ) ( ) (
) ) ( 2 cos( ) ) ( 2 cos( ) ( ) (
) ) ( 2 cos( ) ( ) ) ( 2 cos( ) (
) ( ) ( ) , (
.) . ( . det
*
), (
*
*
*

xx c rr
c rr c rr
a v f
c c rr
c c
indep t r c c
c c
xx
R f R
d t f R f R
t f f E R
t f t f E t r t r E
t f t f t r t r E
t f t r t f t r E
t x t x E t t R
= =
=
(

+ + + =
=
)
`

+ + + =
= + + + + =
= + + + + =
= + + + + =
= + = +
}

COMUNICACIONES I
2. CICLOESTACIONARIEDAD.
Son procesos cicloestacionarios aquellos que dependen de forma peridica de la variable temporal t
cumpliendo.
Para momentos de orden 1: m
x
(t)= m
x
(t+T
1
)
Para momentos de orden 2: R
xx
(t+,t)= R
xx
(t+ +T
2
,t+T
2
)
Donde T
1
y T
2
son los periodos de m
x
(t) y R
xx
(t+,t), respectivamente
Adems se debe cumplir que ambos perodos sean iguales o en su defecto que uno sea
mltiplo del otro, es decir. nT
1
=mT
2
COMUNICACIONES I
EJEMPLO.
Sea el proceso aleatorio x(t)=r(t). cos (2f
c
t). Definir el proceso sabiendo que r(t) es un proceso
aleatorio estacionario.
Podemos afirmar que:
{ }
2 1 2 1
2 1 2 1
) ( ) , (
) ( ) , (
. ) (
t t donde C t t C
t t donde R t t R
cte m t r E
rr rr
rr rr
r
= =
= =
= =


Para saber si x(t) es un proceso aleatorio estacionario debemos comprobar:
{ }
{ } { } ) ( ) 2 cos( ) 2 cos( ) ( ) 2 cos( ) ( ) (
) ( . 1
. det . .
??
t m t f m t f t r E t f t r E t x E
m t x E
x c r c c
a p
x
= + = + =
)
`

+ =
=

Como depende de t, podemos afirmar que x(t) no es estacionario y, aunque vemos que depende
peridicamente de t, an no podemos afirmar que sea cicloestacionario. Para ello, debemos
comprobar:
COMUNICACIONES I
) , ( ) , ( . 2
??
T t T t R t t R
x x
xx
+ + + = +
{ }
| || | { }
(

+ + =
= +
)
`

+ =
=
)
`

+ + =
= + + =
= + = +
)) ( 2 cos( ) ) 2 ( 2 cos(
2
1
) (
)) ( 2 cos( ) ) ( 2 cos( ) ( ) (
)) ( 2 cos( ) ) ( 2 cos( ) ( ) (
)) ( 2 cos( ) ( )) ( 2 cos( ) (
) ( ) ( ) , (
*
det det . .
*
. .
*
*





c c rr
c c
c c
a p a p
c c
xx
f t f R
t f t f t r t r E
t f t f t r t r E
t f t r t f t r E
t x t x E t t R
En este caso vemos que la media y la autocorrelacin dependen tanto de t como de , pero dependen
de t peridicamente. Por tanto, podemos afirmar que x(t) es un proceso cicloestacionario.
COMUNICACIONES I
2.3 ERGODICIDAD.
PROMEDIOS ESTADSTICOS.
Si no conocemos las estadsticas de un proceso, podemos estimarlas a partir de varias
observaciones, es decir, a partir de las muestras o realizaciones que disponemos de dicho proceso:
! NOTA Para el alumno: en ambos casos estamos haciendo un promediado de un mismo
finito de realizaciones, que es lo que se conoce como promedio estadstico.
{ } ) (
1
) ( ) (
1
t x
N
t x E t m
N
i
i x
=
~ =
Donde x
i
(t) es una muestra (realizacin del proceso, ie. es una funcin determinista)
{ } ) ( ) (
1
) ( ) ( ) , (
*
1
*
t x t x
N
t x t x E t t R
i
N
i
i x
+ ~ + = +

=
Donde x
i
(t+) y x
i
(t)
*
son tambin muestras (realizaciones del proceso, ie. funciones deterministas)
COMUNICACIONES I
MEDIDAS TEMPORALES
En muchos casos slo disponemos una muestra del proceso (una realizacin). Si el proceso es
estacionario podemos hacer una estimacin de sus momentos (esperanza y correlacin) mediante
un promediado temporal de la muestra conocida:
{ }
i x
T
T
i
T
x
m dt t x
T
t x E t m
.


= ~ =
}
2 /
2 /
) (
1
lim ) ( ) (
{ } ) ( ) ( ) (
1
lim ) ( ) ( ) (
2 /
2 /
* *

i x
T
T
i i
T
x
R dt t x t x
T
t x t x E R
.


= + ~ + =
}
En ambos casos x (t) es una muestra del suceso. Si el resultado es independiente de la muestra
que elija tenemos que:
Se dice entonces que el proceso es ergdico.
x
x
m m
.
=
) ( ) ( x
x
R R
.
=
COMUNICACIONES I
PROCESOS ERGDICOS.
Un proceso es ergdico si, a partir de una muestra o realizacin, puedo calcular alguno de sus
momentos (media y/o correlacin), siendo el resultado independiente de la muestra que elija:
ERGODICIDAD Media estadstica = Media temporal
x
x
m m
.
=
) ( ) ( x
x
R R
.
=
!NOTA para el alumno: si se cumple la primera condicin entonces se dice que el proceso es
ergdico en media, mientras que si se cumple la segunda condicin, entonces se dice que el
proceso es ergdico en autocorrelacin.
Puede ser que un proceso sea ergdico en media pero no en autocorrelacin y viceversa; pero
normalmente se dice que el proceso es ergdico si lo es en los dos mbitos.
COMUNICACIONES I
Al hacer un promediado temporal vemos que la esperanza resultante es constante, y que la
correlacin no depende de t slo de , por tanto podemos afirmar que el proceso es tambin
estacionario en sentido amplio:
!NOTA para el alumno; Cuidado! Si bien hemos visto que ergodicidad implica
estacionariedad (en sentido amplio) la implicacin contraria no tiene porqu ser cierta.
De todas maneras cabe sealar, que debido a las implicaciones anteriores, estacionariedad es
condicin necesaria, aunque no suficiente, de ergodicidad. Qu queremos decir con esto?
PROCESO NO ESTACIONARIO = PROCESO NO ERGDICO.
Es decir, que si hemos definido el proceso, y vemos que no es estacionario, ya podemos afirmar que no
es ergdico; en el caso que s sea estacionario no podemos asegurar nada acerca de su ergodicidad,
deberemos realizar las medias temporales y dependiendo del resultado afirmar una cosa u otra.
COMUNICACIONES I
Ahora bien, muchas veces las medias temporales realizadas no son independientes de la muestra
escogida para hacerlas (el proceso por tanto ya no es ergdico); entonces
(ya que dependen de la realizacin escogida).
Al utilizarlas como estimaciones de las medias estadsticas estamos cometiendo algn tipo de error.
Debemos tener unos parmetros que nos permitan cuantificar la calidad de nuestra estimacin: son
el sesgo y la varianza.
. . ) ( ) ( tan A sonV R como t m to x x
. .
SESGO (B)
VARIANZA (
2
)
)
`

=
)
`

=
. .
. .
) ( ) ( )) ( (
) (
x
x
x
x
x
x
R E R R b
m E m m b
)
`

)
`

=
)
`

)
`

=
. . .
. . .
2 2
2 2
) ) ( ) ( ( )) ( (
) ( ) (

x
x
x
x
x
x
R E R E R
m E m E m
Para que la estimacin sea buena, el sesgo y la varianza tienen que tender a cero.
COMUNICACIONES I
3. DENSIDAD ESPECTRAL DE POTENCIA. TEOREMA DE WIENER KINCHINE.
Podemos ver un p.a.e.s.a. como un conjunto de seales deterministas de potencia media finita, es decir:
X
1
(t)
X
2
(t)

X
N
(t)
X(t) p.a.
Seales deterministas de PMF
Para cada una de estas seales que componen el proceso, podemos calcular su
autocorrelacin como:
Y su densidad espectral de potencia como:
}
+ =

T
i i
T
xixi
dt t x t x
T
R ) ( ) (
1
lim ) (
*

{ } ) ( ) (
xixi xixi
R TF f S =
COMUNICACIONES I
Si formamos ahora un nuevo proceso aleatorio a partir de las N densidades espectrales de las seales
que componen el proceso original.
S
x1x1
(f)

Densidades espectrales de x
i
(t),x
N
(t),
respectivamente
S
x2x2
(f)
S
xNxN
(f)
. . ) ( a p f S xx
.
Definiremos la densidad espectral de potencia del proceso original como la media del nuevo proceso
aleatorio
Dado que el conjunto de todas las densidades espectrales de potencia de las diferentes seales
(muestras o realizaciones del proceso) que componen el proceso original presentan un carcter aleatorio.
Es decir:
) ( f S xx
.
)
`

=
.
) ( ) ( f S E f S xx
xx
COMUNICACIONES I
Existe otra forma de calcular la densidad espectral de potencia de un proceso.
De la misma manera que hemos definido la densidad espectral de las diferentes seales (muestras o
realizaciones del proceso) que lo componen, definimos un nuevo proceso aleatorio formado por las
autocorrelaciones de dichas seales, es decir:
R
x1x1
()

Autocorrelacin de x
i
(t),x
N
(t),
respectivamente
R
x2x2
()
R
xNxN
()
. . ) ( a p R xx
.
Por propiedades de la Transformada de Fourier, podemos afirmar que:
) ( ) ( f S R TF xx xx
. .
=
)
`


Por tanto, si ahora buscamos su valor medio, obtenemos:
=
)
`

=
)
`

)
`

=
)
`

=
}
+

. . .


d e R E R TF E f S E f S
f j
xx xx xx
XX
2
) ( ) ( ) ( ) (
=

(
(

+ =
} }
+




d e dt t x t x
T
E
f j
T
T
2 *
) ( ) (
1
lim
{ } = + =
} }
+




d e dt t x t x E
T
f j
T
T
2 *
) ( ) (
1
lim
COMUNICACIONES I

+ =
}

T
XX
T
dt t t R
T
TF ) , (
1
lim
TEOREMA DE WIERNER KINCHINE.
Sea la media temporal de la autocorrelacin:
}
+ = +


T
XX
T
XX
dt t t R
T
t t R ) , (
1
lim ) , (
Entonces, podemos afirmar que se cumple:
)
`

+ =

) , ( ) ( t t R TF f S
XX XX

Esta definicin es vlida para cualquier tipo de proceso, pero podemos distinguir tres casos
especiales.
COMUNICACIONES I
Si x(t) es un proceso estacionario:
) ( ) (
1
lim ) , (
XX
T
XX
T
XX
R dt R
T
t t R = = +
}


{ } ) ( ) , ( ) (
XX XX XX
R TF t t R TF f S =
)
`

+ =

Si x(t) es un proceso cicloestacionario:
} } }
+ = + = + = +


0 0
) , (
1
) , ( lim ) , (
1
lim ) , (
T
XX
O T
XX
O
M
T
XX
T
XX
dt t t R
T
dt t t R
MT
M
dt t t R
T
t t R
)
`

+ =

) , ( ) ( t t R TF f S
XX XX

Si x(t) es un proceso estacionario ergdico:
}
+ = =

T
i i
T
XiXi XX
dt t x t x
T
R R
*
) ( ) (
1
lim ) ( ) (
Este clculo es el mismo que para seales deterministas de P.M.F. ya que consideramos que
una muestra es una seal de este tipo.
) ( ) ( f S f S
XiXi XX
=
COMUNICACIONES I
CLCULO DE POTENCIAS.
La potencia de un proceso aleatorio se puede calcular como:
df f S P
XX x
) (
}
+

=
Si no disponemos de la densidad espectral del proceso pero s tenemos su autocorrelacin, tambin
podemos calcular su potencia como:
0
) , (
=

+ =

t t R P
XX X
Este clculo se puede esperar de diversas formas:
{ }


=

= = = + =
2
0
) ( ) ( ) , ( ) , ( t x E t P t t R t t R P
X XX XX X

Adems si el proceso es estacionario:


) 0 ( ) ( ) , (
0
0
XX XX XX X
R R t t R P = = + =
=
=


COMUNICACIONES I
4. PROCESOS ALEATORIOS A TRAVS DE SISTEMAS LINEALES E
INVARIANTES.
Sea un sistema lineal e invariante caracterizado por su respuesta impulsional h(t) (seal determinista). Si
a su entrada tenemos un proceso aleatorio, es decir:
X(t) p.a.
h(t)
seal
y(t) p.a.?
Podemos afirmar que la salida del sistema es otro proceso aleatorio?.
Si consideramos el proceso x(t) como un conjunto de seales (muestras de proceso) y cada una de ellas
la pasamos por el sistema lineal e invariante, a la salida del mismo tendremos otro conjunto de muestras,
formando por todas las seales posibles de x(t) convolucionadas con h(t), que formarn otro proceso
aleatorio, y(t).
) ( * ) ( ) (
) ( ) ( ) ( ) (
t h t x t y
atorio procesoale t y conjuntode d h t x t y
i i i
=
=
}
+


COMUNICACIONES I
Por tanto, si que podemos afirmar que la salida del sistema (y(t)) cuando a la entrada aplicamos un
proceso aleatorio (x(t)) tambin es un proceso aleatorio.
Por tanto, la relacin entre las estadsticas de x(t) e y(t) siguen las mismas normas que habamos
visto para el caso de seales deterministas, pero con promediados temporales en el caso de las
correlaciones.
MOMENTO DE PRIMER ORDEN DE Y(t): MEDIA.
{ } { }
{ } ) ( * ) ( ) ( ) ( ) (
) ( ) ( ) ( * ) ( ) ( ) (
. det . .
t h t m d t m d h t x E
d h t x E t h t x E t y E t m
x x
er a p
y
} }
}
+

+

+

= = + =
=
)
`

= = =


COMUNICACIONES I
MOMENTO DE SEGUNDO ORDEN DE y(t):
AUTOCORRELACIN Y CORRELACIN CRUZADA.
Definiremos:
Por tanto son las mismas que habamos visto en el caso determinista
) ( * ) , ( ) , (
) ( * ) , ( ) , (
) ( * ) ( * ) , ( ) , (
*
*



h t t R t t R
h t t R t t R
h h t t R t t R
XX YX
XX XY
XX YY



+ = +
+ = +
+ = +
DENSIDAD ESPECTRAL DE y(t).
Aplicando el teorema de Wiener Kinchine obtendremos las relaciones para densidades espectrales:
) ( ) ( ) ( * ) , ( ) , ( ) (
) ( ) ( ) ( * ) , ( ) , ( ) (
) ( ) ( ) ( * ) ( * ) , ( ) , ( ) (
* *
2
*
f H f S h t t R TF t t R TF f S
f H f S h t t R TF t t R TF f S
f H f S h h t t R TF t t R TF f S
XX XX YX YX
XX XX XY XY
XX XX YY YY
=
)
`

+ =
)
`

+ =
=
)
`

+ =
)
`

+ =
=
)
`

+ =
)
`

+ =






COMUNICACIONES I
Al igual que habamos visto anteriormente, podemos calcular la potencia del proceso y(t) como:
Potencia de y(t).
df f H f S df f S P
xx YY y
2
) ( ) ( ) (
} }
+

+

= =
!NOTAPara el alumno: Recordemos que el proceso y(t) es la salida de un sistema
lineal e invariante cuando a su entrada tenemos el proceso x(t) (estacionario o no).
COMUNICACIONES I
4.2. PROCESOS ESTACIONARIOS A TRAVS DE S.L.L.S.
Si x(t) es un proceso estacionario:
Para momentos de primer orden implica:
{ } { }
{ }
y x x x
y
m H m d h m d h m d h t x E
d h t x E t h t x E t y E t m
= = = = =
=
)
`

= = =
} } }
}
+

+

+

+

) 0 ( ) ( ) ( ) ( ) (
) ( ) ( ) ( * ) ( ) ( ) (


Para momentos de segundo orden implica:
) ( * ) ( ) (
) ( * ) ( ) (
) ( * ) ( * ) ( ) (
*
*



h R R
h R R
h h R R
XX YX
XX XY
XX YY
=
=
=
Por tanto, si x(t) es un proceso estacionario, vemos que la media de y(t) es constante y que la
autocorrelacin y las correlaciones cruzadas slo dependen de t.
Por tanto, podemos afirmar que el proceso aleatorio Y(t) tambin es estacionario y que adems x(t) o
y(t) son conjuntamente estacionarios.
COMUNICACIONES I
RESUMEN
X(t) p.a. est.
en la entrada
h(t) seal
determinista LTI
y(t) p.a. est.
en la salida
X(t) e y(t) conj. estacionarios
COMUNICACIONES I
4.3 PROCESOS GAUSSIANOS.
Un proceso aleatorio gaussiano queda completamente definido por su
media y su varianza.
)) ( ), ( ( :
2
t t m N
x x

La funcin de densidad de probabilidad de un proceso aleatorio gaussiano es:
) ( 2
)) ( ) ( (
2
2
) ( 2
1
) , (
t
t m t x
x
x
x
e
t
t x f

=
Si x(t) es un proceso gaussiano y estacionario:
Podemos definir el proceso a partir de su media y su varianza como:
2
2
2
) ) ( (
2
1
) (
x
x
m t x
x
e x f

=
) , ( :
2
x x
m N
Siendo en este caso su funcin de densidad de probabilidad:
COMUNICACIONES I
POTENCIA DE UN PROCESO ALEATORIO GAUSSIANO.
Sea x(t) un proceso aleatorio gaussiano:
{ }
2 2
2
) ( ) ( ... ) ( ) ( ) ( t m t P t m t x E t
x x x x
= = =
Si tambin es estacionario, entonces:
2
2
x x x
m P =
PROCESOS ALEATORIOS GAUSSIANOS A TRAVS DE SISTEMAS LINEALES E INVERIANTES.
Si tenemos el siguiente sistema lineal e invariante:
X(t) p.a.
gaussiano
h(t) seal
determinista LTI
y(t) p.a. gaussiano?
Si la entrada del sistema es un proceso gaussiano, podemos afirmar que la salida tambin ser un
proceso gaussiano? Al tratarse de un sistema lineal e invariante, la salida del sistema ser:

}
+

= = d t h x t h t x t y ) ( ) ( ) ( * ) ( ) (
COMUNICACIONES I
Si consideramos el proceso x(t) como un conjunto de variables aleatorias gaussianas (recordar que para
cada instante de tiempo tenemos una v.a.), podemos ver la salida como la combinacin lineal de las v.as.
gaussianas que forman x(t) tras su paso por el sistema.
Por tanto, podemos decir que la salida y(t) del sistema tambin ser un proceso aleatorio gaussiano.
Entonces, para definirlo completamente necesitaramos conocer su media y su varianza. Del apartado 4
sabemos:
) ( * ) ( * ) , ( ) , (
) ( * ) ( ) (
*
+ = +
=

h h t t R t t R
t h t m t m
XX YY
x y
Ahora falta encontrar la varianza:
{ } { }
2
2 2
2
) ( ) ( ) ( ) ( ) ( t m t P t y E t y E t
y y y
= =
) ( * ) ( * ) ( ) (
*
= h h R R
XX YY
Si x(t) es un proceso gaussiano y estacionario:
En este caso se cumple:
) 0 ( H m m
x y
=
Es decir, y(t) es tambin un proceso gaussiano y estacionario. De manera que:
) 0 (
2
2
yy y y y y
R conP m P = =

You might also like