You are on page 1of 26

PROCESOS

ESTOCSTICOS
Apuntes de lase

Do ente: Ing. Miguel Pa he o Chvez


Trans rip in: Vladimir A. Zalles Vera
Apuntes ETN 806 - Pro esos Esto sti os
Carrera de Ingeniera Ele trni a, Fa ultad de Ingeniera
Universidad Mayor de San Andrs, Agosto 2008
La Paz  Bolivia

Indice general
Introducci
on

1. Variables aleatorias M
ultiples
1.1. Introduccion a las variables aleatorias . . . . . . .
1.2. Funci
on de distribuci
on conjunta . . . . . . . . . .
1.3. Funci
on de Distribucion de Acumulativa Conjunta
1.4. Distribucion condicional . . . . . . . . . . . . . . .
1.4.1. Variables estadsticamente Independientes .
1.5. Variables gausianas m
ultiples . . . . . . . . . . . .
Resumen Parte I . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

3
3
3
4
5
5
5
6

2. Procesos Estoc
asticos
2.1. Introduccion a los Procesos Estoc
asticos .
2.1.1. Ejemplos de procesos estoc
asticos .
2.1.2. Tipos de Procesos Estoc
asticos . .
2.2. Proceso Poisson . . . . . . . . . . . . . . .
2.2.1. Valores esperados . . . . . . . . . .
2.3. Procesos estacionarios . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

7
7
7
8
8
9
9

3. Suma de Variables Aleatorias


3.1. Esperanza de las sumas . . . . . . . . . . . .
3.2. Varianza de W . . . . . . . . . . . . . . . . .
3.3. Funci
on Generadora de Momentos . . . . . .
3.4. Suma de Variables Aleatorias . . . . . . . . .
3.5. Teorema del Limite Central . . . . . . . . . .
3.5.1. Reglas empricas . . . . . . . . . . . .
3.6. Aplicaciones del Teorema del Limite Central .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

11
11
11
12
13
13
13
14

4. Procesos de Renovaci
ony Cadenas de Markov
4.1. Cadenas discretas de markov . . . . . . . . . . . .
4.1.1. Ecuaci
on de Chapman-Kolmogorov . . . . .
4.2. Clasificaci
on de estados y cadenas . . . . . . . . .
4.2.1. Probabilidades de estado estacionario . . .
4.3. Procesos de nacimiento-muerte y sistemas de colas
4.3.1. Sistema de colas . . . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

15
15
16
16
18
18
18

5. Procesamiento de Se
nales Aleatorias
5.1. Filtrado lineal . . . . . . . . . . . . .
5.2. Densidad espectral de potencia . . .
5.3. Proceso poisson compuesto . . . . .
5.4. Procesos estoc
asticos gausianos . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

21
21
21
23
24

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

Introducci
on
Fen
omenos deterministicos: Comportamiento completamente definido por algun modelo matematico.
Fen
omeno aleatorio: Al azar, recurrimos a la probabilidad y estadstica para estudiar el fenomeno aleatorio.
De donde salen los fenomenos aleatorios?
Se realiza un experimento aleatorio que produce ciertos resultados.
x
bc

Conjunto de resultados

bc

bc

bc

bc

Rango de la variable x

bc

Figura 1: Espacio muestral


Donde x es una funci
on que le asigna a cada resultado del espacio muestral un numero real.
Las variables aleatorias se definen en un experimento aleatorio.
Ejemplo.Experimento = Lanzamiento al aire de una moneda, 3 veces.
Espacio muestral S = {ccc, ccs, csc, scc, css, ssc, scs, sss}
x : sale la misma cara
y: obtenemos una sola cara
Para que una variable aleatoria este completamente definida se debe especificar su funci
on de distribuci
on.

Funci
on

de distribuci
on de probabilidad o probabilidad de masa (discreto)
de densidad de distribuci
on de probabilidad (continuo)

Una variable discreta toma determinados valores en su rango (ejemplo, un dado).


Una variable continua toma infinitos valores (ejemplo, temperatura).

Ejemplo.a)

b)

PX (x)
1
6
b

fX (x)

x
0

65

Figura 2: a) Caso discreto, lanzamiento de un dado (distribuci


on uniforme)
estudiantil en Procesos Estoc
asticos (distribuci
on normal o gausiana)
1
51

100

b) Caso continuo, calificacion

PX (x)

10

Figura 3: La Densidad de distribuci


on siempre debe ser igual a uno (distribucion uniforme para x [5, 10])

Funci
on de distribuci
on de probabilidad acumulativa
Es la funci
on que proporciona el valor de la probabilidad de un evento
FX (x) = Prob(X x)
FX (x) =
FX (x) =
Ejemplo.-

Rb
a

PX (xi )

variable discreta

(1)

fX (x)dx

variable continua

(2)

0
1 2 3 4 5 6
Figura 4: Ejemplos de distribuciones acumulativas, caso discreto y continuo respectivamente.

Captulo 1

Variables aleatorias M
ultiples
1.1.

Introducci
on a las variables aleatorias

Las variables aleatorias m


ultiples se presentan cuando para un mismo experimento aleatorio se define mas
de una variable aleatoria.
Ejemplo.Para el caso de probar n circuitos integrados (caso discreto) podemos definir:
X Numero de circuitos en buen estado
Y Numero de pruebas realizadas antes de la primera falla
o en el caso de un sistema de telecomunicaciones (caso continuo)
X Informaci
on transmitida
Y Se
nal recibida
Puede ser necesario, dependiendo de las condiciones, el estudio del comportamiento conjunto conjunto de
las variables o deducir el valor de una de ellas a partir de otra, etc.
Como en el caso de una sola variable es importante conocer en cualquier caso el modelo de probabilidad
o funci
on de distribuci
on correspondiente.

1.2.

Funci
on de distribuci
on conjunta

En el caso de variables discretas se llama Funci


on de distribuci
on de probabilidad conjunta PX,Y (x, y) y
se puede expresar como lista, Matriz o gr
afico.
Ejemplo.se prueban dos circuitos integrados, uno despues del otro, en cada prueba los dos posibles resultados son
a (aceptado) y r (rechazado). Si se definen las variables como se dijo en la introduccion y que todos los
circuitos con aceptables con una probabilidad de 0.9 y que los resultados de las pruebas son independientes,
determine las distribuciones de probabilidad conjunta de X y Y.

Soluci
on.-

Podemos representar nuestro analisis mediante

un Diagrama de Arbol

a (0,9)

a (0,9) = aa

(0,81)

r (0,1)

(0,9)

ar

representacion en forma de matriz y graficamente.


y=0
0,01
0,09
0

PX,Y (x, y)
x=0
x=1
x=2

a (0,9) =

ra

(0,9)
2

r (0,1)

rr

(0,01)

Donde X es el numero de circuitos en buen estado y Y el numero de pruebas antes de la primera fallan, es espacio del rango esta dado por
X = {0, 1, 2} y Y = {0, 1, 2} para X y Y respectivamente. Como cada prueba es un evento independiente, basta con multiplicar, entonces nuestra
funci
on de distribuci
on sera:

0 0.0.1 0.09
0
1
b

0.81

0.09
b

La probabilidad de un evento se calcula sumando todas las probabilidades de los resultados que
componen el evento.

Prob{A} = ?

0,81
x = 2, y = 2

x = 1, y = 1
0,09
0,09
x = 1, y = 0
PX,Y (x, y) =

0,01
x
= 0, y = 0

0
cualquier otro caso

A : evento x = y

Prob{A} = Prob{x = 0, y = 0} + Prob{x = 1, y = 1}


Prob{A} =

+Prob{x = 2, y = 2}
0,01 + 0,09 + 0,81 = 0,91

Funci
on de Distribuci
on de Acumulativa Conjunta

Esta funci
on describe expresa la probabilidad
de que la variable o las variables se encuentren dentro de cierto rango de valores.
FX,Y (x, y) =

Prob(X x, Y y)
|
{z
}

Prob. acumulativa conjunta

La funci
on de distribuci
on acumulativa conjunta
FXY (x, y) se define como la probabilidad de todos
los puntos en un plano por debajo y a la izquierda
del punto (x, y). Definimos para el caso de variables
discretas o variables continuas respectivamente.
(x, y)
b

FX,Y (x, y) =
FX,Y (x, y) =

X X

x Ay B
Z x Z y

PX,Y (x, y)

(1.1)

fX,Y (x, y)dx dy(1.2)

Propiedades
a)
b)
c)
d)
e)
f)

y=2
0
0
0,81

r (0,1)

1.3.

y=1
0
0,09
0

0 FX,Y (x, y) 1
FX (x) = FX,Y (x, )

FY (y) = FX,Y (, y)
FX,Y (, y) = FX,Y (x, ) = 0

x1 x ; y1 y FX,Y (x1 , y1 ) FX,Y (x, y)


FX,Y (, ) = 1

ETN 806 Procesos Estoc


asticos

1.4.

Distribuci
on condicional

Se requiere cuando interesa determinar cual es la probabilidad de ocurrencia de una variables dado que
la otra a tomado un valor definido.

1.4.1.

PX/Y (x/y) =

PX,Y (x, y)
;
PY (y)

PY /X (y/x) =

PX,Y (x, y)
PX (x)

(1.3)

fX/Y (x/y) =

fX,Y (x, y)
;
fY (y)

fY /X (y/x) =

fX,Y (x, y)
fX (x)

(1.4)

Variables estadsticamente Independientes


E[X/Y = y] = E[X] y SY

Se dice que dos variables aleatorias son Estadsticamente Independientes si se cumple que:

PXY (x, y) = PX (x)PY (y)


fXY (x, y) = fX (x)fY (y)

(1.8)

E[Y /X = x] = E[Y ] x SX (1.9)


Var[X + Y ] = Var[X]Var[Y ]
(1.10)

Cov(x, y) = X,Y = 0

(1.5)
(1.6)

(1.11)

Para variables estadsticamente independientes.

En este caso tenemos


RX,Y = E[X]E[Y ] = X Y

1.5.

(1.7)

Variables gausianas m
ultiples

Una variable aleatoria normal o gausiana tiene una funci


on de densidad de distribuci
on dada por


1
(x 2 )
fX (x) =
exp
(1.12)
2x2
2x
La ecuaci
on (1.12) se puede expresar de la forma: X N (x , x2 )
Dos variables normales tienen densidad de distribuci
on
"
2

 
2 #!

1
x x
y y
y y
x x
1
q
fX,Y (x, y) =
+
2
exp
2(1 2 )
x
x
y
y
2 1 2
x y

xy

(1.13)

Sus valores esperados condicionales se puede calcular mediante


E[Y /X] = y +

y
(x x )
x

Var[Y /X] = y2 (1 2 )

(1.14)
(1.15)

Definimos la funci
on normal est
andar con x = 0 y x2 = 1 para esta funci
on existen tablas ya resueltas,
por lo tanto para una funci
on no est
andar, se la debe estandarizar.con
z=

x x
x2

(1.16)

Como se determina la probabilidad para una variable normal?


Estandarizamos el valor de interes con la ecc. (1.16) y luego consultamos tablas
Como determinamos la probabilidad condicional para variables normales?
Calculamos el valor medio y la varianza condicionales con las ecc. (1.14) y (1.15). Luego estandarizamos
el valor de interes con (1.16)

Resumen primera parte


Distribuci
on condicional

Valor medio
E[X] = x =
E[X] = x =

x PX (x)

x fX x

E[X + Y ] = E[X] + E[Y ]


Varianza
Var[X] = x2 = E[(x x )2 ] =

(x x )2 PX (x)

Var[X] = x2 = E[X 2 ] (E[X])2

PX/Y (x/y) =

PX,Y (x,y)
PY (y)

fX/Y (x/y) =

fX,Y (x,y)
fY (y)

Variables estadsticamente Independientes



PXY (x, y) = PX (x)PY (y)
condiciones
fXY (x, y) = fX (x)fY (y)
P
P
P
x,y =
xyPX (x)PY (y) =
xPX (x) yPY (y)
=
E[X Y ]
= E[X]E[Y ]

Var[X + Y ] = Var[X] + Var[Y ] + 2Cov[XY ]

E[X/Y = y] = E[X] y SY
E[Y /X = x] = E[Y ] x SX

Covarianza

Cov(x, y) = X,Y = 0

Cov[XY ] = E[XY ] x y = E[(x x )(y y )]


Cov[ X 2 ] = E[ X 2 ] 2x
Distribuci
on Normal o gausiana

Correlaci
on entre X y Y

fX (x)

x,y = E[X Y ]

Coeficiente de correlaci
on
XY = Cov[X,Y ]
Var[X]Var[Y ]
Distribuci
on acumulativa
FX (x) =
FX (x) =

Rb
a

0
X(t) =

1
2 x

exp

PX (xi )

X(t) N (x , x2 )

fX (x)dx

Para estandarizar:
z=

Distribuci
on acumulativa conjunta
FX,Y (x, y) =
FX,Y (x, y) =

P P
x

R x R y

x

2

(xx )
2
2x

xx
x

PX,Y (x, y)

fX,Y (x, y)dx dy


Distribuci
on Normal conjunta

1
q
exp
fX,Y (x, y) =
2x y 1 2xy

1
2(1 2 )

"

x x
x

2

x x
x



y y
y

Para estandarizar esta funci


on, primero hallamos el valor esperado y la varianza conjuntas.
y
E[Y /X] = y + (x x ) ;
Var[Y /X] = y2 (1 2 )
x
Luego de estandarizar el valor de interes a una funci
on normal, podemos utilizar tablas.
6

y y
y

2 #!

Captulo 2

Procesos Estoc
asticos
2.1.

Introducci
on a los Procesos Estoc
asticos

Un proceso estoc
astico es un experimento aleatorio que produce como resultado funciones aleatorias
dependientes del tiempo.
Espacio muestral
qp

s9
qp

qp

s4
qp

qp

X(t,s1 )

s3
qp

qp

s7

s8
qp

Colecci
on

s5
X(t)

X(t,s2 )

s6
X(t,s3 )

s1
qp

s2
..
. etc.

Entonces hablamos de valores medios en el tiempo y valores medios de la colecci


on.

2.1.1.

Ejemplos de procesos estoc


asticos

Medici
on de la temperatura ambiente en el aeropuerto de El Alto, al medio da durante un a
no.
Cantidad de llamadas que se cursan por una central telefonica cada hora.
X(t)
bc
bc

Si consideramos que:

t
bc

X(t1 ) = Variable aleatoria


X(t2 ) = Variable aleatoria

bc

t
bc

Entonces se dice que un proceso estoc


astico puede dar origen a una infinidad de variables aleatorias.

bc

t
t = t1

t = t2

Secuencia de variables aleatorias: Es un conjunto ordenado de variables aleatorias provenientes de


un mismo procesos estoc
astico.

{X(t0 ), X(t1 ), X(t2 ), X(t3 ), . . . X(tn )}


7

Cada una de las variables aleatorias tendra una funci


on de distribuci
on asociada.
fXt0 (x), fXt1 (x), . . .

2.1.2.

Tipos de Procesos Estoc


asticos

De amplitud y tiempo continuos.


De amplitud y tiempo discretos.
De amplitud continua y tiempo discreto.
De amplitud discreta y tiempo continuo.
N(t)

2.2.

Proceso Poisson

Un proceso de conteo N (t) cuenta el numero de eventos denominados llegadas o arribos y tiene la caracterstica
de que (t) = 0 para t < 0 y es un n
umero entero
creciente.

t1 t2 t3
0 +x +x
+x
0

M = n(t3 ) N (t2 ) es la cantidad de llegadas en el intervalo [t2 , t3 ]

t4

+x3

t5 t

+x4

Figura 2.1: Ejemplo de una distribuci


on discreta.

Definici
on: Un proceso de conteo N(t) es un proceso Poisson de tasa si:
a) El n
umero de llegadas en cualquier intervalo [t0 , t1 ] es una variable aleatoria Poisson con valor esperado:
(t1 t0 )
b) Para cualquier par de intervalos [t0 , t1 ] y [t0 , t1 ] no sobrepuestos, el numero de llegadas en cada intervalo
es una variable aleatoria independiente.
c) Una variable aleatoria Poisson tiene funci
on de distribuci
on
P (m) =

|(t1 t0 )|m (t1 t0 )


e
m!

m = 0, 1, 2 . . .
en otro caso

(2.1)

d) La tasa del proceso es el numero esperado de llegadas por unidad de tiempo


=

E[N (t)]
t

(2.2)

La probabilidad de una llegada durante cualquier instante es independiente de la historia del proceso,
debido a ello el proceso Pisson es un proceso sin memoria.
e) El tiempo entre llegadas es una variable aleatoria continua con funci
on de densidad de distribuci
on
exponencial, dada por:

ex
x0
F (m) =
(2.3)
0
en otro caso
8

ETN 806 Procesos Estoc


asticos

2.2.1.

Valores esperados

Puesto que un proceso estoc


astico origina una secuencia de variables aleatorias dependientes del tiempo,
el valor esperado sera tambien una funci
on del tiempo.
Z
E[X(t)] = x (t) =
X(t)FX(t) (x)dx
(2.4)

Las definiciones dadas para los valores esperados es variables aleatorias se aplican tomando en cuenta la
dependencia del tiempo tenemos entonces para la covariaza:
Cov[t, ] = E[X(t)X(t + )] x (t)x (t )

(2.5)

Para la funci
on de autocorrelaci
on:

RX (t, ) = E[X(t) X(t + )]

(2.6)

Para el c
alculo de los valores esperados se debe considerar si el proceso es continuo o discreto y emplear
la funci
on de distribuci
on correspondiente.

2.3.

Procesos estacionarios

Un proceso es estacionario si sus propiedades estadsticas no dependen del tiempo, es decir:

FX(t1 ,t2 ,23 ) = FX(t1 +1 ,t2 +2 ,t3 +3 )

E[X(t)] = x
Cov[t, ] = Cov[0, ] = Cov[ ]
RX (t, ) = RX(0, ) = RX ( )

Un proceso estoc
astico es Estacionario en Amplio Sentido, si tiene las siguientes propiedades:
Positivo
Sim
etrico
El valor en cero debe
ser el mas grande

Ejemplo.-

RX (0) 0
RX ( ) = RX ( )
|RX ( )| RX (0)

(2.7)

RX
R1X : cumple todas las condiciones
R2X : no cumple con |RX ( )| RX (0)
R3X : no cumple con RX (0) 0

R1X
R2X

solamente R1X es estacionario en amplio sentido.


0

R3X

10

Captulo 3

Suma de Variables Aleatorias


Definimos la funci
on W
W = X1 + X2 + X3 + . . . + Xn

3.1.

Esperanza de las sumas

Podra ser necesario estudiar la combinaci


on de las variables aleatorias generadas por un proceso estoc
astico, entonces si por ejemplo se trata de una suma de variables aleatorias, los valores esperados estar
an dados
por:
Z
E{w} =
fW (w)dw = E{X1 } + E{X2 } + E{X3 } + . . .
(3.1)

No es conveniente determinar la funci


on de distribuci
on de W para aplicar la definicion de esperanza. No
importa si las variables xi son o no son independientes.

3.2.

Varianza de W
Var{W} =

n
X
i=1

Var{Xi } + 2

n1
X

n
X

i=1 j=i+1

Cov{Xi , Xj }

(3.2)

Si Xi es una secuencia de variables aleatorias independientes 1 (Cov{Xi , Xj } = 0) la funci


on de distribucion de W = [X + Y ] se puede calcular mediante
Z

fW (w) =

fX,Y (x, x)dx =

fX (x)fY ( x)dx =

fX,Y ( y, y)dy

(3.3)

Si x y y son independientes tenemos:


fW (w) =

fX, ( y)fY (y)dy

La anterior excrecion no es mas que la convoluci


on entre las funciones de distribuci
on fX (x) y fY (y)
fW (w) = fX (x) fY (y);
1 Conjunto

para x y y estadsticamente independientes

ordenado en el tiempo X1 = X(t1 )

11

(3.4)

3.3.

Funci
on Generadora de Momentos

Se llama funci
on generadora de momentos de variable aleatoria X al valor esperado de esx .
X (s) = E{esx }

(3.5)

Condici
on para que la funci
on (s) sea generadora de momentos.
X (s)|s=0 = 1
El momento de n-simo de la Variable X esta dado por:

dn X (s)
E{X } =
dsn s=0
n

(3.6)

Ejemplo.X tiene una densidad de distribucion uniforme en el intervalo [0,2], determine la funcion generadora de
momentos de primer orden
Soluci
on.X (s) =

fX (x)
1
2

X (s) =

NOTA: si comprobamos la condicion para s = 0,


X (0) 6= 1 entonces aplicamos limites y la regla
de Hopital derivando numerador y denominador
antes de evaluar. Entonces.

on generadora
de momentos estara
0 la funci
2
dada por

X (s) =

2
1 esx

2
s 0
1 2s
(e 1)
2s

1
est dx
2

X (0) = e20 = 1

La funci
on generadora de momentos de W = X1 + X2 + X3 + . . . sera:
W (s) = E{esW }

= E{es(X1 +X2 +...+Xn ) }

= E{esX1 esX2 . . . esXn }

Si las variables son independientes, entonces:


W = E{esX1 } E{esX2 } E{esX3 } . . . E{esXn }
W = X1 X2 X3 . . . Xn
Y si las variables son Independientes Identicamente Distribuidas (iid):
W (s) = [X (s)]n

(3.7)

Expresiones para el caso discreto y continuo respectivamente:

12

= E{esx } =
R

sx
e PX (xi )

sx
e fX (x)dx

Forma discreta
(3.8)
Forma continua

ETN 806 Procesos Estoc


asticos

3.4.

Suma de Variables Aleatorias

Para que variable aleatoria X N (0, 1) la funci


on generadora de momentos es:
2

X (s) = es

/2

Si X N (x , x2 ) entonces
2

x (s) = esx +s

2
x
/2

Si se suman n Variables aleatorias y gausianas independientes


W = X1 + X2 + X3 + . . . + Xn
entonces

W (s)
W (s)

= X1 (s) X2 (s) . . . Xn (s)


2

= esx1 +s

2
/2
x
1

esx2 +s

2
/2
x
2

W (s) = es(x1 +x2 +...+xn )+s

. . . esxn +s

2
/2
x
n

2
2
2
)/2
+...+x
+x
(x
n
2
1

(3.9)

por lo tanto W sera una variable normal con


W = x1 + x2 + . . . + xn

(3.10)

2
W
= x21 + x22 + . . . + x2n

3.5.

Teorema del Limite Central

Si se suman n variables aleatorias independientes, la distribuci


on de la nueva variable sera aproximadamente normal.
Y = X1 + X2 + . . . + Xn

donde

E{Xi } = i ;

Var{Xi } = i2

entonces
Pn
Y
i
Zn = pPn i=1 2
i=1 i

(3.11)

N
otese que esta expresion es una forma de estandarizacion, si son variables iid entonces
1 = 2 . . . =
12 = 22 . . . = 2

(3.12)

de esta manera la ecuaci


on 3.11 se puede expresar
Zn =

3.5.1.

Y n

(3.13)

Reglas empricas

1. si Xi tiene una distribuci


on parecida a la normal entonces n 4 es suficiente.
2. si Xi tiene una distribuci
on uniforme, entonces n 12.
3. si Xi tiene una distribuci
on opuesta a la normal, entonces n 100
13

3.6.

Aplicaciones del Teorema del Limite Central

En todos aquellos casos donde se presentan sumas de variables aleatorias.


Aproximaciones a las distribuciones Binomial, Pascal y Poisson
Formula de De-Moivre-Laplace
P [k1 k k2 ] = z

k2 + 0,5 np
p
np(i p)

Donde z es una funci


on de densidad normal est
andar.

k1 0,5 np
p
np(i p)

En el caso de una variable aleatoria, binomial k para n intentos con probabilidad de exito p se puede
utilizar la formula de DeMoivre-Laplace (deriva de la Distribucion Bernoulli) PX (x) = p(1 p)n .

14

Captulo 4

Procesos de Renovaci
on
y Cadenas de Markov
4.1.

Cadenas discretas de markov

Un proceso markov es una secuencia de variables aleatorias X(t) indexadas en el tiempo continuot 0 o
en e tiempo discreto t Z + con memoria de corto plazo o propiedad de markov, la propiedad de markov nos
indica:
P(Xk+1 /Xk ) = P(Xk+1 /X0 , X1 . . . , Xk )
(4.1)
Es decir la probabilidad condicional en el instante k+1, depende solamente del instante presente k y no de
toda la historia del proceso
El conjunto de todos los estados en los que podra encontrarse el proceso markov se denomina espacio de estado y puede representarse mediante un diagrama de estados.

La probabilidad condicional de que el proceso se encuentre


en el estado j dado que en un instante anterior se encontraba
en el estado i, se denota por:

P(xk+1 = j/xk = i) = Pij

Figura 4.1: Se tiene 4 estados y

y se llama probabilidad de transicion de un paso. Estas probabilidades son estacionarias si se cumple que
P(Xk+1 = j/Xk = i) = P(X1 = j/X0 = i),

atravez de la duraci
on del proceso
se puede pasar de un estado a otro
de la forma que se indica en el diagrama

k0

y se muestran o indican en una matriz llamada matriz de transici


on de un paso P que debe cumplir
las siguientes propiedades:
0 pij 1
(4.2)
X
Pij = 1
(4.3)
i

Ejemplo.
P00
P = P10
P20

P01
P11
P21


P02
0,2
P12 = 0,4
P22
0,3

0,3 0,5
0,5 0,1
0,6 0,1

0,3
0,2

0,5

0,4
0,6
0,5

Podemos expresar esta informaci


on tambien
en el diagrama de estados

0,1

0,3

2
0,1

15

El proceso markov se encontrar


a en el instante inicial en un cierto estado, que se representar
a por el
vector
(0) (0) (0)
A(0) = [a0 a1 a2 . . . a(0)
n ]
la probabilidad no condicional de que el proceso se encuentre en el estado i en el tiempo t=n es:
A(n) = A(n1) P = A(0) P (n)

4.1.1.

(4.4)

Ecuaci
on de Chapman-Kolmogorov
Las probabilidades de transicion cumplen con las
ecuaciones de Chapman-Kolmogorov:

0,1

1
0,3

Pi j (n) =
2

n
X

(v)

(nv)

Pil Plj

l=0

(4.5)

para el ejemplo de la figura


(2)

0,6

P31 = (0,6 0,3) + (P30 0,1) + (P34 P41 )


3

0,3
1

otro ejemplo:

2
0,7

0,2
(2)

P02 = (0,2 0,3) + (0,6 0,7) + (0,2 0,4)

0,6

0,4

3
0,2
4

4.2.

Clasificaci
on de estados y cadenas

El tiempo (numero de pasos) necesarios para que el proceso vaya por primera vez del estado i al estado
j se llama primer tiempo de paso y en caso de que i=j se llama primer tiempo de recurrencia
Estos tiempos seran variables aleatorias con distribuci
on
(1)

fij

(2)

fij

(3)

fij

(1)

= Pij = Pij
(2)

(1)

(3)

(1)

(n)

(1)

= Pij Pij Pij


= Pij fij Pij
..
.

(n)

fij
(n)

(n1)

= Pij fij Pjj

(2)

(n2)

fij Pjj

(n1)

. . . fij

Pjj

Donde fij es la probabilidad de que el primer tiempo de paso de i a j sea igual a n pasos

16

ETN 806 Procesos Estoc


asticos

P
(n)
= 1 el estado i se denomina recurrente. Puesto que una vez que el proceso
Cuando i = j
n=1 fii
esta en el estado i siempre regresara al mismo estado.
Si Pij = 1 para un estado i ese estado se llama estado absorbente
i

P
(n)
< 1 Puesto que hay una probabilidad
El estado i se llama transitorio si se cumple que
n=1 fii
positiva de que el proceso nunca regrese a ese estado.
El estado es peri
odico si solo es posible un retorno a ese estado en , 2, 3, . . . numero de pasos.
0

n
Un estado j se denomina Accesibles desde el estado i si Pij
> 0 para alg
un n. Si el estado j es accesible
desde i y el estado i es accesible desde j entonces se dice que los estados se comunican.
0

Una clase es un conjunto de estados que se comunican. Un proceso de markov puede tener una o mas
clasesa) . Si este solo tiene una clase, la cadena de Markov es Irreducible b) .

A0
1

A1

a)

B0

A2

b)

B1

Ejemplo.Analizar para lo casos donde P31 = 0 y P31 6= 0 respectivamente.


0

P31

2
Para el caso en que P31 = 0 tenemos dos clases C1 = {0, 1, 2}
C2 = {3, 4}
y para el caso donde P31 > 0 existe una u
nica clase C = {0, 1, 2, 3, 4}
17

Un estado es ergodico si es recurrente positivo y no periodico. Una cadena de markov es ergodica si es


irreducible y todos sus estados son ergodicos.
Un estado es recurrente positivo cuando una vez que se esta en ese estado se puede volver despues de
un tiempo finito.
Un estado es recurrente nulo cuando se puede volver al estado despues de un tiempo infinito, el camino
es muy complejo y largo.

4.2.1.

Probabilidades de estado estacionario

Para que una cadena de Markov ergodica se cumple que:


(n)

(n)

lm Pij = lm aj
n

= Pj

Pj se llaman probabilidades de estado estable o estacionario y cumplen:


a)Pj > 0

donde:

P
b) m
j=0 Pj = 1
c)Pj 0

4.3.

Pm

i=0

Pj = P (n) |n

Pi Pij

(4.6)

Para hallar la matriz de probabilidades estables o


estacionarias se realiza la operaci
on hasta encontrar
un valor estable.

Procesos de nacimiento-muerte y sistemas de colas

Un proceso de nacimiento muerte es un proceso de markov en el que solo solo son posibles transiciones
entre estados adyacentes.
0

1
1

2
2

3
3

Una transicion de i a i + 1 se llama nacimiento


Una transicion de i a i 1 se llama muerte

4.3.1.

Sistema de colas

Proceso de nacimiento-muerte en el que la poblacion es un conjunto de clientes.


Las probabilidades de estado estacionario est
an dadas por:

y deben cumplir que

Pi1 i1 = Pi i
i

Pi = 1

Notacion: sistema de colas A/D/n/m


A
D
n
m

tipo de proceso llegada


tipo de proceso de servicio
numero de servidores
cantidad de clientes

La cantidad de clientes en la cola es un determinado momento es una variable aleatoria


18

ETN 806 Procesos Estoc


asticos

Ejemplo.El sistema de colas M/M/1 constituye un proceso Poisson de tasa independiente requerimientos servicio
clientes el tiempo de servicio a un cliente es una variable aleatoria exponencial con tasa independiente del
estado del sistema dibuje el diagrama de estados y encuentre la probabilidad de estado estacionario.

M/M/1 nos indica lo siguiente

M: proceso sin memoria para ambos casos


1: un servidor

Pi1 = Pi P =

Pi1

Definimos el parametro = / que es la carga de la cola, entonces


Pi = Pi1

P1
P2
Pi

= P0
= P 1 = P 0 = 2 P 0
..
.
= i P 0

Sabemos que
X
i

Pi = 1

P0 + P1 + P2 + P3 + . . . = 1
P0 P0 + 2 P0 + 3 P3 + . . .

P0 ( + 2 + 3 + . . .) = 1
1
P
=1
1
P0 = 1

Si < 1

finalmente
Pi = i (1 )

(4.7)

Si > 1 no existen probabilidades de estado estacionario (esto se traduce en que la tasa de llegadas es
mas alta que la tasa de servicio)
Cual es la probabilidad de que existan 3 clientes es una cola con = 0,6?
Respuesta: P3 = (0,6)3 (1 0,6) P3 = 0,086

19

20

Captulo 5

Procesamiento de Se
nales Aleatorias
5.1.

Filtrado lineal

Si x(t) es un proceso estoc


astico la salida y(t) tambien es un proceso estoc
astico dado por:

SISTEMA
LINEAL

x(t)

y(t) =

y(t)

h( )x(t )d

(5.1)

Donde h(t) es la respuesta al impulso del sistema.


Para caracterizar el proceso estoc
astico calculamos
Valor medio
Varianza
Correlaci
on
El valor medio esta dado por:
y = x

h(t)dt = x H(0)

(5.2)

Donde H(f ) es la funci


on de transferencia del sistema (transformada de fourier F {h(t)})
La funci
on de autocorrelaci
on estar
a dada por:
Z
Z
h(u)
RY ( ) =

5.2.

h(v)Rx ( + u v)dvdu

(5.3)

Densidad espectral de potencia

La densidad espectral de potencia del proceso estoc


astico x(t) estacionario en amplio sentido esta dado
por
Sx (f ) =
Esta funci
on tiene las siguientes propiedades:
a) E[x2 (t)] = RX (0) =
b) Sx (f ) = Sx (f )

Sx (f )df

RX ( )ej2f d

Potencia Promedio
Simetria

21

(5.4)

Si x(t) es la entrada a un filtro LIT (Lineal e Invariante en el Tiempo) entonces


Sy (f ) = |H(f )|2 Sx (f )

(5.5)

Si suponemos que la respuesta de frecuencia del filtro es la que se muestra en la figura


|H(f )|

f0

E[y 2 (t)]
E[y 2 (t)]

f0

Sy (f )df =

f0 + B
2
f0 B
2

Sx (f )df +

f0 + B
2

f0 B
2

Sx (f )df

2BSx (f0 )

Asumiendo un ancho de banda B angosto y considerando la simetra de Sx (f )


Ejemplo.Un proceso estacionario en amplio sentido x(t) con funci
on de autocorrelaci
on RX ( ) = eb| | es la
entrada a un filtro RC con respuesta al impulso:
 t/RC
e
;
t0
h(t) =
0
; otro caso
a) Asumiendo que b > 0yb 6= 1/RC encontrar la densidad espectral de potencia Sy (f )
b) Determinar la funci
on de autocorrelaci
on Ry ( ) de la salida del filtro.
c) Cual es la potencia promedio del proceso estoc
astico de salida E[y 2 (t)]?
Por simplicidad considere a = 1/RC.
Soluci
on.a) Sabemos que Sy (f ) = |H(f )|2 Sx (f ) entonces caculamos H(f ) y Sx (f )
H(f ) =
H(f ) =

h(t)e

j2f t

ahora Sx (f ) =

eat ej2f t dt

(a+j2f )t

H(f ) =

dt =

1
a + j2f



1
(a+j2f )t
e
dt =

a + j2f
0
|H(f )|2 =

a2

1
+ (2f )2

Rx ( )ej2f d Y Rx ( ) = eb| | entonces:


Sx (f ) =

Sx (f ) =

b j2f

e e

d +

eb ej2f d

(bj2f )

d +

e(b+j2f ) d


0


1
1
(bj2f )
(b+j2f )

e
e
d
Sx (f ) =

b j2f
b + j2f
0

Sx (f ) =

22

1
1
[e0 e ]
[e e0 ]
b j2f
b + j2f

ETN 806 Procesos Estoc


asticos

Sx (f ) =
por lo tanto

1
2b
1
+
= 2
b j2f
b + j2f
b + (2f )2

Sy (f ) =

a2

1
2b
2
2
+ (2f ) b + (2f )2

b) Ry ( ) es la transformada inversa de fourier de Sy (f ), Escribimos Sy (f ) como:


2b/(b2 a2 ) 2b/(b2 a2 )
2
a2 + (2f )2
b + (2f )2

Sy (f ) =
para cualquier constante c > 0, ec| | y

2c
c2 +(2f )2

Ry ( ) =

son pares de transformadas, entonces:

b/a a| |
1
e
2
eb| |
2
a
b a2

b2

c)
E[Y 2 (t)] = Ry (0) =

5.3.

b/a 1
ba
1
=
=
b 2 a2
a(b2 a2 )
a(b + a)

Proceso poisson compuesto

Teorema.- Sean N1 (t), N2 (t) procesos poisson independientes de tasas 1 y 2 , el proceso de conteo
N (t) = N1 (t) + N2 (t) en un proceso de conteo de tasa = 1 + 2
Ejemplo.Los camiones y autobuses llegan a una terminal como procesos poisson independientes con tasa c = 0,9
cami
on/min y a = 0,7 autobuses/min en un intervalo de 10 minutos cual es distribuci
on de probabilidad
N que representa el numero de vehculos que llegan?
Soluci
on.PN(t) (n) =?

= a +c = 0,9 + 0,7 = 1,6

N: numero de vehculos que llegan

y T = 10 [min], entonces

Poisson =

(T )n T
n! e

; n = 0, 1, 2 . . .
;
otro caso

PN (t)n =

16n 16
n! e

vehculos
min

; n = 0, 1, 2 . . .
;
otro caso

Teorema.- Los procesos de conteo N1 (t) y N2 (t) derivados de una descomposicion bernoulli del proceso
poisson N (t) son procesos poisson independientes con tasa p y (1 p0)
Ejemplo.Un servidor web recibe visitas a una pagina como un proceso poisson de tasa = 10[visitas/seg]. La
visita puede ser interna con probabilidad 0.7 o ser externa con probabilidad 0.3 sobre un intervalo de 10 minutos cual sera la la distribuci
on de probabilidad conjunta de i visitas internas y x visitas externas PI,X (i, x)?
Soluci
on.la tasa de visitas: = 10 visitas
seg
visita interna: pi = 0,7
visita externa: px = 0,3
intervalo: T = 10min = 600seg

tasa de visitas internas


i = pi = 10 0,7 = 7 visitas
seg
tasa de visitas externas
i = px = 10 0,3 = 3 visitas
seg

23

Como son procesos poisson independientes entonces


PI,X (i, x) = PI (i) PX (x)
las distribuciones para cada variable estan dadas
por:
(
(i T )i i T
; i = 0, 1, 2 . . .
i! e
PI (i) =
0
;
otro caso

PX (x) =

(x T )x x T
e
x!

4200i 4200
i! e

PX (x) =

1800x 1800
x! e

; i = 0, 1, 2 . . .
;
otro caso

; x = 0, 1, 2 . . .
;
otro caso

entonces, la distribuci
on conjunta

PI,X (i, x) =

PI,X (i, x) =

; x = 0, 1, 2 . . .
;
otro caso

con i = i T = 7 600 = 4200 y x = x T =


3 600 = 1800 las distribuciones seran

5.4.

PI (i) =

Procesos estoc
asticos gausianos

4200i 4200 1800x 1800


i! e
x! e

i = 0, 1, 2 . . .
x = 0, 1, 2 . . .

otro caso

4200i 1800x 6000


e
i!x!

i = 0, 1, 2 . . .
x = 0, 1, 2 . . .

otro caso

Un proceso estoc
astico gausiano es aquel en el cual cada colecci
on de variables aleatorias {xt1 , xt2 , xt1 , . . . xtk }
tiene funci
on de densidad de distribuci
on gausiana o normal multivariable descrita por:
El valor x = [k (t1 ), k (t2 ), k (t3 ), . . . , k (tk )]T
La matriz de covarianza C, con componentes
Cij = CX (ti , tj ti ) = RX (ti , tj ti ) x (ti )x (tj )
FX(t1 )...X(tk ) (x1 , x2 , . . . xk ) =
donde |C| es el determinate de C

(2)k/2 |C|1/2

e 2 (xx )

C 1 (xx )

X = [X1 , X2 , X3 , . . . Xk , ]
cuando X(ti ) son mutuamente independientes

Var[X(ti )]
Cij =
0

; i=j
; i=
6 j

entonces C es diagonal y tenemos


FX(t1 )...X(tk ) (x1 , x2 , . . . xk ) = fX(t1 ) (x1 ) fX(t2 ) (x2 ) . . . fX(tk ) (xk )
donde X(ti ) tiene unaa funcion de distribuci
on gausiana
X N (x , x2 )
2

1
1 (xx )
e 2 x2
fX (x) =
2x

24

You might also like