Professional Documents
Culture Documents
=
| |
o o
1
1
P
0
1
0 1
Estado 0 : Llover
Estado 1 : No llover
1-16
Ejemplo
Un puerto de telecomunicaciones:
P(error) = p
Estado cero: El bit es 0 Estado uno: El bit es 1
(
=
p p
p p
P
1
1 0
1
0 1
1-17
Cadenas de Markov
Las cadenas de Markov tienen la propiedad
particular de que las probabilidades que describen la
forma en que el proceso evolucionar en el futuro,
dependen slo del estado actual en que se encuentra el
proceso, y por lo tanto, son independientes de los
eventos ocurridos en el pasado.
Futuro
Presente
Pasado
Si
No
Veamos
1-18
Si X
t
= i , se dice que el proceso estocstico est en el
estado i en el tiempo t.
Llamemos P
ij
la probabilidad de estar en el estado j
en el momento t+1, conocidos los estados anteriores
Proceso Markoviano
P
ij
= P {X
t+1
= j / X
0
= k
0
, X
1
= k
1
,..., X
t-1
= k
t-1
,X
t
= i}
P
ij
= P {X
t+1
= j / X
t
= i}
Pasado Presente
1-19
P
ij
= P {X
t+1
= j / X
t
= i}
Probabilidades
condicionales para
cada i y j
P
ij
= P {X
t+1
= j / X
t
= i}= P {X
1
= j / X
0
= i}
para toda t=0,1..
Se llaman probabilidades de transicin .
Si para cada i,j
1-20
P {X
t+n
= j / X
t
= i}= P {X
n
= j / X
0
= i}
para toda t=0,1..
Se dice que las probabilidades de transicin (de
un paso) son estacionarias, es decir no cambian
con el tiempo. Esto tambin implica
Estas probabilidades se denotan P
ij
(n)
y se llaman
probabilidades de transicin de n pasos
1-21
P
ij
(n)
es simplemente la probabilidad condicional de
que la variable aleatoria X, comenzando en el estado i
se encuentre en el estado j despus de n pasos
Propiedades
P
ij
(n)
> 0 para toda i y j; n=0,1,.....
P
ij
(n)
= 1 para toda i ; n=0,1,.....
j = 0
M
La suma de las filas P siempre es 1
1-22
Forma matricial
Se supondr que se conoce un conjunto de
probabilidades iniciales P { X
0
=1} para toda i
(
(
(
=
) ( ) (
0
) (
0
) (
00
) (
n
MM
n
M
n
M
n
n
p p
p p
P
para n=0,1,.....
1-23
Ejemplo
Retomemos el caso de las cmaras que se vena
desarrollando. Observe que {X
t
} es una cadena de
Markov
Recuerde que X
t
es el nmero de cmaras en el almacn
al final de la semana t (antes de recibir el pedido).
Veamos cmo obtener las probabilidades de
transicin de un paso, es decir los elementos de la
matriz de transicin de un paso (n=1)
Veamos
1-24
0
1
2
3
Estados posibles del
sistema
P
00
es la probabilidad
de tener 0 cmaras en
inventario la prxima
semana dado que esta
semana tuve 0
cmaras
(
(
(
(
=
33 32 31 30
23 22 21 20
13 12 11 10
03 02 01 00
p p p p
p p p p
p p p p
p p p p
P
0
1
2
3
0
1 2 3
1-25
Supongamos que cada D
t
tiene una distribucin
Poisson con = 1
Recuerde que D
t
son las demanda
de cmaras en la semana t
Para obtener P
00
es necesario evaluar
P {X
t+1
= 0 / X
t
= 0}
X
t+1
=
Max { ( 3 - D
t+1
) , 0 } si X
t
< 1
Max { ( X
t
- D
t+1
) , 0 } si X
t
> 1
Recuerde
1-26
Si X
t
= 0 X
t+1
= Max { ( 3 - D
t+1
) , 0 }
X
t+1
= 0 indica que la demanda durante
la semana fue de tres o mas cmaras
P
00
= P { D
t+1
> 3 } = 1 - P { D
t+1
s 2 } = 0.08
Recuerde que D
t
tiene una distribucin Poisson
1-27
P
10
nos indica la probabilidad de tener en inventario 0
cmaras la prxima semana dado que sta tuve 1 cmara
P
10
= P {X
t+1
= 0 / X
t
= 1}
Si X
t
= 1 X
t+1
= Max { ( 1 - D
t
) , 0 }
X
t+1
= 0 indica que la demanda durante
la semana fue de 1 o ms cmaras
P
10
= P { D
t+1
> 1 } = 1 - P { D
t+1
= 0 } = 0.632
1-28
P
21
nos indica la probabilidad de tener en inventario 1
cmara la prxima semana dado que esta tuve 2 cmaras
P
21
= P {X
t+1
= 1 / X
t
= 2}
Si X
t
= 2 X
t+1
= Max { ( 2 - D
t
) , 0 }
X
t+1
= 1 indica que la demanda durante
la semana fue exactamente 1 cmara
P
21
= P { D
t+1
= 1 } = 0.368
1-29
(
(
(
(
=
368 . 0 368 . 0 184 . 0 080 . 0
0 368 . 0 368 . 0 264 . 0
0 0 368 . 0 632 . 0
368 . 0 368 . 0 184 . 0 080 . 0
P
Similarmente obtenemos las otras probabilidades
Matriz de transicin de un paso
1-30
Otros ejemplos
Consideremos el mercado de acciones.
Si la accin subi hoy, la probabilidad de que suba
maana es 0.7.
Si la accin baj hoy, la probabilidad de que suba
maana es 0.5.
Cadena de Markov donde los estados son:
Estado 0 La accin sube
Estado 1 La accin baja
1-31
Matriz de transicin
P (accin suba maana / subi hoy) = 0.7
P (accin baje maana / subi hoy) = 0.3
P (accin suba maana / baj hoy) = 0.5
P (accin baje maana / baj hoy) = 0.5
(
=
5 . 0 5 . 0
3 . 0 7 . 0
P
S
B
S B
1-32
Consideremos ahora el mismo mercado de
acciones, slo que el que una accin suba o no
maana, depende de si subi o no hoy y ayer.
Estado 0 La accin subi ayer y hoy
Estado 1 La accin baj ayer y subi hoy
Estado 2 La accin subi ayer y baj hoy
Estado 3 La accin baj ayer y hoy
1-33
P (accin suba maana / subi ayer y hoy ) = 0.9
P (accin suba maana / baj ayer y subi hoy ) = 0.6
P (accin suba maana / subi ayer y baj hoy) = 0.5
P (accin suba maana / baj ayer y hoy) = 0.3
(
(
(
(
=
7 . 0 0 3 . 0 0
5 . 0 0 5 . 0 0
0 4 . 0 0 6 . 0
0 1 . 0 0 9 . 0
P
SS
BS
SB
BB
SS BS SB BB
Ayer
y
hoy
Hoy
y
Maana
1-34
Por ltimo consideremos el ejemplo del jugador.
Suponga que un jugador tiene $1
Su probabilidad de ganar es p, y all gana $1
Su probabilidad de perder es 1- p, y all pierde $1
El juego termina cuando el jugador acumula $3 o
bien cuando quiebra
1-35
Este modelo es una cadena de Markov y sus
estados son:
Estado 0 El jugador est quebrado
Estado 1 El jugador tiene $1
Estado 2 El jugador tiene $ 2
Estado 3 El jugador tiene $ 3
1-36
Matriz de transicin
(
(
(
(
=
1 0 0 0
0 1 0
0 0 1
0 0 0 1
p p
p p
P
$0
$1
$2
$3
$0 $1 $2 $3