Professional Documents
Culture Documents
OPERATIVA II
CADENAS DE MARKOV
2014
INTRODUCCION
Las cadenas de Markov son modelos probabilsticos que se usan para predecir
la evolucin y el comportamiento a corto y a largo plazo de determinados
sistemas.
Ejemplos:
-Reparto del mercado entre marcas.
-Dinmica de las averas de mquinas para decidir poltica de mantenimiento
-Evolucin de una enfermedad.
DEFINICIONES BSICAS
Propiedad Markoviana (Independencia Condicional)
El estado futuro del sistema depende de su trayectoria pasada solo a
travs del presente:
Pij = Pr{ Xn+1=j / X0=i0, X1=i1, Xn-1= in-1, Xn=i} = Pr{ Xn+1 = j / Xn = i}
Por tanto:
Pij = Pr{ Xn+1=j / Xn=i } para todo n=0, 1, .
Llamaremos Pij la probabilidad de transicin de estar en el estado j en
el momento n+1, conocidos los estados anteriores.
Ejemplo
Maana llover( estado j), dado que hoy est nublado (estado i).
Maana cortarn la energa elctrica en el sector dado que hoy
derribaron un poste en el sector.
La mquina MM3 maana estar detenida dado que hoy fall.
EJEMPLO:
Consideremos que en un locutorio telefnico con 3 lneas de telfono, en un instante de
tiempo dado, puede haber un nmero cualquiera de las lneas ocupadas. Durante un
perodo de tiempo se observan las lneas telefnicas a intervalos de 2 minutos y se anota
el nmero de lneas ocupadas en cada instante.
EJEMPLO:
Consideremos que en un locutorio telefnico con 3 lneas de telfono, en un instante de
tiempo dado, puede haber un nmero cualquiera de las lneas ocupadas. Durante un
perodo de tiempo se observan las lneas telefnicas a intervalos de 2 minutos y se anota
el nmero de lneas ocupadas en cada instante.
-Sea Xo la v.a. que representa el nmero de lneas ocupadas al principio del perodo.
-Sea X1 la v.a. que representa el nmero de lneas ocupadas cuando se observa en el
segundo instante de tiempo, 2 minutos ms tarde.
- En general Xn es una v.a. que representa el nmero de lneas ocupadas cuando se
observan en el instante de tiempo n-simo.
El estado del proceso en cualquier instante de tiempo es el nmero de lneas que estn
siendo utilizadas en ese instante.
Un proceso estocstico como el que acabamos de describir se llama proceso de
parmetro discreto, ya que las lneas se observan en puntos discretos a lo largo del
tiempo.
Para que este proceso estocstico del nmero de lneas ocupadas sea
una cadena de Markov es necesario que la probabilidad de cada posible
nmero de lneas ocupadas en cualquier instante de tiempo dependa
solamente del nmero de lneas ocupadas 2 minutos antes.
DEFINICIONES BSICAS
Propiedad de estacionalidad
La probabilidad del estado futuro depende del valor del estado presente,
pero no de la etapa en que nos encontramos, es decir, no depende de n.
La probabilidad de transicin no cambia en el tiempo.
Pij = Pr{ Xn+1=j / Xn=i} = Pr{ Xn+m+1=j / Xn+m=i}
Definicin 5:
Sea {Xn = 0,1,2,.n} un proceso estocstico con la propiedad markoviana
y con la propiedad de estacionalidad, entonces este proceso se denomina
cadena de Markov en tiempo discreto.
Ejemplo
DEFINICIONES BSICAS
P = ( Pij ) = matriz de probabilidades de transicin en una etapa.
P00
P
10
P ( Pij ) .
Pn 0
P01
..
... P0m
P1m
...
Pmm
Propiedades de la matriz P:
Tiempo n+1
Estado 0
Tiempo
n
Estado 1
Estado 2
Estado 3
=1
Estado 0
0,20
0,65
0,15
Estado 1
0,60
0,40
Estado 2
0,15
0,15
0,30
0,40
=1
Estado 3
=1
=1
DIAGRAMA DE TRANSICIN:
La sucesin de elecciones que forman una cadena de Markov, pueden representarse
grficamente utilizando un diagrama de transicin de la siguiente manera:
Consideremos una sucesin de elecciones polticas en un pas, si slo hay dos partidos polticos fuertes,
llamados A y B, los que por lo regular controlan el gobierno, entonces podemos decir que el pas se
encuentra en el estado A B, si el partido A o B ganara la eleccin. Supongamos que las probabilidades
de que el partido A o B ganen la prxima eleccin son determinadas por completo por el partido que est
en el poder ahora, podramos tener las probabilidades siguientes:
Si el partido A est en el poder, existe una probabilidad de que el partido A gane la prxima eleccin y
una probabilidad de de que el partido B gane la eleccin siguiente.
Si el partido B est en el poder, hay una probabilidad de 1/3 que el partido A gane la eleccin siguiente y
una probabilidad de 2/3 que el partido B permanezca en el poder.
1/4
3/4
A
2/3
B
1/3
EJEMPLO 1.
En un pueblito el clima puede cambiar de un da para otro, considere slo dos estados del
tiempo clima seco hmedo. La probabilidad de tener un clima seco al da siguiente es de
0.8 si el da actual es seco, pero si el clima es hmedo la probabilidad de tener un clima
seco es de 0.6. Suponga que dichos valores no han cambiado en el tiempo, se pide
determinar: a) La matriz de transicin b) El diagrama de transicin
Solucin:
Definimos la variable: Xn= Estado del clima
Estado 0: Clima Seco
P 00 = P(Xt+1 = 0 / Xt = 0) = 0.8
P 01 = P(Xt+1 = 1/ Xt = 0) = 0.2
P 10 = P(Xt+1 = 0/ Xt = 1) = 0.6
P 11 = P(Xt+1 = 1/ Xt = 1) = 0.4
a) Matriz de transicin:
Pij = P00 P01
P
P
10
11
0.8 0.2
0.6 0.4
b) El diagrama de transicin:
0.8
0.2
0
0.4
1
0.6
EJEMPLO 2.
Segn el cuento, en la Tierra de Oz nunca hay dos das buenos en sucesin.
Despus de un da con buen tiempo, le sigue (con igual probabilidad) un da
con lluvia o nieve. Del mismo modo, si nieva (o llueve), el da siguiente nevara
(o llover) con probabilidad 1/2, pero si cambia el tiempo solo la mitad de las
veces ser un lindo da.
a) Determinar las probabilidades de transicin del sistema.
Solucin.
Sean los siguientes estados:
(0) = Buen Da
(1) = Da con lluvia
(2) = Da con nieve
0,5
0,5
1
0,25
0
0,25
0,5
0,25
0,25
0,5
0
Pij = 1
2
P12
Conocer las
probabilidades
Construir la matriz de
una etapa.
Construir el diagrama
1-a
a
1
No
lluev
e
0
lluev
e
1- b
EJERCICIO:
Construya la matriz de probabilidades.
Solucin
i
k
Etapa m
Etapa m+r
j
Etapa m+n
ntonces:
Entonces:
(n)
Entonces:
(n)
(r) (n-r)
= P = P P = matriz de transicin en n etapas
Pij
(n)
(n)
=P
(r)
(n-r)
=P P
Matriz dede
transicin
de nen
etapas
Entonces:
= matriz
transicin
n etapas
P (n)
(n)
)
transicin
de una
n_sima
potencia
de en
P n etapas, se puede determina
yP
P, y se obtiene laUna
matriz de
transicin
... ...
P0(Mnetapa,
elevarla
n veces.
00
y elevarla n veces.
(n)
(n)
.
.
(n)
(n)
P00 ... ... P0 M
P
...
...
P
00
0
M
.
.
.
.
(n)
.
.
P ((nn))
(n)
.
.
P0 M ... .... PMM
(n)
En el ejemplo
del tiempo
en la Tierra de OZ, las probabilidades de transicin en dos etapas
(n+m)
(n) (m)
P
=P P
son:
El producto
0
1de dos
2 matrices de Markov siempre es una matriz de Mark
0
Pij = 1
2
Pij( 2 )
EJEMPLO:
Una multi-tienda tiene un modelo especial de cmaras fotogrficas que puede
ordenar cada semana.
Sean D1, D2, ..Dn, las demandas durante la primera, segunda y n-sima
semana respectivamente. (se supone que las Di son v.a. que tienen una
distribucin de probabilidad conocida)
X0 : nmero de cmaras que se tiene al iniciar el proceso. Suponga que X0=0
X1 : nmero de cmaras que se tiene al final de la semana 1
X2 : nmero de cmaras que se tiene al final de la semana 2
Xn : nmero de cmaras que se tiene al final de la semana n
Suponga que la multitienda utiliza una poltica de pedidos (s,S), es decir
siempre que el nivel de inventario sea menor que s, se ordenan hasta S
unidades (S>s). Si el nivel de inventario es mayor o igual, no se ordena. Se
tiene: s=1; S=3
si Xt < 1
si Xt 1
Xt+1 =
0.080
0.632
P
0.264
0.080
P ( 2)
0.249
0.283
0.351
0.249
( 4)
La matriz de transicin de 4 pasos es: P
La Probabilidad es
0.289
0.282
0.284
0.289
f (n )
PX n 0
PX 1 f 0( n )
n
(n )
f1
f ( n )
PX j j
n
f j( n ) Pij( n )f i( 0 )
i
(n )
(n ) T ( 0)
n T ( 0)
Ejemplo.
Modelo para el desplazamiento poblacional
Para efectos de una investigacin, en un determinado pas, una familia
puede clasificarse como habitante de zona urbana, rural o suburbana.
Se ha estimado que durante un ao cualquiera, el 15% de todas las familias
urbanas se cambian a zona suburbana y el 5% a zona rural. El 6% de las
familias suburbanas pasan a zona urbana y el 4% a zona rural. El 4% de las
familias rurales pasan a zona urbana y el 6% a zona suburbana.
Supongamos que al inicio de la investigacin, el 35% de la poblacin viva en
reas urbanas, el 45% en rea suburbana, y el resto en rea rural.
a)Si
1: Zona rural
2: Zona suburbana
0
1
2
Calcular P3
0,540 0,125 0,335
Multiplicar f0 * Pn . Interpretar.
Respuestas:
a)
b)
i
j
T(i,j)= tiempo que transcurre para ir del estado i al j por primera vez:
Pr{T(i,j)=k} = Pr{X1 j, X2 j, Xk-1 j Xk=j / X0= i} = Fk(i,j)
Si k=1
Si k 1
FK (i , j ) PiLFK 1(L, j )
L j
F (i, j )
F
k 1
(i, j )
F (i, j ) Pi , j Pil F (l , j )
l j
Tiempo Medio
Ejercicio:
Supongamos una cadena de Markov con tres estados. Se desea determinar
la probabilidad de ir del estado 1 al 2 por primera vez en 3 etapas.
Solucin ejercicio:
L 1
L2
L 1
L2
En general, una condicin suficiente para todos los estados sean accesibles es
que exista un valor de n para el que Pij(n)>0 para todo i y j
Ejemplo:
0
1
1 p
0
0
1 p
0
0
0
p
0
0
0
0
p
Definicin:
Si el estado j es accesible desde el estado i, y el estado i es accesible desde el
estado j, entonces se dice que los estados i y j se comunican.
Propiedades de la comunicacin
Ejemplo:
1 / 2 1 / 2 0
P 1 / 2 1 / 4 1 / 4 solo hay una clase
0 1 / 3 2 / 3
0
1 / 2 1 / 2 0
1 / 2 1 / 2 0
P
1 / 4 1 / 4 1 / 4 1 / 4
0
0
0
1
Definicin 8: Sea F(i,i) la probabilidad de retornar al estado i, alguna vez, dado que se
comienza en el estado i.
EJEMPLO:
1
3
0
2
Estado (0) = Estado Recurrente (Absorbente): porque una vez que el proceso
entra al estado nunca saldr de l. (Fii=1)
Estado (1) = Estado Transitorio: porque una vez que el proceso se encuentra en
el estado 1, existe una probabilidad que nunca podr regresar. (Fii=0)
Estado (2) y (3) = Estados Recurrentes: Una vez que se sale de l, existe
certeza de volver alguna vez. (Fii=1)
Propiedades:
En una matriz de Markov de nmero finito de estados no todos pueden ser
transitorios.
Si i es recurrente y adems i se comunica con j, entonces j es recurrente.
Si i es transitorio y adems i comunica con j, entonces j es transitorio.
Todos los estados de una cadena de Markov de estado finito irreducible son
recurrentes.
Por tanto:
- Una clase es recurrente si no se puede salir de ella
- Una clase es transitoria si se puede salir de ella y no hay forma de
regresar.
EJEMPLO.
Clase Recurrente
(Absorbente)
Clase Transitoria
Clase Recurrente
1
0
2
EJEMPLO APERIDICO:
1
3
0
2
Periodicidad
3
2
Ejemplos
0
La siguiente CM es irreducible,
aperidica, y por lo tanto
ergdica.
2
0
Ejemplos
CM irreducible, recurrente
y peridica de periodo
3. No ergdica
.
lim Pij( n )
lim P
n
1
j
0
E (T ( j , j ))
donde:
M
j i Pij
i 0
j 0
j=0,1,2M
[T ] * P
i 0
P11
P
(1 , 2 ,...... n ) (1 , 2 ,... n ) 21
Pn1
P12
P22
Pn 2
... P1n
... P2 n
Pnn
Ejemplo 1:
La matriz de transicin P, representa las probabilidades de transicin en una
etapa, de la rotacin de clientes entre 3 supermercados (1,2,3) de un mes a
otro.
= [ 1 2 3] , T=
[T ] * P
Resolviendo el sistema:
= [ 1, 2, 3] *
Ejemplo 2:
Del ejercicio de inventario de las cmaras, la matriz de transicin de 4 pasos es:
P ( 4)
0.289
0.282
0.284
0.289
Si calculamos
P (8)
0.285
0.285
1 0 1 2 3 1
[T ] * P
0 0.080
0.632
1*
2 0.264
3 0.080
0 0,285
2 0,264
1 0,285
3 0,166
El costo promedio esperado por unidad de tiempo (a la larga), est dado por:
j 0
C ( j)
1 n
lim E C ( X i )
n
n i 1
Ejemplo 1:
Considere el problema de inventario de cmaras y suponga que la tienda de
cmaras encuentra que se debe asignar un cargo por almacenamiento por cada
cmara que permanece en la tienda al final de la semana. El costo se carga
como sigue:
C (x
si
X1 = 0
si
X1 = 1
si
X1 = 2
18
P (8)
0.285
0.285
0.285
0.285
si X1 = 3
1 n
lim E C ( X i )
n
n i 1
Ejemplo 2:
Una empresa utiliza camiones para el transporte de materiales y
escombros. Se sabe que el problema ms comn de los camiones es
que se les obstruye el filtro de aire.
El filtro puede estar limpio, parcialmente obstruido o completamente
obstruido. El costo de reparacin de un camin con filtro obstruido
totalmente es M$120/ da. La probabilidad de tener problemas se
encuentran en la matriz siguiente:
0 ,1 0 ,8 0 ,1
0 0 ,5 0 ,5
P
1 0
0
Solucin:
Estados posibles: 0= limpio; 1= parcialmente obstruido; 2= obstruido
Calculo de probabilidad de estado estable j, j=0,1,2.
0= 0,286
1= 0,457
2= 0,257.25,7% de las veces filtro del camin estar
obstruido.
Costo de mantenimiento correctivo: 0,257 * 120= M$ 30,84/da.
Solucin:
0= 0,53
1= 0,42 ..42% de las veces
preventivo.
2= 0,05
j 0
C ( j)
Estados absorbentes
El estado k se llama estado absorbente si Pkk=1, de manera que una vez que la
cadena llega al estado k, permanece ah para siempre.
Si k es un estado absorbente y el proceso comienza en el estado i, la
probabilidad de llegar en algn momento a k se llama probabilidad de
absorcin al estado k dado que el sistema empez en i, y se denota F(i,k)
Si la cadena de Markov tiene dos o ms estados absorbentes es deseable
encontrar las probabilidades de absorcin. Estas probabilidades se hallan al
resolver un sistema de ecuaciones lineales
M
para i=0,1,2.M
sujeto a
F(k,k)=1
F(i,k)=0
si el estado i es recurrente e ik
0
0
0
1
0.7 0.2 0.1 0
P
0.5 0.1 0.2 0.2
0
0
1
0
0.7
1
0.1
0.1
0.2
2
0.2
0.5
En este caso, los estados absorbentes son los estados (0) y (3). La tienda se
interesa en determinar la probabilidad de que un cliente llegue a ser mala deuda
dado que actualmente es deudor (estado 1 o estado 2).
De esta manera, deben obtenerse las probabilidades F(1,3) y F(2,3)
Re emplazando:
F (1,3) * (1 P11 ) P12 * F (2,3) P13
Re emplazando:
F (2,3) * (1 P22 ) P21 * F (1,3) P23
Re solviendo :
F (1,3) 8 * F (2,3) 2
F (1,3) 0.125 * F (2,3)
8 * F (2,3) 2 0.125 * F (2,3)
F (2,3) * (8 0.125) 2
2
F (2,3)
8 0.125
F (2,3) 0,254
F (1,3) 0,032
Entonces, aproximadamente el 3% de
los clientes que deben entre 1 a 30 das
acaban siendo malos deudores,
mientras que el 25% de los clientes que
deben entre 31 a 60 das llegan a la
misma categora.