Professional Documents
Culture Documents
Cadeias de Markov
Introduo
Processos Estocsticos Processos que evoluem no tempo de maneira probabilstica.
Processos Estocsticos (formal) coleo de variveis randmicas (X(t)) indexadas
por um parmetro t, com t T. X(t) representa o estado do sistema no parmetro
(tempo) t. Portanto, X(t) definido em um espao denominado Espao de Estados.
Classificao em relao ao Estado
Estado Discreto (cadeia): X(t) definido sobre um conjunto enumervel ou finito
Estado Contnuo (seqncia): X(t) caso contrrio
Classificao em relao ao Tempo (Parmetro)
Tempo Discreto: t finito ou enumervel
Tempo Contnuo: t caso contrrio
Exemplos
1) Nmero de usurios em uma fila em um determinado instante: Estado Discreto e
Tempo Contnuo.
2) ndice pluviomtrico dirio: Estado Contnuo e Tempo Discreto.
3) Nmero de dias chuvosos: Estado Discreto e Tempo Discreto.
Fernando Nogueira
Cadeias de Markov
Processos Markovianos
Um Processo Estocstico dito ser um Processo Markoviano se:
e toda seqncia
k 0 , k1 ,..., k t 1 , k t , k t 1
Probabilidade de Transio P X (k 1) x k 1 X (k ) x k
Probabilidade de Transio dita Estacionria se:
PX(k 1) x k 1 X(k ) x k PX(1) x 1 X(0) x 0
p ij( n ) PX (k n ) j X(k ) i
n
Notao simplificada
p 00n
n
p
P n 10
...
n
p M 0
Cadeias de Markov
p 01n
n
p11
...
p Mn1
... p 0nM
... p 1 nM
...
...
n
... p MM
Exemplo 1
O estado no ano de 1993 do uso da terra em uma cidade de 50 Km2 de rea :
Vetor de Estados
x I II III
Matriz de Transio
0.8 0.1 0.1
P 0.1 0.7 0.2
0.0 0.1 0.9
Fernando Nogueira
Cadeias de Markov
p
p
P
.
P
P
ij
ik kj
qualquer m = 1, 2, ..., n-1
k 0
notao matricial
qualquer n = m+1, m+2, ....
Classificao de Estados em Cadeias de Markov
n
Estado Alcanvel j alcanvel a partir de i se p ij 0 para algum n 0
1 p
2
3
p 0
1 p 0 p
0
0
0 1
n
2 no alcanvel a partir de 3 p 32 0, n 0
Cadeias de Markov
Estado
0
1
P 2
3
4
0
1
4
1
2
0
0
1
1
3
2
0
0
0
2
0
3
0
4
0
0
1
1
3
0
0
0
2
3
0
1
0 1
0
recorrentes aperidicos so
1
2
2
P
1
2
0 p
0
chamados
de
estados
2 12 0
3
1
1
0 1
0
0
Ergdicos. Uma Cadeia de
2
2
Estado 0
1
0
0
1
1 p
1
0
P
0 1 p
2
3
0
0
2 3
0 0
p 0
Fernando Nogueira
Estado
Cadeias de Markov
P
0.264 0.368 0.368
0
8
P
0.286
0.286
0.285
0.285
0.285
0.285
0.264
0.264
0.264
0.264
0.166
0.166
0.166
0.166
0.249
0.283
2
P
0.351
0.249
0.286
0.286
0.286
0.286
P 4
0 .P
0.286 0.285 0.263 0.166
para qualquer 0
j i p ij para j = 0, 1, 2, . . ., M
M
i 0
j
para j = 0, 1, 2, . . ., M
.P
0
0 0 p 00 1 p10 2 p 20 3 p 30
0 0 0.080 1 1 0.632 2 0.264 3 0.080
0.286
p p p p
0 0.184 0.368 1 0.368 0.184
0 01
1 11
2 21
3 31
0
1
2
3
1
0 0 0.368 2 0.368 1 3 0.368
2 0 p 02 1 p12 2 p 22 3 p 32
()
P
p p p p
0 0 0.368 3 0.368 1
0 03
1 13
2 23
3 33
3
1 0 1 2 3
1 0 1 2 3
Fernando Nogueira
Cadeias de Markov
j 0
existir.
M
1 n
2 se X 1
t
C X t
8 se X t 2
18 se X t 3
lim E
n
1 se X t j
0 se X t j
Se C X t
C X
t 1
k j
ik kj
f ij n p ik f kj n 1
k j
1 p 0.080
f 30
30
Fernando Nogueira
Cadeias de Markov
f
n 1
ij
n
n
f
f
a distribuio de probabilidade para a varivel aleatria Tempo
ij
ij
de Primeira Passagem
n 1
ij
nf ij n
n 1
se
se
n
f ij 1
n 1
n
f ij 1
n 1
Sempre quando
f
n 1
ij
1 ij unicamente satisfaz
ij 1 p ik kj
k j
Cadeias de Markov
22
1
3.80 semanas
2
33
1
6.02 semanas
3
n
f
ii 1 ii Transiente
n 0
n
f
ii 1 Re corrente
n 0
Estados Absorventes
fik probabilidade de absoro para o estado k dado que o sistema iniciou no estado i.
Seja k um estado absorvente, ento o conjunto de probabilidades de absoro f ik
satisfaz
M o seguinte sistema de equaes:
f ik p ij f jk
Exemplo: f20 e f24 ?
j 0
sujeito a:
f kk 1
f ik 0 se i recorrente e i k
0
1
P 2
3
4
1
2
3
0
0
0
0
2
3
0
0
1
3
0
2
3
0
0
0
1
3
0
0
0
0
0
1
3
1
f 20 p 20 f 00 p 21f 10 p 22 f 20 p 23 f 30 p 24 f 40
f p f p f p f p f p f
30 00
31 10
32 20
33 30
34 40
30
Fernando Nogueira
Cadeias de Markov
4
5
1
f 20
f 24
10