You are on page 1of 36

1-1

OBJETIVOS DEL CURSO IO 2


Proporcionar herramientas avanzadas en IO que
le permitan al ingeniero estudiar y planificar
sistemas complejos, en las reas de procesos de
Markov, teora de colas, teora de inventarios y
teora de toma de decisiones.
1-2
PROGRAMA RESUMIDO
1. Procesos de Markov. (diapositivas clases 1 a 6)
2. Teora de colas. (diapositivas clases 7 a 13)
3. Teora de Inventarios (diapositivas clases 14 a 20)
4. Teora de decisiones. (diapositivas clases 21 a 25)
1-3
Programacin de evaluaciones.
1. Procesos de Markov. Examen
2. Teora de colas. Examen
3. Teora de decisiones. Examen
4. Teora de Inventarios. Examen

Los exmenes se realizan en la clase una semana
siguiente a la ltima clase de cada tema.
4 exmenes del 25%
1-4
BIBLIOGRAFIA
Texto Gua.

HILLIER, F.S Y
LIEBERMAN G.J.
Introduccin a la
investigacin de
Operaciones.
6 Ed. Mc Graw Hill.
1997.
1-5
OTRAS REFERENCIAS

DAVIS K Roscoe y MC KEOWN Patrick. Modelos
cuantitativos para administracin. Grupo editorial
Iberoamerica. 2 Ed. 1986.
TAHA HANDY A. Investigacin de operaciones.
Alfaomega. 5 Ed. 1995
Ross Sheldon. Introduction to probability models.
Meyer. Introductory probability and statistical
applications
PRAWDA, Juan. Mtodos y modelos de
Investigacin de operaciones. Limusa.
1-6
Clase # 1
Introduccin a las
Cadenas de Markov
Universidad Nacional de Colombia
Sede Medelln
1-7
Toma de decisiones Incertidumbre
Si se presenta cierta regularidad en los
fenmenos se puede minimizar la
incertidumbre mediante el desarrollo
de modelos probabilsticos.
1-8
Definiciones bsicas
Espacio muestral : El conjunto de resultados de un
experimento.

Evento: Cualquier subconjunto del espacio
muestral.

Variable aleatoria: Es una funcin que asigna valores
reales a los resultados de un experimento.
1-9
Proceso estocstico
Proceso que evolucionan en el tiempo
de una manera probabilstica
Es una coleccin indexada de variables
aleatorias X
t
en donde el ndice t, toma
valores de un conjunto T dado
Sigue

En puntos especficos del tiempo t el sistema se encuentra en
una de un nmero finito de categoras o estados mutuamente
excluyentes y exhaustivos, etiquetados 0,1,...,M
1-10
Si T es contable o finito, el proceso se denomina
discreto.
Si T es un subconjunto de los reales, el proceso se
denomina continuo.
Ejemplo
Una tienda de cmaras tiene en almacn un modelo
especial de cmara que puede ordenar cada semana.
Sean D
1
, D
2
,..., D
n
, las demandas durante la primera,
segunda y n-sima semana respectivamente.
Sigue

1-11
Se supone que las Di son variables aleatorias que
tienen una distribucin de probabilidad conocida.
X
0
: Nmero de cmaras que se tiene al iniciar el
proceso. Suponga que X
0
= 0
X
1
: Nmero de cmaras que se tiene al final de la
semana 1.
X
2
: Nmero de cmaras que se tiene al final de la
semana 2

X
n
: Nmero de cmaras que se tiene al final de la
semana n.
1-12
Suponga que el almacn utiliza una poltica de
pedidos (s,S), es decir siempre que en el nivel de
inventario sea menor que s , se ordenan hasta S
unidades (S>s). Si el nivel de inventario es mayor o
igual, no se ordena
La poltica dice que si el nmero de cmaras en
inventario al final de la semana es menor que s=1
ordena hasta S=3. De otra manera no coloca la orden.
1-13
Se supone que las ventas se pierden cuando la
demanda excede el inventario. Entonces {X
t
} para
t=1,2,...,n es un proceso estocstico.
El nmero posible de cmaras en
inventario al final de la semana t son
0
1
2
3
Estados posibles del
sistema
1-14
Las variables aleatorias X
t
son dependientes y se
pueden evaluar en forma iterativa por medio de la
expresin.
X
t+1
=
Max { ( 3 - D
t+1
) , 0 } si X
t
< 1
Max { ( X
t
- D
t+1
) , 0 } si X
t
> 1
1-15
Ejemplo
Existe una regin donde se da lo siguiente
P(llueva maana |llovi hoy) = o
P(llueva maana |no llovi hoy) = |
(

=
| |
o o
1
1
P
0
1
0 1
Estado 0 : Llover
Estado 1 : No llover
1-16
Ejemplo
Un puerto de telecomunicaciones:
P(error) = p

Estado cero: El bit es 0 Estado uno: El bit es 1
(

=
p p
p p
P
1
1 0
1
0 1
1-17
Cadenas de Markov
Las cadenas de Markov tienen la propiedad
particular de que las probabilidades que describen la
forma en que el proceso evolucionar en el futuro,
dependen slo del estado actual en que se encuentra el
proceso, y por lo tanto, son independientes de los
eventos ocurridos en el pasado.
Futuro
Presente
Pasado
Si
No
Veamos

1-18
Si X
t
= i , se dice que el proceso estocstico est en el
estado i en el tiempo t.

Llamemos P
ij
la probabilidad de estar en el estado j
en el momento t+1, conocidos los estados anteriores
Proceso Markoviano
P
ij
= P {X
t+1
= j / X
0
= k
0
, X
1
= k
1
,..., X
t-1
= k
t-1
,X
t
= i}

P
ij
= P {X
t+1
= j / X
t
= i}

Pasado Presente
1-19
P
ij
= P {X
t+1
= j / X
t
= i}
Probabilidades
condicionales para
cada i y j
P
ij
= P {X
t+1
= j / X
t
= i}= P {X
1
= j / X
0
= i}
para toda t=0,1..
Se llaman probabilidades de transicin .
Si para cada i,j
1-20
P {X
t+n
= j / X
t
= i}= P {X
n
= j / X
0
= i}
para toda t=0,1..
Se dice que las probabilidades de transicin (de
un paso) son estacionarias, es decir no cambian
con el tiempo. Esto tambin implica
Estas probabilidades se denotan P
ij
(n)
y se llaman
probabilidades de transicin de n pasos

1-21
P
ij
(n)
es simplemente la probabilidad condicional de
que la variable aleatoria X, comenzando en el estado i
se encuentre en el estado j despus de n pasos
Propiedades
P
ij
(n)
> 0 para toda i y j; n=0,1,.....

P
ij
(n)
= 1 para toda i ; n=0,1,.....


j = 0

M

La suma de las filas P siempre es 1
1-22
Forma matricial
Se supondr que se conoce un conjunto de
probabilidades iniciales P { X
0
=1} para toda i
(
(
(

=
) ( ) (
0
) (
0
) (
00
) (
n
MM
n
M
n
M
n
n
p p
p p
P
para n=0,1,.....
1-23
Ejemplo
Retomemos el caso de las cmaras que se vena
desarrollando. Observe que {X
t
} es una cadena de
Markov
Recuerde que X
t
es el nmero de cmaras en el almacn
al final de la semana t (antes de recibir el pedido).
Veamos cmo obtener las probabilidades de
transicin de un paso, es decir los elementos de la
matriz de transicin de un paso (n=1)
Veamos

1-24
0
1
2
3
Estados posibles del
sistema
P
00
es la probabilidad
de tener 0 cmaras en
inventario la prxima
semana dado que esta
semana tuve 0
cmaras
(
(
(
(

=
33 32 31 30
23 22 21 20
13 12 11 10
03 02 01 00
p p p p
p p p p
p p p p
p p p p
P
0
1
2
3
0
1 2 3
1-25
Supongamos que cada D
t
tiene una distribucin
Poisson con = 1
Recuerde que D
t
son las demanda
de cmaras en la semana t
Para obtener P
00
es necesario evaluar
P {X
t+1
= 0 / X
t
= 0}
X
t+1
=
Max { ( 3 - D
t+1
) , 0 } si X
t
< 1
Max { ( X
t
- D
t+1
) , 0 } si X
t
> 1
Recuerde
1-26
Si X
t
= 0 X
t+1
= Max { ( 3 - D
t+1
) , 0 }
X
t+1
= 0 indica que la demanda durante
la semana fue de tres o mas cmaras
P
00
= P { D
t+1
> 3 } = 1 - P { D
t+1
s 2 } = 0.08

Recuerde que D
t
tiene una distribucin Poisson
1-27
P
10
nos indica la probabilidad de tener en inventario 0
cmaras la prxima semana dado que sta tuve 1 cmara
P
10
= P {X
t+1
= 0 / X
t
= 1}

Si X
t
= 1 X
t+1
= Max { ( 1 - D
t
) , 0 }
X
t+1
= 0 indica que la demanda durante
la semana fue de 1 o ms cmaras
P
10
= P { D
t+1
> 1 } = 1 - P { D
t+1
= 0 } = 0.632

1-28
P
21
nos indica la probabilidad de tener en inventario 1
cmara la prxima semana dado que esta tuve 2 cmaras
P
21
= P {X
t+1
= 1 / X
t
= 2}

Si X
t
= 2 X
t+1
= Max { ( 2 - D
t
) , 0 }
X
t+1
= 1 indica que la demanda durante
la semana fue exactamente 1 cmara
P
21
= P { D
t+1
= 1 } = 0.368

1-29
(
(
(
(

=
368 . 0 368 . 0 184 . 0 080 . 0
0 368 . 0 368 . 0 264 . 0
0 0 368 . 0 632 . 0
368 . 0 368 . 0 184 . 0 080 . 0
P
Similarmente obtenemos las otras probabilidades
Matriz de transicin de un paso

1-30
Otros ejemplos
Consideremos el mercado de acciones.
Si la accin subi hoy, la probabilidad de que suba
maana es 0.7.
Si la accin baj hoy, la probabilidad de que suba
maana es 0.5.
Cadena de Markov donde los estados son:
Estado 0 La accin sube
Estado 1 La accin baja
1-31
Matriz de transicin
P (accin suba maana / subi hoy) = 0.7
P (accin baje maana / subi hoy) = 0.3
P (accin suba maana / baj hoy) = 0.5
P (accin baje maana / baj hoy) = 0.5
(

=
5 . 0 5 . 0
3 . 0 7 . 0
P
S
B
S B
1-32
Consideremos ahora el mismo mercado de
acciones, slo que el que una accin suba o no
maana, depende de si subi o no hoy y ayer.
Estado 0 La accin subi ayer y hoy
Estado 1 La accin baj ayer y subi hoy
Estado 2 La accin subi ayer y baj hoy
Estado 3 La accin baj ayer y hoy
1-33
P (accin suba maana / subi ayer y hoy ) = 0.9
P (accin suba maana / baj ayer y subi hoy ) = 0.6
P (accin suba maana / subi ayer y baj hoy) = 0.5
P (accin suba maana / baj ayer y hoy) = 0.3
(
(
(
(

=
7 . 0 0 3 . 0 0
5 . 0 0 5 . 0 0
0 4 . 0 0 6 . 0
0 1 . 0 0 9 . 0
P
SS
BS
SB
BB
SS BS SB BB
Ayer
y
hoy
Hoy
y
Maana
1-34
Por ltimo consideremos el ejemplo del jugador.
Suponga que un jugador tiene $1
Su probabilidad de ganar es p, y all gana $1
Su probabilidad de perder es 1- p, y all pierde $1
El juego termina cuando el jugador acumula $3 o
bien cuando quiebra
1-35
Este modelo es una cadena de Markov y sus
estados son:
Estado 0 El jugador est quebrado
Estado 1 El jugador tiene $1
Estado 2 El jugador tiene $ 2
Estado 3 El jugador tiene $ 3
1-36
Matriz de transicin
(
(
(
(

=
1 0 0 0
0 1 0
0 0 1
0 0 0 1
p p
p p
P
$0
$1
$2
$3
$0 $1 $2 $3

You might also like