Professional Documents
Culture Documents
Ayacucho - 2018
INTRODUCCION
Los procesos de Markov o cadena de markov, forman parte del proceso estocástico como
una herramienta que se basa en las probabilidades y es necesaria en la toma de decisiones
a nivel empresarial debido a que estudia la evaluación de ciertos sistemas de ensayos
repetitivos en un intervalo de tiempo dado. Esta toma de decisiones se realiza en las
distintas áreas como contabilidad, administración, marketing, logística personal, entre
otros.
Es vital tener en cuenta que muchos aspectos empresariales no se debe dejar al azar ni se
debe confiar en la intuición, realizar pronósticos es una tarea que puede representar una
gran ayuda en toda decisión que se deba tomar bajo riesgo, ya que todo lo demás depende
de la buna información histórica que se posea, de la evolución del mercado y de la
elección de un buen método de pronóstico, los cuales pueden resultar muy útiles y pueden
determinar la detección de un fenómeno, ya sea positivo o negativo a tiempo para
convertirlo en una ventaja o una desventaja de la empresa.
Tabla de Contenido
CADENA DE MARKOV
Proceso Estocástico
Según Hillier y Lieberman (2010), Un proceso estocástico se define como una colección
indexada de variables aleatorias {X}, donde el índice t toma valores de un conjunto T
dado. Con frecuencia T se considera el conjunto de enteros no negativos mientras que Xt,
representa una característica de interés cuantificable en el tiempo t. Por ejemplo, Xt puede
representar los niveles de inventario al final de la semana t. Los procesos estocásticos son
de interés para describir el comportamiento de un sistema en operación durante algunos
periodos. Un proceso estocástico tiene la siguiente estructura.
Cadena de Markov
Winston (2005), Un tipo especial de proceso discreto en el tiempo se llama cadena de
markov. Para simplificar la exposición, se supone que en cualquier instante, el proceso
estocástico discreto en el tiempo puede estar en un numero finito de estados identificados
con 1,2, … , 𝑠.
En el estudio de las cadenas de Markov, se hace la suposición adicional de que para los
estados 𝑖 𝑦 𝑗 para toda 𝑡, 𝑃(𝑋𝑡+1 = 𝑗|𝑋𝑡 = 𝑖) es independiente de 𝑡. Esta suposición
permite escribir.
Donde 𝑝𝑖𝑗 es la probabilidad de que dado que el sistema está en el estado 𝑖 en el tiempo
𝑡, estará en un estado 𝑗 en el tiempo 𝑡 + 1. Si el sistema se mueve del estado 𝑖 durante un
periodo al estado 𝑗 durante el siguiente periodo, se dice que ocurrio una transición de 𝑖 a
𝑗.
La ecuación (2) implica que la ley de probabilidad que relaciona el estado del siguiente
periodo con el estado actual no cambia (o permanece estacionaria) con el tiempo. Por esta
razón, (2) se llama cadena de Markov estacionaria.
Nuestro estudio de las cadenas de Markov también requiere que definamos 𝑞𝑖 como la
probabilidad de que la cadena está en el estado 𝑖 en el tiempo 0; en otras palabras,
𝑃(𝑋0 = 𝑖) = 𝑞𝑖 .
Dado que el estado en el tiempo 𝑡 es 𝑖, el proceso en alguna parte debe estar en el tiempo
𝑡 + 1. Esto significa que para cada 𝑖.
𝑗=𝑥
∑ 𝑝𝑦 = 1
𝑗=1
También sabemos que cada elemento de la matriz 𝑃 debe ser no negativo. Por
consiguiente, los elementos de la matriz de probabilidad de transición son no negativos,
y la suma de los elementos de cada región debe ser igual a 1.
P es una matriz cuadrada no negativa cuyas filas suman la unidad, es decir, 0 ≤ 𝑝𝑖𝑗 ≤
1 𝑦 ∑𝑗 𝑝𝑖𝑗 = 1 y para cada 𝑖 ∈ 𝑆. Por lo tanto, P es una matriz estocástica.
Gráficamente, una cadena de markov en tiempo discreto con espacio de estados finito se
puede representar mediante un diagrama de transición, es decir, mediante un grafo
dirigido finito, donde cada nodo representa un estado de la cadena, los arcos representan
las posibles transiciones entre estados y sobre los arcos se indican las probabilidades de
transición entre los estados representados por los nodos unidos por cada arco.
II. EJERCICIOS
Inicial
2. En una población de 10,000 habitantes, 5000 no fuman, 2500 fuman uno o menos de
un paquete diario y 2500 fuman más de un paquete diario. En un mes hay un 5% de
probabilidad de que un no fumador comience a fumar un paquete diario, o menos, y
un 2% de que un no fumador pase a fumar más de un paquete diario. Para los que
fuman un paquete, o menos, hay un 10% de probabilidad de que dejen el tabaco, y
un 10% de que pasen a fumar más de un paquete diario. Entre los que fuman más de
un paquete, hay un 5% de probabilidad de que dejen el tabaco y un 10% de que pasen
a fumar un paquete, o menos. ¿Cuántos individuos habrá de cada clase el próximo
mes? (Vargas A, J R)
Solución
0.80
Fuman 1 o
menos de
1 cajetilla
diario
0.93
Fuman 1 o
menos de
1 cajetilla
diario
Fuman 1 o
menos de
1 cajetilla
diario
0.85
0 1 2
0 0.93 0.05 0.02
𝑃1 =
1 0.10 0.80 0.10
2 0.05 0.10 0.85
𝑁𝐹 = 𝑁𝑜 𝑓𝑢𝑚𝑎𝑛
𝐹𝐶 = 𝐹𝑢𝑚𝑎𝑛 𝑢𝑛𝑜 𝑜 𝑚𝑒𝑛𝑜𝑠 𝑑𝑒 𝑢𝑛 𝑝𝑎𝑞𝑢𝑒𝑡𝑒 𝑑𝑖𝑎𝑟𝑖𝑜𝑠
𝐹𝐶𝐶 = 𝐹𝑢𝑚𝑎𝑛 𝑚á𝑠 𝑑𝑒 𝑢𝑛 𝑝𝑎𝑞𝑢𝑒𝑡𝑒 𝑑𝑖𝑎𝑟𝑖𝑜
𝐷𝑒𝑠𝑝𝑢é𝑠 𝑑𝑒 𝑢𝑛 𝑚𝑒𝑠 ℎ𝑎𝑏𝑟á𝑛 𝑁𝐹 = 5025, 𝐹𝐶 = 2500, 𝐹𝐶𝐶 = 2475
3. El ascensor de un edificio con bajo y dos pisos realiza viajes de uno a otro piso.
El piso en el que finaliza el viaje n-ésimo del ascensor sigue una cadena de Markov.
Se sabe que la mitad de los viajes que parten del bajo se dirigen a cada uno de los
otros dos pisos, mientras que, si un viaje comienza en el primer piso, sólo el 25% de
las veces finaliza en el segundo. Por último, si un trayecto comienza en el segundo
piso, siempre finaliza en el bajo. (Vargas A, J R). Se pide:
a. Calcular la matriz de probabilidades de transición de la cadena
b. Dibujar el gráfico asociado.
c. ¿Cuál es la probabilidad de que, a largo plazo, el ascensor se encuentre
en cada uno de los tres pisos.
Solución:
a. Los estados de la cadena los denotaremos por {0, 1, 2} haciendo
corresponder el 0 al bajo y 1 y 2 al primer y segundo piso respectivamente.
Las probabilidades de transición son: 𝑃00 = P(Rn=0 / Rn-1=0), esto es la
probabilidad de que el ascensor se encuentre en la planta baja si en la etapa
anterior estaba en la planta baja. Obviamente es 0, porque se supone que de
etapa a etapa el ascensor se mueve. 𝑃01 = P (Rn=1 / Rn-1=0), esto es la
probabilidad de que el ascensor se encuentre en la planta primera si en la
etapa anterior estaba en la planta baja. Obviamente es ½. Basta leer el
enunciado. Y así sucesivamente vamos obteniendo las distintas
probabilidades de transición cuya matriz es:
b.
𝑞⃗. 𝑃 = 𝑞
⃗⃗⃗⃗ siendo q = (x, y, z) los valores de las probabilidades pedidas, añadiendo
la ecuación x+ y+ z = 1
sistema:
4
El inciso a) consiste en averiguar el término 𝑃33 , es decir el término que ocupa
la tercera fila y la tercer columna de la matriz 𝑃4 , lo cual se obtiene con la fila 3
y columna 3 de 𝑃2 cuyos valores son.
Elimino y en las dos primeras: -33x+12z = 0, y elimino y en las dos últimas: 12z=6;
de ambas se deduce que: x =2/11=0.1818; y = 7/22 = 0.3181; z = 0.5.
5. Suponga que toda la industria de refresco produce dos colas: Coca Cola y Pepsi Cola.
Cuando una persona ha comprado Coca Cola hay una probabilidad de 90% de que
siga comprándola la vez siguiente. Si una persona compró Pepsi, hay 80% de que
repita la vez siguiente. (Vargas A, J R). Se pide:
a. Si una persona actualmente es compradora de Pepsi. ¿Cuál es la probabilidad
de que compre Coca Cola pasadas dos compras a partir de hoy?
b. Si en la actualidad una persona es comprador de Coca Cola. ¿Cuál es la
probabilidad de que compre Coca Cola pasadas tres compras a partir de
ahora?
c. Supongamos que el 60% de toda la gente toma hoy Coca Cola y el 40% Pepsi.
A tres compras a partir de ahora, ¿Qué fracción de los compradores estará
tomando Coca Cola?
Solución:
La situación se puede modelar como una cadena de Markov con dos estados
{Coca-Cola, Pepsi-Cola} = {C, P}. La matriz de transición para el orden C,
P, es:
La solución 0.781 de que una persona que consume Coca cola pasada tres
compra consuma Coca cola.
Observe que las dos primeras ecuaciones son iguales, por lo que trabaremos
con las dos últimas, resultando x=2/3; y= 1/3
La probabilidad de que un paciente esté en estado crítico el día jueves y que el día
2
sábado esté estable, está dado por: 𝑃𝐶𝐸 es decir, la probabilidad de pasar del estado
crítico al estado estable al cabo de 2 etapas (días).
1 2 3
1 0.80 0.10 0.10
2 0.03 0.95 0.02
3 0.20 0.05 0.75
La suma de las probabilidades de cada estado en este caso operador deben ser
iguales a 1.
Solución
Po= (0.4 0.25 0.35) → estado inicial
Ahora procedemos a encontrar los estados en los siguientes pasos o tiempos, esto
se realiza multiplicando la matriz de transición por el estado inicial y así
sucesivamente, pero multiplicando por el estado inmediatamente anterior.
9. Suponga que en el mercado se consiguen 3 tipos de gaseosas colas que son: coca
cola, Pepsi cola y big cola cuando una persona ha comprado coca cola existe una
probabilidad de que la siga consumiendo del 75%, un 15% de que compre Pepsi
cola y un 10% de que compre big cola; cuando el comprador actualmente consume
Pepsi existe una probabilidad de que la siga comprando de 60%, un 25% que
compre coca cola y un 15% big cola; si en la actualidad consuma big cola la
probabilidad de que la siga consumiendo es del 50%, un 30% que compre coca
cola y 205 Pepsi cola. (Vargas A, J R).
En la actualidad cada marca coca cola, Pepsi y big cola tienen los siguientes
porcentajes en participación en el mercado respectivamente (60% 30% 10%)
Elaborar la matriz de transición
Hallar la probabilidad que tiene cada marca en el periodo 5
Solución
Matriz de transición
III. APLICACIONES DE CADENA DE MARKOV
(Holguín, 2008)
Por la naturaleza del mismo, y por la solidez de los datos con que se contaba, se decidió
utilizar métodos cuantitativos para la toma de decisiones, a partir de un enfoque
estocástico, especialmente visto el proceso como una cadena de Markov, ya que se puede
considerar como un sistema constituido por una serie de eventos, en el cual la
probabilidad de que ocurra un evento depende del evento inmediato anterior. Esta
dependencia las distingue de las series de eventos independientes. De ahí que se defina
como un proceso estocástico que cumple con la propiedad de Markov, que plantea que,
si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda
la información relevante para describir en probabilidad su estado futuro.
Para ello se definieron los diferentes estados por lo que podían transitar los proyectos de
ejecución durante su ciclo de vida. Ellos son:
E: Ejecución normal.
A: Atrasado.
C: Cancelado.
T: Terminado.
Conjunto transigente, compuesto por los estados en los que se puede llegar a
cualquier otro estado desde cualquier estado de este, pero una vez que se
abandona, nunca más se podrá alcanzar: {E, A}.
Conjunto absorbente o ergódico, compuesto por los estados a los que se puede
llegar desde cualquier estado, pero no podrá salir: {C, T}7.
Al observar que la cadena está formada por conjuntos ergódicos y conjuntos transigentes,
se puede decir que la cadena es una cadena reducible, ya que independientemente del
estado donde se parta, la probabilidad de que el proyecto esté en un estado ergódico tiende
a 1 después de n inspecciones. Para un número grande de inspecciones el proceso quedará
atrapado o reducido a los estados ergódicos o absorbentes. Luego esta cadena es una
cadena de Markov reducible absorbente.
Resultados y discusión
Matriz fundamental
Interpretación:
XT= MFX RT
Donde RT es el vector correspondiente a la transición de los estados transigentes al estado
absorbente T, el cual se toma de la matriz de transición en su forma canónica. (Holguín,
2008)
Luego
Interpretación:
Esto significa que un proyecto de investigación tiene una probabilidad de ser absorbido
por el estado T de 0.72 si inicia en ejecución normal y de 0.15 si reinicia en el estado de
atrasado. De forma análoga se calcula XC:
XC= MFX RC
Donde RC es el vector correspondiente a la transición de los estados transigentes al estado
absorbente C, el cual se toma de la matriz de transición en su forma canónica.
Luego
Interpretación:
Esto significa que un proyecto de investigación tiene una probabilidad de ser absorbido
por el estado C de 0.28 si inicia en ejecución normal y de 0.86 si reinicia en el estado de
atrasado.
Se puede comprobar que, al cabo de un número determinado de inspecciones mensuales,
el proyecto estará en uno de los dos estados absorbentes. Esto se puede comprobar de la
siguiente forma:
Según que la naturaleza del estudio sea de análisis o de diseño, los interrogantes que
surgen en el problema pueden estar dados por:
Para el cálculo del número medio de clientes en el sistema es preciso de unir una variable
aleatoria de estado i = n que represente al número de clientes en el sistema. En función
de la misma será:
CONCLUSIONES
El enfoque estocástico se presenta muchas veces en los procesos administrativos, ya que
existen variables aleatorias, cuyos valores son estados característicos de los mismos. Las
Cadenas de Markov constituyen una herramienta eficiente para el análisis a corto y a largo
plazo de procesos que cambian de estado con el transcurso del tiempo, en los que la
probabilidad de estar en un estado determinado depende del estado en el cual se
encontraba el sistema.