Professional Documents
Culture Documents
Las cadenas de Markov se incluyen dentro de los denominados Las cadenas de Markov e
procesos estocsticos. Dichos estudian el comportamiento de valores del tiempo son di
variables aleatorias a lo largo del tiempo X(t,w). Se definen variable aleatoria contie
como una coleccin de variables aleatorias {X(t,w), t I}, donde cadena estocstica de tie
X (t,w) puede representar por ejemplo los niveles de inventario Las cadenas de Markov,
al final de la semana t. El inters de los procesos estocsticos es procesos estocsticos de
describir el comportamiento de un sistema e operacin durante estado futuro de un proc
algunos periodos. pasados y solamente dep
las probabilidades de tra
tiempos k-1 y k solament
adquiere dichos tiempos
2.6567
Tiempo en que una empresa obtine con seguridad demanda
de MARKOV
Las cadenas de Markov es un proceso estocstico en el que los
valores del tiempo son discretos y los estados posibles de la
variable aleatoria contiene valores discretos, es decir, es una
cadena estocstica de tiempo discreto.
Las cadenas de Markov, se clasifican, adems, dentro de los
procesos estocsticos de Markov, que son aquellos en el que el
estado futuro de un proceso es independiente de los estados
pasados y solamente depende del estado presente. Por lo tanto
las probabilidades de transicin entre los estados para los
tiempos k-1 y k solamente depende de los estados que la variable
adquiere dichos tiempos.
Rojo no adsorbente
no regular Tigo Claro Movistar
Tigo 0.4 0.5 0.1
Claro 0.5 0.4 0.1
Movistar 0.2 0.3 0.5