Professional Documents
Culture Documents
Mediante el presente trabajo se quiere demostrar la aplicacin de las cadenas de markov para un problema de la vida real; las cadenas de markov tienen aplicaciones en Fsica, Meteorologa, Modelos epidemiolgicos, Internet, Simulacin, Juegos de azar, Economa y Finanzas, Gentica, Msica, etc.
MARCO TEORICO:
Cadenas de Markov
Los procesos de paseo aleatorio en realidad son un caso particular de procesos ms generales que son las cadenas de Markov. En esencia, una cadena es un proceso en tiempo discreto en el que una variable aleatoria Xn va cambiando con el paso del tiempo. Las cadenas de Markov tienen la propiedad de que la probabilidad de que Xn = j slo depende del estado inmediatamente anterior del sistema: Xn1. Cuando en una cadena dichas probabilidades no dependen del tiempo en que se considere, n, P (Xn = j | Xn1 = i) Se denomina cadena homognea, esto es, las probabilidades son las mismas en cada paso.
Probabilidades de Transicin
En una cadena homognea finita con m posibles estados E1,E2, . . . , Em se puede introducir la notacin pij = P (Xn = j | Xn1 = i) , Donde i, j = 1, 2,. . ., m. Si pij > 0 entonces se dice que el estado Ei puede comunicar con Ej. La comunicacin puede ser mutua si tambin pji > 0. Para cada i fijo, la serie de valores {pij} es una distribucin de probabilidad, ya que en cualquier paso puede ocurrir alguno de los sucesos E1, E2, . . . , Em y son mutuamente excluyentes. Los valores pij se denominan probabilidades de transicin que satisfacen la condicin
Para cada i = 1, 2,. . ., m. Todos estos valores se combinan formando una matriz de transicin T de tamao m m, donde
Se puede observar que cada fila de la matriz es una distribucin de probabilidad, es decir,
Probabilidad Pj(n)
Una probabilidad de bastante inters es la probabilidad de llegar a Ej despus de n pasos, dada una distribucin de probabilidad [ Pi(0)] Se observa que [ Pi(0)] es la probabilidad de que el sistema ocupe inicialmente el estado Ei, de modo que
Si se denomina Pj(1) a la probabilidad de alcanzar Ej en un solo paso, entonces, por el teorema de probabilidad total
Esto se puede expresar de forma vectorial: sean P(0) y P(1) los vectores fila de probabilidad dados por
Donde P(0) es la distribucin de probabilidad inicial y P(1) es la probabilidad de que se alcance cada uno de los estados E1, . . . , Em despus de un paso. Con esta notacin, se puede expresar
Y en n pasos, Donde
Y de manera general,
Para n 2, ya que la cadena debe haber pasado por uno de los m posibles estados en la etapa n 1. NOTA: Se tiene la siguiente igualdad, para tres posibles sucesos A, B y C: Si se sustituye
Entonces
Usando la propiedad markoviana nuevamente. La ecuacin anterior se denomina de Chapman- Kolmogorov. Haciendo n igual a 2, 3, . . . se obtiene que las matrices con esos elementos son:
Donde D es la matriz diagonal con los autovalores situados en la diagonal principal. Como se deduce que
Aunque este mtodo es bastante til resulta un poco pesado a la hora de hacer los clculos, incluso para cadenas a partir de m = 4 5. Se pueden representar las transiciones entre los estados mediante grafos, donde los arcos representan las transiciones entre los estados. Por ejemplo, sea el siguiente diagrama de transicin: cuya matriz de transicin es: