Professional Documents
Culture Documents
ESTOCSTICOS
Apuntes de
lase
Indice general
Introducci
on
1. Variables aleatorias M
ultiples
1.1. Introduccion a las variables aleatorias . . . . . . .
1.2. Funci
on de distribuci
on conjunta . . . . . . . . . .
1.3. Funci
on de Distribucion de Acumulativa Conjunta
1.4. Distribucion condicional . . . . . . . . . . . . . . .
1.4.1. Variables estadsticamente Independientes .
1.5. Variables gausianas m
ultiples . . . . . . . . . . . .
Resumen Parte I . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
3
4
5
5
5
6
2. Procesos Estoc
asticos
2.1. Introduccion a los Procesos Estoc
asticos .
2.1.1. Ejemplos de procesos estoc
asticos .
2.1.2. Tipos de Procesos Estoc
asticos . .
2.2. Proceso Poisson . . . . . . . . . . . . . . .
2.2.1. Valores esperados . . . . . . . . . .
2.3. Procesos estacionarios . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
7
8
8
9
9
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
11
12
13
13
13
14
4. Procesos de Renovaci
ony Cadenas de Markov
4.1. Cadenas discretas de markov . . . . . . . . . . . .
4.1.1. Ecuaci
on de Chapman-Kolmogorov . . . . .
4.2. Clasificaci
on de estados y cadenas . . . . . . . . .
4.2.1. Probabilidades de estado estacionario . . .
4.3. Procesos de nacimiento-muerte y sistemas de colas
4.3.1. Sistema de colas . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
16
16
18
18
18
5. Procesamiento de Se
nales Aleatorias
5.1. Filtrado lineal . . . . . . . . . . . . .
5.2. Densidad espectral de potencia . . .
5.3. Proceso poisson compuesto . . . . .
5.4. Procesos estoc
asticos gausianos . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
21
21
21
23
24
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Introducci
on
Fen
omenos deterministicos: Comportamiento completamente definido por algun modelo matematico.
Fen
omeno aleatorio: Al azar, recurrimos a la probabilidad y estadstica para estudiar el fenomeno aleatorio.
De donde salen los fenomenos aleatorios?
Se realiza un experimento aleatorio que produce ciertos resultados.
x
bc
Conjunto de resultados
bc
bc
bc
bc
Rango de la variable x
bc
Funci
on
de distribuci
on de probabilidad o probabilidad de masa (discreto)
de densidad de distribuci
on de probabilidad (continuo)
Ejemplo.a)
b)
PX (x)
1
6
b
fX (x)
x
0
65
100
PX (x)
10
Funci
on de distribuci
on de probabilidad acumulativa
Es la funci
on que proporciona el valor de la probabilidad de un evento
FX (x) = Prob(X x)
FX (x) =
FX (x) =
Ejemplo.-
Rb
a
PX (xi )
variable discreta
(1)
fX (x)dx
variable continua
(2)
0
1 2 3 4 5 6
Figura 4: Ejemplos de distribuciones acumulativas, caso discreto y continuo respectivamente.
Captulo 1
Variables aleatorias M
ultiples
1.1.
Introducci
on a las variables aleatorias
1.2.
Funci
on de distribuci
on conjunta
Soluci
on.-
un Diagrama de Arbol
a (0,9)
a (0,9) = aa
(0,81)
r (0,1)
(0,9)
ar
PX,Y (x, y)
x=0
x=1
x=2
a (0,9) =
ra
(0,9)
2
r (0,1)
rr
(0,01)
Donde X es el numero de circuitos en buen estado y Y el numero de pruebas antes de la primera fallan, es espacio del rango esta dado por
X = {0, 1, 2} y Y = {0, 1, 2} para X y Y respectivamente. Como cada prueba es un evento independiente, basta con multiplicar, entonces nuestra
funci
on de distribuci
on sera:
0 0.0.1 0.09
0
1
b
0.81
0.09
b
La probabilidad de un evento se calcula sumando todas las probabilidades de los resultados que
componen el evento.
Prob{A} = ?
0,81
x = 2, y = 2
x = 1, y = 1
0,09
0,09
x = 1, y = 0
PX,Y (x, y) =
0,01
x
= 0, y = 0
0
cualquier otro caso
A : evento x = y
+Prob{x = 2, y = 2}
0,01 + 0,09 + 0,81 = 0,91
Funci
on de Distribuci
on de Acumulativa Conjunta
Esta funci
on describe expresa la probabilidad
de que la variable o las variables se encuentren dentro de cierto rango de valores.
FX,Y (x, y) =
Prob(X x, Y y)
|
{z
}
La funci
on de distribuci
on acumulativa conjunta
FXY (x, y) se define como la probabilidad de todos
los puntos en un plano por debajo y a la izquierda
del punto (x, y). Definimos para el caso de variables
discretas o variables continuas respectivamente.
(x, y)
b
FX,Y (x, y) =
FX,Y (x, y) =
X X
x Ay B
Z x Z y
PX,Y (x, y)
(1.1)
Propiedades
a)
b)
c)
d)
e)
f)
y=2
0
0
0,81
r (0,1)
1.3.
y=1
0
0,09
0
0 FX,Y (x, y) 1
FX (x) = FX,Y (x, )
FY (y) = FX,Y (, y)
FX,Y (, y) = FX,Y (x, ) = 0
1.4.
Distribuci
on condicional
Se requiere cuando interesa determinar cual es la probabilidad de ocurrencia de una variables dado que
la otra a tomado un valor definido.
1.4.1.
PX/Y (x/y) =
PX,Y (x, y)
;
PY (y)
PY /X (y/x) =
PX,Y (x, y)
PX (x)
(1.3)
fX/Y (x/y) =
fX,Y (x, y)
;
fY (y)
fY /X (y/x) =
fX,Y (x, y)
fX (x)
(1.4)
Se dice que dos variables aleatorias son Estadsticamente Independientes si se cumple que:
(1.8)
Cov(x, y) = X,Y = 0
(1.5)
(1.6)
(1.11)
1.5.
(1.7)
Variables gausianas m
ultiples
xy
(1.13)
y
(x x )
x
Var[Y /X] = y2 (1 2 )
(1.14)
(1.15)
Definimos la funci
on normal est
andar con x = 0 y x2 = 1 para esta funci
on existen tablas ya resueltas,
por lo tanto para una funci
on no est
andar, se la debe estandarizar.con
z=
x x
x2
(1.16)
Valor medio
E[X] = x =
E[X] = x =
x PX (x)
x fX x
(x x )2 PX (x)
PX/Y (x/y) =
PX,Y (x,y)
PY (y)
fX/Y (x/y) =
fX,Y (x,y)
fY (y)
E[X/Y = y] = E[X] y SY
E[Y /X = x] = E[Y ] x SX
Covarianza
Cov(x, y) = X,Y = 0
Correlaci
on entre X y Y
fX (x)
x,y = E[X Y ]
Coeficiente de correlaci
on
XY = Cov[X,Y ]
Var[X]Var[Y ]
Distribuci
on acumulativa
FX (x) =
FX (x) =
Rb
a
0
X(t) =
1
2 x
exp
PX (xi )
X(t) N (x , x2 )
fX (x)dx
Para estandarizar:
z=
Distribuci
on acumulativa conjunta
FX,Y (x, y) =
FX,Y (x, y) =
P P
x
R x R y
x
2
(xx )
2
2x
xx
x
PX,Y (x, y)
1
q
exp
fX,Y (x, y) =
2x y 1 2xy
1
2(1 2 )
"
x x
x
2
x x
x
y y
y
y y
y
2 #!
Captulo 2
Procesos Estoc
asticos
2.1.
Introducci
on a los Procesos Estoc
asticos
Un proceso estoc
astico es un experimento aleatorio que produce como resultado funciones aleatorias
dependientes del tiempo.
Espacio muestral
qp
s9
qp
qp
s4
qp
qp
X(t,s1 )
s3
qp
qp
s7
s8
qp
Colecci
on
s5
X(t)
X(t,s2 )
s6
X(t,s3 )
s1
qp
s2
..
. etc.
2.1.1.
Medici
on de la temperatura ambiente en el aeropuerto de El Alto, al medio da durante un a
no.
Cantidad de llamadas que se cursan por una central telefonica cada hora.
X(t)
bc
bc
Si consideramos que:
t
bc
bc
t
bc
bc
t
t = t1
t = t2
2.1.2.
2.2.
Proceso Poisson
Un proceso de conteo N (t) cuenta el numero de eventos denominados llegadas o arribos y tiene la caracterstica
de que (t) = 0 para t < 0 y es un n
umero entero
creciente.
t1 t2 t3
0 +x +x
+x
0
t4
+x3
t5 t
+x4
Definici
on: Un proceso de conteo N(t) es un proceso Poisson de tasa si:
a) El n
umero de llegadas en cualquier intervalo [t0 , t1 ] es una variable aleatoria Poisson con valor esperado:
(t1 t0 )
b) Para cualquier par de intervalos [t0 , t1 ] y [t0 , t1 ] no sobrepuestos, el numero de llegadas en cada intervalo
es una variable aleatoria independiente.
c) Una variable aleatoria Poisson tiene funci
on de distribuci
on
P (m) =
m = 0, 1, 2 . . .
en otro caso
(2.1)
E[N (t)]
t
(2.2)
La probabilidad de una llegada durante cualquier instante es independiente de la historia del proceso,
debido a ello el proceso Pisson es un proceso sin memoria.
e) El tiempo entre llegadas es una variable aleatoria continua con funci
on de densidad de distribuci
on
exponencial, dada por:
ex
x0
F (m) =
(2.3)
0
en otro caso
8
2.2.1.
Valores esperados
Las definiciones dadas para los valores esperados es variables aleatorias se aplican tomando en cuenta la
dependencia del tiempo tenemos entonces para la covariaza:
Cov[t, ] = E[X(t)X(t + )] x (t)x (t )
(2.5)
Para la funci
on de autocorrelaci
on:
(2.6)
Para el c
alculo de los valores esperados se debe considerar si el proceso es continuo o discreto y emplear
la funci
on de distribuci
on correspondiente.
2.3.
Procesos estacionarios
E[X(t)] = x
Cov[t, ] = Cov[0, ] = Cov[ ]
RX (t, ) = RX(0, ) = RX ( )
Un proceso estoc
astico es Estacionario en Amplio Sentido, si tiene las siguientes propiedades:
Positivo
Sim
etrico
El valor en cero debe
ser el mas grande
Ejemplo.-
RX (0) 0
RX ( ) = RX ( )
|RX ( )| RX (0)
(2.7)
RX
R1X : cumple todas las condiciones
R2X : no cumple con |RX ( )| RX (0)
R3X : no cumple con RX (0) 0
R1X
R2X
R3X
10
Captulo 3
3.1.
3.2.
Varianza de W
Var{W} =
n
X
i=1
Var{Xi } + 2
n1
X
n
X
i=1 j=i+1
Cov{Xi , Xj }
(3.2)
fW (w) =
fX (x)fY ( x)dx =
fX,Y ( y, y)dy
(3.3)
11
(3.4)
3.3.
Funci
on Generadora de Momentos
Se llama funci
on generadora de momentos de variable aleatoria X al valor esperado de esx .
X (s) = E{esx }
(3.5)
Condici
on para que la funci
on (s) sea generadora de momentos.
X (s)|s=0 = 1
El momento de n-simo de la Variable X esta dado por:
dn X (s)
E{X } =
dsn s=0
n
(3.6)
Ejemplo.X tiene una densidad de distribucion uniforme en el intervalo [0,2], determine la funcion generadora de
momentos de primer orden
Soluci
on.X (s) =
fX (x)
1
2
X (s) =
on generadora
de momentos estara
0 la funci
2
dada por
X (s) =
2
1 esx
2
s 0
1 2s
(e 1)
2s
1
est dx
2
X (0) = e20 = 1
La funci
on generadora de momentos de W = X1 + X2 + X3 + . . . sera:
W (s) = E{esW }
(3.7)
12
= E{esx } =
R
sx
e PX (xi )
sx
e fX (x)dx
Forma discreta
(3.8)
Forma continua
3.4.
X (s) = es
/2
Si X N (x , x2 ) entonces
2
x (s) = esx +s
2
x
/2
W (s)
W (s)
= esx1 +s
2
/2
x
1
esx2 +s
2
/2
x
2
. . . esxn +s
2
/2
x
n
2
2
2
)/2
+...+x
+x
(x
n
2
1
(3.9)
(3.10)
2
W
= x21 + x22 + . . . + x2n
3.5.
donde
E{Xi } = i ;
Var{Xi } = i2
entonces
Pn
Y
i
Zn = pPn i=1 2
i=1 i
(3.11)
N
otese que esta expresion es una forma de estandarizacion, si son variables iid entonces
1 = 2 . . . =
12 = 22 . . . = 2
(3.12)
3.5.1.
Y n
(3.13)
Reglas empricas
3.6.
k2 + 0,5 np
p
np(i p)
k1 0,5 np
p
np(i p)
En el caso de una variable aleatoria, binomial k para n intentos con probabilidad de exito p se puede
utilizar la formula de DeMoivre-Laplace (deriva de la Distribucion Bernoulli) PX (x) = p(1 p)n .
14
Captulo 4
Procesos de Renovaci
on
y Cadenas de Markov
4.1.
Un proceso markov es una secuencia de variables aleatorias X(t) indexadas en el tiempo continuot 0 o
en e tiempo discreto t Z + con memoria de corto plazo o propiedad de markov, la propiedad de markov nos
indica:
P(Xk+1 /Xk ) = P(Xk+1 /X0 , X1 . . . , Xk )
(4.1)
Es decir la probabilidad condicional en el instante k+1, depende solamente del instante presente k y no de
toda la historia del proceso
El conjunto de todos los estados en los que podra encontrarse el proceso markov se denomina espacio de estado y puede representarse mediante un diagrama de estados.
y se llama probabilidad de transicion de un paso. Estas probabilidades son estacionarias si se cumple que
P(Xk+1 = j/Xk = i) = P(X1 = j/X0 = i),
atravez de la duraci
on del proceso
se puede pasar de un estado a otro
de la forma que se indica en el diagrama
k0
Ejemplo.
P00
P = P10
P20
P01
P11
P21
P02
0,2
P12 = 0,4
P22
0,3
0,3 0,5
0,5 0,1
0,6 0,1
0,3
0,2
0,5
0,4
0,6
0,5
0,1
0,3
2
0,1
15
4.1.1.
(4.4)
Ecuaci
on de Chapman-Kolmogorov
Las probabilidades de transicion cumplen con las
ecuaciones de Chapman-Kolmogorov:
0,1
1
0,3
Pi j (n) =
2
n
X
(v)
(nv)
Pil Plj
l=0
(4.5)
0,6
0,3
1
otro ejemplo:
2
0,7
0,2
(2)
0,6
0,4
3
0,2
4
4.2.
Clasificaci
on de estados y cadenas
El tiempo (numero de pasos) necesarios para que el proceso vaya por primera vez del estado i al estado
j se llama primer tiempo de paso y en caso de que i=j se llama primer tiempo de recurrencia
Estos tiempos seran variables aleatorias con distribuci
on
(1)
fij
(2)
fij
(3)
fij
(1)
= Pij = Pij
(2)
(1)
(3)
(1)
(n)
(1)
(n)
fij
(n)
(n1)
(2)
(n2)
fij Pjj
(n1)
. . . fij
Pjj
Donde fij es la probabilidad de que el primer tiempo de paso de i a j sea igual a n pasos
16
P
(n)
= 1 el estado i se denomina recurrente. Puesto que una vez que el proceso
Cuando i = j
n=1 fii
esta en el estado i siempre regresara al mismo estado.
Si Pij = 1 para un estado i ese estado se llama estado absorbente
i
P
(n)
< 1 Puesto que hay una probabilidad
El estado i se llama transitorio si se cumple que
n=1 fii
positiva de que el proceso nunca regrese a ese estado.
El estado es peri
odico si solo es posible un retorno a ese estado en , 2, 3, . . . numero de pasos.
0
n
Un estado j se denomina Accesibles desde el estado i si Pij
> 0 para alg
un n. Si el estado j es accesible
desde i y el estado i es accesible desde j entonces se dice que los estados se comunican.
0
Una clase es un conjunto de estados que se comunican. Un proceso de markov puede tener una o mas
clasesa) . Si este solo tiene una clase, la cadena de Markov es Irreducible b) .
A0
1
A1
a)
B0
A2
b)
B1
P31
2
Para el caso en que P31 = 0 tenemos dos clases C1 = {0, 1, 2}
C2 = {3, 4}
y para el caso donde P31 > 0 existe una u
nica clase C = {0, 1, 2, 3, 4}
17
4.2.1.
(n)
lm Pij = lm aj
n
= Pj
donde:
P
b) m
j=0 Pj = 1
c)Pj 0
4.3.
Pm
i=0
Pj = P (n) |n
Pi Pij
(4.6)
Un proceso de nacimiento muerte es un proceso de markov en el que solo solo son posibles transiciones
entre estados adyacentes.
0
1
1
2
2
3
3
4.3.1.
Sistema de colas
Pi1 i1 = Pi i
i
Pi = 1
Ejemplo.El sistema de colas M/M/1 constituye un proceso Poisson de tasa independiente requerimientos servicio
clientes el tiempo de servicio a un cliente es una variable aleatoria exponencial con tasa independiente del
estado del sistema dibuje el diagrama de estados y encuentre la probabilidad de estado estacionario.
Pi1 = Pi P =
Pi1
P1
P2
Pi
= P0
= P 1 = P 0 = 2 P 0
..
.
= i P 0
Sabemos que
X
i
Pi = 1
P0 + P1 + P2 + P3 + . . . = 1
P0 P0 + 2 P0 + 3 P3 + . . .
P0 ( + 2 + 3 + . . .) = 1
1
P
=1
1
P0 = 1
Si < 1
finalmente
Pi = i (1 )
(4.7)
Si > 1 no existen probabilidades de estado estacionario (esto se traduce en que la tasa de llegadas es
mas alta que la tasa de servicio)
Cual es la probabilidad de que existan 3 clientes es una cola con = 0,6?
Respuesta: P3 = (0,6)3 (1 0,6) P3 = 0,086
19
20
Captulo 5
Procesamiento de Se
nales Aleatorias
5.1.
Filtrado lineal
SISTEMA
LINEAL
x(t)
y(t) =
y(t)
h( )x(t )d
(5.1)
h(t)dt = x H(0)
(5.2)
5.2.
h(v)Rx ( + u v)dvdu
(5.3)
Sx (f )df
RX ( )ej2f d
Potencia Promedio
Simetria
21
(5.4)
(5.5)
f0
E[y 2 (t)]
E[y 2 (t)]
f0
Sy (f )df =
f0 + B
2
f0 B
2
Sx (f )df +
f0 + B
2
f0 B
2
Sx (f )df
2BSx (f0 )
h(t)e
j2f t
ahora Sx (f ) =
eat ej2f t dt
(a+j2f )t
H(f ) =
dt =
1
a + j2f
1
(a+j2f )t
e
dt =
a + j2f
0
|H(f )|2 =
a2
1
+ (2f )2
Sx (f ) =
b j2f
e e
d +
eb ej2f d
(bj2f )
d +
e(b+j2f ) d
0
1
1
(bj2f )
(b+j2f )
e
e
d
Sx (f ) =
b j2f
b + j2f
0
Sx (f ) =
22
1
1
[e0 e ]
[e e0 ]
b j2f
b + j2f
Sx (f ) =
por lo tanto
1
2b
1
+
= 2
b j2f
b + j2f
b + (2f )2
Sy (f ) =
a2
1
2b
2
2
+ (2f ) b + (2f )2
Sy (f ) =
para cualquier constante c > 0, ec| | y
2c
c2 +(2f )2
Ry ( ) =
b/a a| |
1
e
2
eb| |
2
a
b a2
b2
c)
E[Y 2 (t)] = Ry (0) =
5.3.
b/a 1
ba
1
=
=
b 2 a2
a(b2 a2 )
a(b + a)
Teorema.- Sean N1 (t), N2 (t) procesos poisson independientes de tasas 1 y 2 , el proceso de conteo
N (t) = N1 (t) + N2 (t) en un proceso de conteo de tasa = 1 + 2
Ejemplo.Los camiones y autobuses llegan a una terminal como procesos poisson independientes con tasa c = 0,9
cami
on/min y a = 0,7 autobuses/min en un intervalo de 10 minutos cual es distribuci
on de probabilidad
N que representa el numero de vehculos que llegan?
Soluci
on.PN(t) (n) =?
y T = 10 [min], entonces
Poisson =
(T )n T
n! e
; n = 0, 1, 2 . . .
;
otro caso
PN (t)n =
16n 16
n! e
vehculos
min
; n = 0, 1, 2 . . .
;
otro caso
Teorema.- Los procesos de conteo N1 (t) y N2 (t) derivados de una descomposicion bernoulli del proceso
poisson N (t) son procesos poisson independientes con tasa p y (1 p0)
Ejemplo.Un servidor web recibe visitas a una pagina como un proceso poisson de tasa = 10[visitas/seg]. La
visita puede ser interna con probabilidad 0.7 o ser externa con probabilidad 0.3 sobre un intervalo de 10 minutos cual sera la la distribuci
on de probabilidad conjunta de i visitas internas y x visitas externas PI,X (i, x)?
Soluci
on.la tasa de visitas: = 10 visitas
seg
visita interna: pi = 0,7
visita externa: px = 0,3
intervalo: T = 10min = 600seg
23
PX (x) =
(x T )x x T
e
x!
4200i 4200
i! e
PX (x) =
1800x 1800
x! e
; i = 0, 1, 2 . . .
;
otro caso
; x = 0, 1, 2 . . .
;
otro caso
entonces, la distribuci
on conjunta
PI,X (i, x) =
PI,X (i, x) =
; x = 0, 1, 2 . . .
;
otro caso
5.4.
PI (i) =
Procesos estoc
asticos gausianos
i = 0, 1, 2 . . .
x = 0, 1, 2 . . .
otro caso
i = 0, 1, 2 . . .
x = 0, 1, 2 . . .
otro caso
Un proceso estoc
astico gausiano es aquel en el cual cada colecci
on de variables aleatorias {xt1 , xt2 , xt1 , . . . xtk }
tiene funci
on de densidad de distribuci
on gausiana o normal multivariable descrita por:
El valor x = [k (t1 ), k (t2 ), k (t3 ), . . . , k (tk )]T
La matriz de covarianza C, con componentes
Cij = CX (ti , tj ti ) = RX (ti , tj ti ) x (ti )x (tj )
FX(t1 )...X(tk ) (x1 , x2 , . . . xk ) =
donde |C| es el determinate de C
(2)k/2 |C|1/2
e 2 (xx )
C 1 (xx )
X = [X1 , X2 , X3 , . . . Xk , ]
cuando X(ti ) son mutuamente independientes
Var[X(ti )]
Cij =
0
; i=j
; i=
6 j
1
1 (xx )
e 2 x2
fX (x) =
2x
24