Professional Documents
Culture Documents
19 de enero de 2012
Capitulo 1 2. Sea X una v.a. con distribucin Gamma G(v) de parmetro v > 0, entonces: o a f (x; v) = De proposiciones anteriores se conoce que : f (x, v) = con E(x) = v Por tanto, realizando los correspondientes clculos a ( f (y) =
yv
xv1 ex , (v)
x > 0,
xv1 ex (v)
V ar =
X , v
)v1 e
yv
(v) ( )v v1 yv v y e = (v)
f (y; ) =
= =
y! [ ] = exp yln() ln(e 1) ln(y!) = 1 = ln() c = ln(y) b() = ln(e 1) = ln(exp(e 1))
2. E(Y): E(Y ) = b () = (ln(exp(e 1))) exp(e )e = exp(e ) 1 e = exp() 1 = 1 e 3. V ar(Y ): ( V ar(Y ) = = = = = = = = ) exp(e )e exp(e ) 1 (exp(e )e ) (exp(e ) 1) (exp(e )e )(exp(e ) 1) (exp(e ) 1)2 (e exp(e )e + exp(e )e )(exp(e ) 1) (exp(e )e )(e exp(e ) 1) (exp(e ) 1)2 (2 e + e )(e 1) (e )(e ) (e 1)2 ( ) e e 1 e 1 1 e ( ) e 1 , Rta 1 e 1 e ( ) e e 1 e 1 1 e ( ) e 1+ , Rta e 1 1 e
4. M (t): Como: (t) = et ln(e 1) [ ] M (t) = exp et ln(e 1) = = exp(et ) exp(ln(e 1)) exp(et ) (e 1)
4. f (y.) =
(m) y y (1)my 1(1)m
1. Demostracin: o f (y, ) =
(m) y y (1 )my
1 (1 )m (m) ( )y (1 )m y = 1 1 (1 )m (m) y h(x) = ) = log( 1 (e+1 )m b() = log 1 (e + 1)m = log((e 1)m 1)
2. E(Y ) E(y) = b () = (log((e + 1)m 1)) m(e + 1)m1 e = (e + 1)m 1 m(1 )1m 1 = (1 )m 1 m = 1 (1 )m 3. V ar(Y ) V ar(Y ) = [ ] m ((m 1)(e + 1)m2 e2 + (e + 1)m1 e )((/e + 1)m 1)... ((e + 1)m 1)2 [ ] ... (e + 1)m1 e m(e + 1)m1 e ] me (e + 1)m2 [ ((m 1)e + (e + 1))((e + 1)m 1) (e + 1)m e m ((e + 1)m 1)2 [ ] m 1 (1 )2m (m) + 1 (1 m)m m ( )((1 ) 1) m ((1 )m 1)2 1 1 m(1 )2m (((m 1) + 1)(1 (1 )m ) m) (1 )m1 (1 (1 )m )2 (1 )m+1 m m ((m 1) + 1 ) 1 (1 )m 1 (1 )m ((m 1) + 1 )
= = = = =
f (y, ) =
Entonces: M (t, , ) = log((et+ + 1)m 1) log((e + 1)m 1) (et+ + 1)m 1 = (et + 1)m 1 (et e + 1)m 1 = (e + 1)m 1 (et 1 + 1)m 1 = (1 )m 1 (et + 1 )m (1 )m = 1 (1 m)m 5. 1. Normal [ ] 1 y2 2 c(y; ) = + log(2 ) 2 2 1 1 = 2 y 2 log(2 2 ) 2 2
= 2 w = 1 2
2. Normal Inversa
= 2 w = g(y) = 1 2 1 y2
3. Gamma C(y; ) = vlog(vy) log(y) log((v)) = vlog(y) (log((v)) vlog(v)) + (log(y)) = v 1 w = 1 g(y) = log(y) w s( ) = (log((v)) vlog(v)) t(y) = (log(y))
6.
1. Demostracin: o f (y) = =
0 1
f (y | p)f (p)dp
1 (m)
2. E(Y ): + var(y) = m(1 (m 1)) 1 = ++1 E(y) = m 3. f (y) no pertenece a la familia 1.5: f (y) = y B( + y, m + y) B(, ) m ( + y)(m + y)( + ) = y ()()( + + m) y my m i=1 ( + y i) i=1 (m y i) m = y i=1 ( + + m i) ( y my = exp log( + y i) + log(m + y 1) + log m
m i=1 i=1
(y ) i=1 ( + + m i)
De esta funcin no es posible separar de y, ni de y, por lo tanto f (y) no pertenece a la familia 1.5. o 7. 1. Demostracin de que Y tiene distribucion normal negativa: o f (y; , k) = = = ( ) ( ) z y ez 1 1 k z exp dz y! () k ( ) ( ( )) y+1 k z exp z 1 + dz y!() k ( ) [ ( )y ] ( + y) k y!() ( k + )+y k ( y ) k ( + y) ()y! ( + )+y
k
Y la varianza de Y seria V ar(Y ) = (( + 1))(ln( )) k k = (( + 1))( ) k = (( + 1))( 2 ) ( ) k +1 = ( ) 1 = 1+ ( ) = 1+ k 2. Demostracin o f (y; r, ) = = = = z y ez r r1 z exp (z) dz y! (r) r z y+r1 exp (z (1 + )) dz y!(r) [ ] (r + y)()yr r y!(r) (2)+y (y + r) y y!(y) ( 1 + )+y
8. 1. E(y) =
(y + c ) v E(Y ) = y c ( )y! v y=0
c 1 1+ v
)y (1 + v1c )
2 v
E(Y ) =
( )y 2 c1 1+ (1 + v1c ) v c v ( v )(y)
c v )
Como (z + 1) = z(z)
y=1 c v ) )
E(Y ) =
(y +
( +1) v
c v c
(y)
( )y 2 c1 1+ (1 + v1c ) v v
(m) Como n =
(m+1) (n+1)(mn+1)
E(Y ) =
c v
1 + v
) mc 1c
v
) m c c ( v 1 + v1c v ( ) zn
( ) c1 y y1 1+ v y=1 ( )1 (y+ c ) ( )y c1 c1 v y 1+ 1+ v v
y1+ v
c
y=0
Como (1
z)(+1)
n+
n=0
E(y) = = = =
c c (1 + v1c ) v v c c (1 + v1c ) v v ( v ) c c1 + 1
) )1 ( ( 1 c1 1 1+ c1 v 1+ v ( )1 ) ( ( ) c +1 c1 1c v 1+ 1 + v v
2 +1 v
v c
c1 v
+1 v + c1 c1 + v
v c1 =
( y2 y +
Como (z + 2) = (z + 1)(z)(z)
( E(y 2 ) = ( = (
c v
)( +1 )(
c v c v
) )
( (
1 + v1c
c v
c +1 v
1 + v1c
) c
v
Entonces
3. Mostrar que P (Y = y) solo pertenece a la familia 1.5 si c = 0. )y ( y+ ( ) c c1 ( c ) 1 + v1c v P (Y = y) = 1+ v v y! ) ( c y ( )y ( ) c i=1 v +yi c1 = 1+ 1 + v1c v y! v ) ( ) ( y ( ) c c c1 log 1 + v1c + log( + y i) log(y!) = exp ylog 1 + v v v
c v i=1
Para c = 0:
log 1 + v
1c
y i=1
( log
) ) c + y i log(y!) v
= 1
c v
en
i=1 log
c v
(y; ) = =
b() = log(cos()) (t) = 1 (b(t + ) b()) = (b(t + ) b()) = (ln(cos(t + )) + ln(cos()) ( ) cos( = ln cos(t + ) M (t) = exp() cos() = cos(t + ) 12. Normal:
10
1 2 2 2 2 1 log(1 ) 21 2 x2 2 x 1 2
Gamma: f (x) = ex x1 () = exp [(x) + log(x) + log() log(())] 1 = exp((x) + log(x) + log( )) x ()
h(x) =
1 x =
2 = t1 (x) = x t2 (x) = log(x) b() = log () Normal inversa: f (x) = h(x) = 1 = 2 = t1 (x) = t2 (x) = b(1 , 2 ) = ] [ 1 1 1 x2 1 1 exp log() + 2 ( ) + + ( ) x 2 2 2x 2 2 x3 1 2x3 1 2 1 2 x2 2 1 2x 1 2 2 + log(2 ) 2
11
Beta: f (x) = = = h(x) = 1 (a + b) a1 x (1 x)b1 (a)(b) xa1 (1 x)b1 B(a, b) 1 exp [alog(x) + blog(1 x) log(B(a, b))] x(1 x)
1 x(1 x) = a
2 = b t1 (x) = x t2 (x) = log(x) b() = log () 13. Se tiene, E(T ) = Cov(T ) = Entonces: Normal: b() = E(T ) = Cov(T ) =
2 1 2 log(1 ) 21 2 1 1 2 2 1 22
b() 2 b() T
12
Beta: () ( )| E(T ) = () () (( )| )2 ( )|| Cov(T ) = + () () () b() = log 15. 1 Para demostrar que E(X) = , E(X1 ) = 1 + y cov(X, X1 ), se parte de que b() = 2 log()
, luego=
2 b() 4 2
( ) = 2 ( ) 1 = 2 2 3 = 3 (
2 b() 4 2
) 1 + ) 1 = 2 2 2 3 2 = 2 + 3 = 2 (
13
2 b() 4
( ) = 2 ) ( 1 1 = 2 2 = () 2
1
Luego
2 4 b() 3 = 1 22 + 3 () 2
1 () 2 2 + 2 3
16. f (x, ) = h(x)exp [g(x, )] Familia 1.1: f (x, ) Veamos que la siguiente condicin: o
g(x1 ,)g(x2 ) g(x3 ,)g(x4 ,)
h(x)exp(()t(x) b())
h()
Implica que f no pertenece a 1.1. Supongamos que f pertenece a 1.1, entonces g(x1 , ) g(x2 ) g(x3 , ) g(x4 , ) = = ()t(x1 b() ()t(x2 ) + b() ()t(x3 b() ()t(x4 ) + b() t(x1 t(x2 ) t(x3 t(x4
que no es funcin de , por lo tanto f no pertenece a 1.1. o 17. La distribucin de cauchi esta dada por: o f (x, ) = luego: [ ( ( ))] f (x, ) = exp ln 1 + (x )2 [ ( )] = exp ln () ln 1 + (x )2 ( ) 1 = exp ln(1 + (x )2 ) y como ln(1 + (x )2 ) es una funcin que no se puede separar en terminos de ()t(x) b(), se tiene o que no es un miembro de la familia exponencial uniparametrica. 18. 1 [1 + (x )2 ]
14
l((, )) = log(h(x)) + x + t(x) b(, ) = x = U E(U ) = = E(x) = E(x) = b(, ) b(, ) b(, )
V ar(x) =
2 b(, ) 2
T E(U ) = V ar(U )
2 b(, ) 2 E( ) = E(U ) (E(U ))2 2 2 b(, ) 2 = E((x b(, ) 2 ) ) ( ) b(, ) b(, ) 2 = E(x2 ) 2E(x) +
T (T (x)) =
b(, ) b(, )
= t(x)
15
cov(x, (x)) =
en donde i () es funcin real. El parametro natural es: o eta1 ()t1 () + ... + etak ()tk () Parametro canonico. i ti + ... + k tk () luego h(x)exp (
k
) i ()ti (x) b() dx = 0 h(x)exp i i=1 ( k ) b() h(x)exp i ti (x) b() (ti (x) )dx = 0 i i i=1 b() )dx = 0 f (x)(ti (x) i i = b(i ) E(ti ()) = i Luego
2 i j
i=1 ( k
h(x)exp
) b() dx
2b i j )dx
f (x)(0 0
2b i j )dx
16
y+ = Y1 + Y2 tiene distribucin poisson con media (1 + ) o f (y+ ) = fy1 (y) fy2 (y) y = fy1 (n)fy2 (y n) = = =
n=0 y
n=0 e(1+) y
))y
y!
Y1 | Y+ 21. o 1. Aproximacin de la Binomial a la Poisson. (m) m(m 1)...(m k + 1) ( )k ( )mk l m k k (1 )mk = l m 1 m m m m mk k m(m 1)...(m k + 1) ( )k )m ( l m 1 = 1 k! m mk m m k e = k! k e = k! 2. Aproximacin de la Binomial a la Normal. Sea X B(n, P ) o
m
l P (X a) = P (Y a + 0, 5) m ) ( (a + 0, 5) nP =z = P Z nP (1 P )
l P (X a) = P (Y a 0, 5) m ) ( (a 0, 5) nP =z = P Z nP (1 P )
l P (a X b) = P (a 0, 5 Y b + 0, 5) m ) ( (b + 0, 5) nP (a 0, 5) nP = z1 Z = z2 = P nP (1 P ) nP (1 P )
Entonces: 17
Y n(, 2 ) 22.
Z n(0, 1)
i E(xi )(E(x))
)ri )
r)
24. ( ) 1 f (y, ) = xp (ylog() log(log(1 ))) y = log() b() = log(log(1 e )) b() = log(1 ) e E(x) = (1 e )log(1 e ) = (1 )log(1 ) = (1 )b() [ ] e (1 e )log(1 e ) + e (e )(log(1 e )) V ar(y) = ((1 e )log(1 e ))2 [ ] e log(1 e ) + e = ((1 e )log(1 e ))2 [log(1 ) + ] = ((1 )log(1 ))2 log(1 ) + = (1 )2 log(1 ) log(1 ) ) ( = 1 b()(1 )2 b()
18
por tanto, 1 0 l m
l ln() m
= ln()
correspondiente al modelo Logit. (b) Para 0, } e ln(1) e0 l log m = l ln m 0 0 } { e log(1) log(1 ) aplicando regla de lhopital = log l m 0 1 { (1 ) 1 } = log(log(1 )) 4. = log entonces, para los siguientes casos se tiene: g1 (), = 1 = { (1 )1 } {
19
g2 (), = 0,5 = 2(1 g(), = 0 No esta denida g3 (), = 0,5 2(1 1 ) = 1 g4 (), = 1 = g5 (), = 2 = 1 1 2( 1)2 2 1 (1 ))
6. Demostrar que si Y tiene distribucin binomial B(m, ), entonces, para valores grandes de m, o { } Y V ar(arcsen( )) m es aproximadamente
1 4m .
Y p) m
Y mp N (0, 1) mp(1 p) por tanto, de esta forma podemos calcular: E(g( y V ar(g( Y )) = g(p) m
Y m Y m (1
p
Y m )/m
N (p,
p(1 p) ) m
p(1 p) Y )) = [g (p)]2 m m
Y 1 1 p(1 p) 1 )) = = m 4 p(1 p) m 4m 20
Y 7. Suponga que Y tiene distribucin Binomial B(m, ) y que g( m ) una funcin arbitraria. Calcular el o o Y coeciente de asimetr asintotico de g( m ). a Y Sea u = g( m ), la expansin en serie de Taylor para los primeros valores es: o
Y p) m por tanto, se puede denir la variable aleatoria G: g(p) + g ( G = aY + b con, a = g )(p) y b = g(p) g ( )(p)p m entonces, por propiedades de la funcin generadora de momentos, se tiene: o
(
MG (t) = ebt (peat p + 1)m para calcular el coeciente de asimetr se debe calcular los momentos centrales 3 y 2 , entonces: a entonces, 3 = 2b3 m3 + 6b2 gm2 p + 2bm2 (3g 2 p2 1) + gp(g 2 (2n2 p2 + 3p 1)) 2m m2 2 =
g 2 p(1 p) m donde g = am, calculando coeciente de asimetr e igualando a cero, se tiene que la solucin de la a o ecuacin diferencia es: o u 1 1 t 3 (1y) 3 0 u 1 g =
0
con j =
1 (12 ) 2 (11 )
y a = max(0, m1 m2 ) s min(m1 , m2 ) = b
b (m1 )( m2 ) 1 (1 2 ) s log + m log 2 + log j 2 (1 1 ) k sk j=a
9. Sea Y P () demostrar:
21
2 3
es de orden 1 y de Y
1 2
es de orden 1 .
Sea y = t y + c = , para c R. Sea as con s = 1, . . . , denida como : 1(1)(3) . . . (2s + 3) 2s s! se tiene la expansin de serie de Taylor: para algn t u o { { }s { }s1 } t t y = 1 + a1 + + (1)s as1 + Rs as = (1)s+1 Si t > 0, por denicin : o |Rs | < Se considera |t| , entonces, Rs ( )
f rac12
as ts ( )s 2 { (1)
i+1
1
i=s
ai
}i
Los primeros momentos de la distribuci de t son: n 1 = 0 2 = m 3 = m 4 = 3m2 + m Estos momentos son de orden 2 n cuando . Para la variable y cuando , se tiene: { } 1 3 8c 32c2 52c + 17 var(y) = 1+ + 4 8 322 as que cuando c = 3 , 8 1 var(y) = 4 por tanto, E(y) si el conjunto: E(y) = y + c y + c 1 8
1 2 1
{ 1+
1 162
24c 7 128 2
3
3 8
el sesgo entre y y .
1 } 9
por tanto, el coeciente de asimetr es de orden 1 . a b) Para una sola observacin y la funcin mxima verosimlitud, es ylog , realizando la expansin en o o a o (y) serie de Taylor, para la funcin = , entonces, o { } { 2 } Y 3 4 Y log (Y ) + 2 6 12 por tanto, la anterior expresin se puede aproximar a: o { 2 } 1 9 1 1 3 4 2 3 3 (Y 3 ) Y + 2 2 6 12 de esta forma, la funcion de verosimilutud de la variable aleatoria Y con y = 1 usando escala 1/3 con aproximacin cuadratica queda descrita por la anterior ecuacin. o o c) La frmula para el r-simo momento factorial E[Y (Y 1)(Y 2) . . . Y (Y r + 1)] = r . o e Dado que Y P (), entonces la funcin generadora de momentos es de la forma: o
k=0
MX (t) =
tk P (X = k)
(t)k
= e = e usando,
k=0 (t1)
k!
dn MY (t) dtn
E[Y (Y 1) . . . (Y r + 1)] = n d) Para este punto, denotamos como S2 (n, i) el segundo nmero de Stirling. u
23
E(Y n ) = =
n i=1 n
i=1 n1 i=1
S2 (n 1, i) E((y + i + 1)) +
ya que S2 (n 1, 0) = S2 (n 1, n) = 0
n1 i=1 n i=1 n d i d S2 (n 1, i) ( )E((y + i)) S2 (n 1, i)(i ) E((y + i)) d d i=1 n i=1
S2 (n 1, i) E((y + i + 1)) +
i
n1 i=1
d E((Y n1 ) d
S2 (n 1, i)(i )
d E((y + i)) d
n1 i=1
d E(Y n1 ) + d
S2 (n 1, i)i E(Y + i)
d = E(Y n1 ) + E(Y n1 ) d 14. Suponemos que Y B(m, ) y sea = m la media de Y . Para valores grandes de m, la devianza : 1 2 w(Y ) = [2Y log(Y /) + 2(m Y )log[(m Y )/(m )]1/2 ] + 6 m(1 ) w(Y ) diere de la distribucin normal en trminos de O(m1 ). Debido a que w(Y ) es aproximadamente o e simtrica de tal forma que puede ser vista como una distribucin discreta, ya que la varianza de w(Y ) es: e o
2 Y = 1 +
usando, la siguiente proposicion: Proposition 1 Si los cumulantes de X son de O(m) para un m grande, entonces, Y = g(X) es aproximadamente simtrica si g(.) satisface la sigueine ecuacin diferencial: e o
2 3k2 ()g () + g ()k3 () = 0
(4)
por tanto, w(Y ) O(m3/2 ) Y 16. Demostrar las frmulas de recurrencia de los momentos de la distribucin Binomial, o o La distribucin binomial se puede escribir como: o
n (n) f (e ) = px (e 1)x x x=0
24
donde los parmetros p, n y tienen el signicado usual. Por tanto podemos escribir para simplicidad en a calculos como:
x=0
Ax (e 1)x .
r = Ax (e 1)x r!
x=0
y
x=0
Ax (e 1) =
x
x=0
Ax
x v=0
(1)
xv
( ) x v e , v
r r r=0
r!
x!Ax Sx ,
x=0
Sx,s es un nmero de Stirling nmero de segundo tipo, se obtiene la siguiente identidad: u u x!Sx,r =
x v=0
(1)
rv
( ) x r v v
(5)
r =
(n)x px Sx,r
pero Sx,r es el nmero de Stirling que sigue la siguiente recurrencia: u Sx,r+1 = xSx,r + Sx1,r por tanto,
r+1 x=0 r+1 x=0
r+1 = =
25
r+1
= pq[nrr1 + Dp r ] 19. Demostrar que si Y P () entonces: Sea y = t y + c = , para c R. Sea as con s = 1, . . . , denida como : 1(1)(3) . . . (2s + 3) 2s s! para algn t se tiene la expansin de serie de Taylor: u o { { }s { }s1 } t t s y = 1 + a1 + + (1) as1 + Rs as = (1)s+1 Si t > 0, por denicin : o |Rs | < Se considera |t| , entonces, Rs ( )f rac12 =
i=s
as ts ( )s 2 { (1)i+1 ai }i
1
Los primeros momentos de la distribuci de t son: n 1 = 0 2 = m 3 = m 4 = 3m2 + m Estos momentos son de orden 2 n cuando . Para la variable y cuando , se tiene: { } 3 8c 32c2 52c + 17 1 1+ + var(y) = 4 8 322 as que cuando c = 3 , 8 1 var(y) = 4 { 1+ }
1
1 162
26
24c 7 128 2
3
representa a y como el estimado de podemos escribir: y por tanto, para c = Capitulo 3 1. Ejercicio 1. Para estimar , por medio de (m+1) = (X t W (m) X)1 X t W (m) Z (m) , se necesita encontrar W = diag{w1 , ..., wi , ..., wn } y Z = diag{z1 , ..., zi , ..., zn } para cada distribucin. Por lo cual se obtiene lo o siguiente: o a) Distribucin Normal i zi Wi = = = = = = i i + (yi i )g (i ) i + (yi i )
1 V (i )(g ())2 1 ( )2 3 8
1 8c 3 + 4 32
el sesgo entre y y .
o c) Distribucin Binomial i zi = = = Wi = = = = = =
me 1+e i +
(yi i )g (i )
me ) 1+e 1+e me ) me 1+e (1+e )2 me
me 1+e
i + (yi i + (yi
me )2 (1+e )2
)(me )2
27
d ) Distribucin Binomial Negativo o i zi = = = Wi = = = = = e) Distribucin Gamma o i zi Wi = = = = = = = o f ) Distribucin Normal inversa i zi Wi = = = = = = = (2) 2 i + (yi i )g (i ) 1 3 1 i + (yi (2) 2 )( 2 (2) 2 )
1
ke 1e i +
(yi i )g (i )
ke )( ke (1e )+ke e ) 1e (1e )2 ke )( ke ) 1e (1e )2
i + (yi i + (yi
1 i + (yi i )g (i ) i + (yi 1 )( 12 )
1 V (i )(g (i ))2 1 2 ( 1 )2 2 1 1 2 1 2 ( ) ( 2 ) 6
1 V (i )(g (i ))2 1
3 3
3 ( 1 (2) 2 )2 2
2. Ejercicio 5. Para calcular la covarianza se necesita calcular y el respectivo V o de la respetiva distribucin, o por lo cual, se tiene que: a) NORMAL L(x1 , ..., xn ; , v) ln(L) = = = = Luego
1 n 2v e 2v i=1 ( )n ) ( 1 1 ln 2v exp 2v n (xi )2 i=1 1 n ln(2v) 2v n (xi )2 i=1 2 1 n ln(v) n ln(2) 2v n (xi )2 i=1 2 2
(xi )2
28
= = = = = = = = =
= n
L v
)2 = 0
= n v b) POISSON
)2
L(x1 , ..., xn ; , v)
= = = =
ln(L)
= =
xi n
i=1
n + ln() n
xi
i=1 xi
Luego
L
= = =
n +
i=1 xi
=0
1 n x n i=1 i xi i=1 n
n e i=1
xi
xi n(k1) n xi i=1 (k) k1 nk en xi n xi i=1 (k) ( ) k1 nk en n xi n (xi ) i=1 ln i=1 (k) ( ) k1 i) nkln() n n xi + ln n (x(k) i=1 i=1
= = (
nk
n
xi n
i=1 xi
=0
n
i=1
( ) 2 exp (xi )i 2 vx 2 ) ( ) ( 1 )2 n 1 1 n ( x3 ) 2 exp 22 v n (xi xi 1 i=1 i=1 i ((2v) 2 ) n (xi )2 1 n ( 1 )3 ) 1 ln(n) 2 ln(2v) + ln(i=1 xi 2 i=1 xi 22 v
1 2vx3 )i
2
)1
29
= =
1 2 v n 2 v
=0
=
L v
= = = =
n n (
i=1 1 2
1 xi
2v
) =0
= 0 v
1 2 + 2 n 2
n
i=1
xi i=1 (xi )2
Despus para cada distribucin se tiene que, e o n n = i=1 xir yi i=1 xir i Luego
Ty X n 1 n 2v v i=1 (x ) 1 + 2v2 n (xi i=1
, r = 1, ..., p
)2
= = = )2
XT 0 0
Luego se despeja V
n 2
= =
Despus de calculado v y se calcula la covarianza. e 3. Ejercicio 7. Para calcular las estimaciones de m nimos cuadrados de cada distribucin se necesita localizar o c. a) Poisson g() g () g
g () g ()
= = = = = =
ln()
1 2 1
1 2
1 e1
V ar(y) c
= = = =
b () 1(e ) () 1 var(y) g () 2 ( 1 g) 1 e e 2
1 2
b) Normal g() g () g
g () g ()
= = = = = =
ln()
1 2 1
1 2
1 e1
30
V ar(y)
= = = = =
b () ( 2 ) 2 2 2 () 1 var(y) g () 2 g) ( 1 1 2 2
2 2
c) Gamma g() g () g
g () g ()
= = = = = =
ln()
1 2 1
1 2
1 e1
V ar(y)
= = = = = = = =
b () 1 (ln()) ( ( ) ) 1 1 (1) ( ( )) 1 1 ( ) 1 12
() 1 var(y) g () 2( ) g 1 1 2 1 2 1
d ) Gamma g() g () g
g () g ()
= = = = = =
ln()
1 2 1
1 2
1 e1
V ar(y)
= = = = =
= = = = =
31
El valor estimado de c puede divergir para muestras pequeas, y de esa forma existen las estimaciones. n 4. Ejercicio 12. Se realizan iteraciones variando en cada 0,2, y se compara el AIC. En caso de que el valor de AIC es menor que 10 % se determina que el modelo ajusto. ) ( 5. Ejercicio 13. Sea f (y) = exp r i y i , con 1 , ..., r desconocidos, una fdp, entonces: Para la estimacin o i=1 de MV: i Luego, para cada i jo. Para la estimacin de los momentos: o f (y) = = = ( ) exp ( r i y i i=1 ) exp (1 y r i i=2 i y ) exp 1(1 y 0) r i y i i=2 = p
j=1 xj j
j=1 xij j
Asi: f (y) b() b( t) = = = = = = = ) ( exp ( r i y i i=1 ) exp 1(1 y 0) r i y i i=2 1 1 0 ln(y) ln ( n xi i ) i=1
Luego: M (t) = = = = ( ) exp 1 (b(t + ) b() exp ((b( + t))) exp (ln ( n xi i )) i=1 n i=1 xi i
6. Ejercicio 15. Dada la ecuacin 3.7 de Clarisse, se tiene que o Cov() = (X T W X)1
Adems, para la funcin de distribucin ln-lineal se tiene que: a o o Entonces Cov() = (X T W X)1 = 1
m + (J (m) )1 U m
() n i i i i i=1 i i i
De donde
i i
(( = = = yln
+k
e k 1e
i i
= = =
i i i i i
))mid ( ( ln k+ ( )
k (k+)
k+
k (k+)2
= = = =
+ 2 + 2 (X) X
Luego U = = Capitulo 4 1. Valor de Deviance de los modelos: a) Deviance para modelo Binomial: Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi B(n, ), entonces la funcin de logo verosimilitud es, l(; y)
N i=1
para un modelo saturado, los valores de i son diferentes, asi que, = [1 , . . . , n ]Y . El valor estimado por mxima verosilimitud es = a
N i=1 yi ni
l(max ; y) =
Para algn otro modelo con p < N parmetros, sea el valor estimado usando mxima verosimilitud y u a a yi = ni denota los valores ajustados, entonces la funcin log-verosimilitud evaluada en estos valores es: o l(max ; y) = entonces la deviance es: D = 2[l(max ; y) l(; y)] n n i yi yi ) = 2 yi log( ) + (ni yi ) log( yi n i yi
i=1 N i=1
b) Deviance para modelo Normal: Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi N (i , ), entonces la funcin de o log-verosimilitud es,
n 1 1 l(; y) = (yi i )2 n log(2 2 ). 2 2 i=1
Para un modelo saturado, el estimador es = yi . Entonces, 1 l(max ; y) = n log(2 2 ). 2 Para algn otro modelo, se tiene = (X T X)1 X Y y, por lo que corresponde a la funcin de verosmilitud, u o l(; y) = entonces la deviance es: D = 2[l(max ; y) l(; y)] n 1 = (yi i ). 2
i=1 n 1 1 (yi xT b)2 n log(2 2 ). i 2 2 i=1
c) Deviance para modelo Poisson: Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi P (), entonces la funcin de logo verosimilitud es, l(; y) = yi log(i ) i log(yi !)
Para un modelo saturado, el estimador es i = yi as que la funcin es, o l(max ; y) = yi log yi yi log(yi !) en cualquier otro caso, se tiene que el estimador de puede ser usado para calcular i y ajustar los valores yi = i , debido a que E(Yi ) = i , por tanto, l(; y) = yi log(i ) y 34 yi log(yi !)
por tanto, la deviance es: D = 2[l(max ; y) l(; y)] yi = 2[ yi log( ) (yi yi )]. yi d) Deviance para modelo Gamma: Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi Gamma(), entonces la funcin de o log-verosimilitud es, l(; y) = u
n i=1
(yi i b(i )) +
n i=1
l(max ; y) = u
1 y para cualquier otro modelo = , as que la funcin de verosimilitud queda denida como, o
l(; y) = u
n i=1
La funcin deviance escalada del modelo Gamma, jo el parmetro de dispersin, como sigue: o a o D() = 2[l(, v) l(, v)] n yi y = 2v ni [ log 1] i i
i=1
D()res = 2
ni [
yi y log 1] i i
entonces, el estimador de la dispersin basado en la deviance: o D()res = np donde p es el nmero de parmetros libres beta del modelo. u a e) Deviance para modelo Binomial Negativa: Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi BN (, k), entonces la funcin de o log-verosimilitud es, l(; y) =
n i=1
Para un modelo saturado, el estimador es i = log de puede ser usado para calcular i = log por tanto, la deviance es:
+k
35
f) Deviance para modelo Normal Inversa: Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi N I(, ), entonces la funcin de o log-verosimilitud es, l(; y) =
n i=1
yi
1 1 + 2 + ) log( 2 3 2 2 2y 2y
n i=1
i
1 Para un modelo saturado, el estimador es i = 2y2 y en cualquier otro caso, se tiene que el estimador 1 de puede ser usado para calcular 22 i por tanto, la deviance es:
Ahora calculamos el valor de la estad stica de Pearson 2 : p a) 2 para modelo Binomial: p Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi B(n, ), entonces,
n (yi )2 i=1 n
V ()
(yi )2 . (m ) i=1 m
V () (yi )2 .
36
V () (yi )2 .
V () (yi )2 . 2
2 p
= =
V () (yi )2 = n p. (1 + a)i
f) 2 para modelo Normal Inversa: p Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi N I(, ), entonces,
n (yi )2 i=1 n i=1
2 = p =
V () (yi )2 . 3 i
4. Para los modelos log-lineales, se tiene que en el caso de Poisson, i = log i lo que implica que = logyi , para y > 0 y = log mui tal que D = 2[ yi log( yi ) sum(yi yi ], yi
pero si se tiene una columna de unos, entonces, el i-simo trmino de D equivale a 2 e e que denimos la columna 1n C(x) entonces, (I H) = 0 por tanto, i yi = 0. 5. Para un modelo log-lineal,se tiene:
yi i=1 yi log( mu )
ya
La funcin de enlace, i = log{[(1 i ) 1]1 } = 0 + 1 xi , a partir de su funcin de verosimilitud o o se puede obtener: ( )(+1 1 i pero i = e e +1 /, para 1 e > 1, as , 37
= =
(Y n)((1 ) 1)(1 ) ( 1) (n Y ) (1 ) Y n +
E(U ) =
V ar(U ) = =
(1 )( )
( U=
SR = U K
(1 ) (n Y ) Y n +
)(
2 n(1 )((1 )2 + 1)
)(
(1 ) (n Y ) Y n +
) ,
n (yi 1 )i V 1 = 0 i=1
6. a) Para un modelo Gamma, los valores de los estimadores si las medias son iguales son: para el modelo 1 1 o saturado max = i y = i generando asi la funcin de devianza: D = 21
n i=1
log
i (yi i ) + , yi i
pero, por hiptesis, las medias son iguales y 1 = v 1 , se puede reducir a: o = 2v log ( + ) y + , y
),
D = 2nv
log(
yi ) yi
pero se puede utilizar el hecho que y y = y la media aritmetica y geometrica. b) Para el caso de la Gamma, f (y; , v) =
vv
(v)
v1
yv exp
) , y>0
38
(yi i b(i )) +
n i=1
E(
7. a) Para la distribucin normal, se tiene: para observaciones independientes Y 1, . . . , Yn con Yi o N (i , 2 ), para estimar el parmetro de dispersin, se dene la estad a o stica: X2 =
n (Yi i )2 i=1
V (i )
por tanto, para el caso de la distribucin normal, se tiene: o = 2 , n 2 i=1 (Yi i ) = , np Dp = . n b) Para la distribucin Gamma, se tiene: para observaciones independientes Y 1, . . . , Yn con Yi Gamma(, ), o para estimar el parmetro de dispersin, se dene la estad a o stica: X =
2 n (Yi i )2 i=1
V (i )
8.Considere una sola variable respuesta Y con Y binomial (n, ). Si Y binomial (n, ), luego { ( ) ( )} n f (y, ) = exp y log + n log(1 ) + log I{0,1,2,...,n} (y) 1 y Siendo la expresin anterior la funcin de densidad y la verosimilitud en vista de contar con una sola variable o o aleatoria. Por lo anterior la Log-verosimilitud esta dada por: ( ) ( ) n (, y) = y log + n log(1 ) + log 1 y 39
n (1 )
n n (y n)2 = = 2 (1 ) n (1 )
La expresin anterior se puede obtener como U t J 1 U . Para el caso de una sola variable como este, o tenemos; U2 = J ( y n (1 ) )2 (1 ) (y n)2 = n n(1 )
Encontrar la Deviance. El estad stico de razn de verosimilitud esta denido por: o D = 2[(bmax ; y) (b; y)]
y Para el caso y asumiendo = n , tenemos;
Para cualquier otro modelo si fuera el caso por ejemplo p < N parmetros, denota el estimador de mxima a a verosimilitud para la probabilidad de ocurrencia del evento y y = n el valor ajustado, luego; ( ) ( ) ( ) ny ny n + n log + log (b; y) = y log(/n) y log y n n y Por lo tanto la Deviance esta dada por: [ ( ) ( )] y ny D = 2 y log + (n y) log y ny 2 (1) 0,05
(c,1)
El anlisis es a partir de la comparacin de la realizacin del estad a o o stico con el percentil de la distribucin o = 3,84146. El estad stico de Wald es
(yn)2 n(1) .
Wald 1 =
Wald 1 2 (1)
La Deviance aplicando (c,1) esta dada por D = 3,073272. De manera que el estad stico de Wald sugiere que rechacemos = 0,1. Mientras que la Deviance que no. Para le caso n = 10, y = 3 y = 0,3, tenemos: Wald 2 = 0 40
La Deviance aplicando (c,1) esta dada por D = 0. Luego no rechazamos = 0,3. Para le caso n = 10, y = 3 y = 0,5, tenemos: Wald 3 = 1,6 La Deviance aplicando (c,1) esta dada por D = 1,65. Luego en ninguno de los dos casos rechazamos = 0,5. 9. f (yi ; i ) = i exp(yi i )I(0,) (yi ) Obtenga la deviance por comparacin del modelo mximal con diferentes valores de i para cada Yi y el modelo o a con i = para todo i. El estad stico de razn de verosimilitud esta denido como; o D = 2[(bmax ; y) (b; y)] Si f (y; ) = exp(y)I(0,) (y). Podemos reexpresar tal funcin de densidad como: o f (y; ) = exp{log[ exp(y)]})I(0,) (y) = exp{log y}I(0,) (y) Luego la Log-verosimilitud esta dada por, la contribucin de cada una de las observaciones; o (bmax ; y) =
N i=1
(log i yi i ),
1 i = yi
La expresin anterior es a partir de un modelo saturado, donde los i son todos diferentes de manera que = o [1 , 2 , . . . , N ]t . Para cualquier otro modelo y en particular aquel con i = para todo i, E(Y ) = 1 . (b; y) =
N N (log yi ) = N log yi i=1 i=1
N = N
i=1 yi
1 . y
En el modelo saturado i =
1 yi
1 y en el otro caso = y . 1 D=2 log (1) N log yi i=1 i=1 [ N ] =2 log yi + N log y
N i=1
] ( ) 1 1 + Ny y y
10. Sea Y1 , . . . , Yn una muestra aleatoria de una distribucin Poisson, P () con i = i1 , i = 1, . . . , n. o Entonces se tiene:
41
log(yi !)
= 2 = =
vi
n yi i1 i=1 n
i1
1 yi n i1
i=1
E(U ) = E( = 0
1 yi n), i1
n i=1
V ar(U ) =
n 1 1 2 V ar(yi ) 2 i1 i=1
n 1 i1 = 2 i1 i=1 n = = K.
w = 2[
yi log(
11. Un algoritmo se puede utilizar en este caso: Calcular la estimacin inicial de , r de la forma regular, asumiendo independencia, o 42
A partir de esta estimacin se calcula los residuos dados por: o rij = donde V = n i=1
i i i k i Vi k
(yij ij ) V
(6)
Los residuos seran utilizados para considerar estimaciones para el resto de parmetros, a Calcular la estimacin de covariaza, o por tanto, generar la siguiente frmula de recurrencia: o r+1 = r +
n i i 1 i 1 i [ V 1 ] [ V ] k i k k i k i1
(7)
12. Para realizar la prueba de hiptesis, se utiliza la estad o stica de Wald, est denida como: a w = ( )V 1 ( donde, V es la matriz de varianzas estimada, incorpora una estructura en teoria de grupos, esta estadistica posee ditribucin chi- cuadrado con grados de libertad iguales al numero de parmetros. o a 13. Para un modelo Gamma, los valores de los estimadores si las medias son iguales son: para el modelo 1 1 o saturado max = i y = i generando asi la funcin de devianza: D = 2 pero, por hiptesis, las medias son iguales y o
1 n i=1
log
i (yi i ) + , yi i
= v 1 , se puede reducir a: ( + ) y + , y
= 2v log
),
D = 2nv
log(
yi ) yi
pero se puede utilizar el hecho que y y = y la media aritmetica y geometrica, para calcular es estimador de por tanto, usando la aproximacin de taylor para la funcin, o o () = () ()
para grande, entonces, se propone la siguiente aproximacin: o 2Dp 1 n = [1 + ] 2Dp 3n y se puede vericar que, V ar(1 ) = si reemplazamos, se obtiene que:
n i=1
c (yi , )
y 2() y = y 43
14. Sea Y1 , . . . , Yn una muestra aleatoria de una distribucin Normal, N (, 2 ) con desconocido. Eno tonces se tiene la estimacin para = (, ) esta dada por: o = (X T X)1 X T y, de tal forma que E() = la matriz de covarianza es:
I 1 = 2 (X T X)1
por tanto, como es desconocido, se puede estimar de la siguiente forma: 2 = 1 (y X)T (y X) N p (8)
si E(y = s) y E[(y X)(y X)T ] = V , con V conocidom eotnces, debemos minimizar Sw para calcular el estimador de , Sw = (y X)T V 1 (y X), por tanto, Sw = 2X T V 1 (y X) = 0 asi que, Estadistica de escore: SR (Y )2 2 1 Estadistica de Wald: W = ( ) Razn de verosimilitud: o w = 2[l(, v) l(, v)], n 1 = (yi i ). 2
i=1
= (X T V 1 X)1 X T v 1 y
( n ) ( ) 2 , n 2 2
15. Sea Y1 , . . . , Yn una muestra aleatoria de una distribucin Poisson, P () con i = i1 , i = 1, . . . , n. o Entonces se tiene: a) la funcin log verosimilitud : o l(; y) = yi log(i1 )
i1
log(yi !)
= 2 = =
vi
n yi i1 i=1 n
i1
1 yi n i1
i=1
44
E(U ) = E( = 0
1 yi n), i1
n i=1
V ar(U ) = =
i1 i1
yi 1 yi n n i1 n i1
n n i=1 i=1
w = 2[
yi log(
16. Sea Yi , i = 1, . . . , n variables aleatorias independientes con distribucin gamma, media i y parmetro o a . La funcin de densidad para cada Yi esta dada por: o f (yi , i , ) = 1 yi yi 1 e i i yi 1 yi yi 1 = exp[log + log + log ] () i i yi yi = exp[log() + log(yi ) log i log yi ] i yi = exp[[ log i ] log () + log(yi ) log(yi )] i
asi que la funcin queda: o } n { yi l(, y) = [ log i + ( 1) log yi + log log ()] i
i=1
yi log i i
n i=1
yi log(i ))] i
D(y, ) = log (), 2n implica que, D(y, ) = n[log ()], 2 para el caso de la Gamma, se tiene,
n yi i i=1 n i=1
D(y, ) = 2 = 2
log
yi i
(9) (10)
n i=1
yi yi log i i log(yi )
(11)
(12)
46