You are on page 1of 46

TItulo

19 de enero de 2012
Capitulo 1 2. Sea X una v.a. con distribucin Gamma G(v) de parmetro v > 0, entonces: o a f (x; v) = De proposiciones anteriores se conoce que : f (x, v) = con E(x) = v Por tanto, realizando los correspondientes clculos a ( f (y) =
yv

xv1 ex , (v)

x > 0,

xv1 ex (v)

V ar =

X , v

)v1 e

yv

(v) ( )v v1 yv v y e = (v)

3. 1. Distribucin exponencial: o e y y!(1 e ) ( ) e y 1e y!


1 y e 1

f (y; ) =

= =

y! [ ] = exp yln() ln(e 1) ln(y!) = 1 = ln() c = ln(y) b() = ln(e 1) = ln(exp(e 1))

2. E(Y): E(Y ) = b () = (ln(exp(e 1))) exp(e )e = exp(e ) 1 e = exp() 1 = 1 e 3. V ar(Y ): ( V ar(Y ) = = = = = = = = ) exp(e )e exp(e ) 1 (exp(e )e ) (exp(e ) 1) (exp(e )e )(exp(e ) 1) (exp(e ) 1)2 (e exp(e )e + exp(e )e )(exp(e ) 1) (exp(e )e )(e exp(e ) 1) (exp(e ) 1)2 (2 e + e )(e 1) (e )(e ) (e 1)2 ( ) e e 1 e 1 1 e ( ) e 1 , Rta 1 e 1 e ( ) e e 1 e 1 1 e ( ) e 1+ , Rta e 1 1 e

4. M (t): Como: (t) = et ln(e 1) [ ] M (t) = exp et ln(e 1) = = exp(et ) exp(ln(e 1)) exp(et ) (e 1)

4. f (y.) =
(m) y y (1)my 1(1)m

1. Demostracin: o f (y, ) =

(m) y y (1 )my

1 (1 )m (m) ( )y (1 )m y = 1 1 (1 )m (m) y h(x) = ) = log( 1 (e+1 )m b() = log 1 (e + 1)m = log((e 1)m 1)

2. E(Y ) E(y) = b () = (log((e + 1)m 1)) m(e + 1)m1 e = (e + 1)m 1 m(1 )1m 1 = (1 )m 1 m = 1 (1 )m 3. V ar(Y ) V ar(Y ) = [ ] m ((m 1)(e + 1)m2 e2 + (e + 1)m1 e )((/e + 1)m 1)... ((e + 1)m 1)2 [ ] ... (e + 1)m1 e m(e + 1)m1 e ] me (e + 1)m2 [ ((m 1)e + (e + 1))((e + 1)m 1) (e + 1)m e m ((e + 1)m 1)2 [ ] m 1 (1 )2m (m) + 1 (1 m)m m ( )((1 ) 1) m ((1 )m 1)2 1 1 m(1 )2m (((m 1) + 1)(1 (1 )m ) m) (1 )m1 (1 (1 )m )2 (1 )m+1 m m ((m 1) + 1 ) 1 (1 )m 1 (1 )m ((m 1) + 1 )

= = = = =

4. Para M (t, , ) (m) y /1 (my y 1 (1 )m m (1 m)m ) log( ) + log( y )) = exp(ylog( m 1 1 (1 m)

f (y, ) =

Luego: =1 1 b() = log((e + 1)m 1) (m) c(y, ) = log y = log

Entonces: M (t, , ) = log((et+ + 1)m 1) log((e + 1)m 1) (et+ + 1)m 1 = (et + 1)m 1 (et e + 1)m 1 = (e + 1)m 1 (et 1 + 1)m 1 = (1 )m 1 (et + 1 )m (1 )m = 1 (1 m)m 5. 1. Normal [ ] 1 y2 2 c(y; ) = + log(2 ) 2 2 1 1 = 2 y 2 log(2 2 ) 2 2

= 2 w = 1 2

g(y) = y 2 w s( ) = log(2 2 ) t(y) = 0

2. Normal Inversa

[ ] 1 1 2 3 c(y; ) = log(2 y ) + 2 2 y [ ] 1 1 2 3 = log(2 ) + log(y ) + 2 2 y 1 1 1 = 2 2 log(2 2 ) + log(y 3 ) 2 y 2

= 2 w = g(y) = 1 2 1 y2

w s( ) = log(2 2 ) t(y) = log(y 3 )

3. Gamma C(y; ) = vlog(vy) log(y) log((v)) = vlog(y) (log((v)) vlog(v)) + (log(y)) = v 1 w = 1 g(y) = log(y) w s( ) = (log((v)) vlog(v)) t(y) = (log(y))

6.

1. Demostracin: o f (y) = =
0 1

f (y | p)f (p)dp

p1 (1 p)1 y py (1 p)my B(, ) 0 (m) 1 y p+y1 (1 p)m+y1 dp B(, ) 0 (m) y B( + y, m + y) B(, )

1 (m)

2. E(Y ): + var(y) = m(1 (m 1)) 1 = ++1 E(y) = m 3. f (y) no pertenece a la familia 1.5: f (y) = y B( + y, m + y) B(, ) m ( + y)(m + y)( + ) = y ()()( + + m) y my m i=1 ( + y i) i=1 (m y i) m = y i=1 ( + + m i) ( y my = exp log( + y i) + log(m + y 1) + log m
m i=1 i=1

(y ) i=1 ( + + m i)

De esta funcin no es posible separar de y, ni de y, por lo tanto f (y) no pertenece a la familia 1.5. o 7. 1. Demostracin de que Y tiene distribucion normal negativa: o f (y; , k) = = = ( ) ( ) z y ez 1 1 k z exp dz y! () k ( ) ( ( )) y+1 k z exp z 1 + dz y!() k ( ) [ ( )y ] ( + y) k y!() ( k + )+y k ( y ) k ( + y) ()y! ( + )+y
k

El valor esperado : E(Y ) = (ln( )) k k = =

Y la varianza de Y seria V ar(Y ) = (( + 1))(ln( )) k k = (( + 1))( ) k = (( + 1))( 2 ) ( ) k +1 = ( ) 1 = 1+ ( ) = 1+ k 2. Demostracin o f (y; r, ) = = = = z y ez r r1 z exp (z) dz y! (r) r z y+r1 exp (z (1 + )) dz y!(r) [ ] (r + y)()yr r y!(r) (2)+y (y + r) y y!(y) ( 1 + )+y

8. 1. E(y) =
(y + c ) v E(Y ) = y c ( )y! v y=0

c 1 1+ v

)y (1 + v1c )

2 v

Como (n) = (n 1)!


(y + y=1

E(Y ) =

( )y 2 c1 1+ (1 + v1c ) v c v ( v )(y)
c v )

Como (z + 1) = z(z)
y=1 c v ) )

E(Y ) =

(y +
( +1) v
c v c

(y)

( )y 2 c1 1+ (1 + v1c ) v v

(m) Como n =

(m+1) (n+1)(mn+1)

E(Y ) =

c v

1 + v

) mc 1c
v

) m c c ( v 1 + v1c v ( ) zn

( ) c1 y y1 1+ v y=1 ( )1 (y+ c ) ( )y c1 c1 v y 1+ 1+ v v
y1+ v
c

y=0

Como (1

z)(+1)

n+

n=0

E(y) = = = =

c c (1 + v1c ) v v c c (1 + v1c ) v v ( v ) c c1 + 1

) )1 ( ( 1 c1 1 1+ c1 v 1+ v ( )1 ) ( ( ) c +1 c1 1c v 1+ 1 + v v

2 +1 v

v c

c1 v

+1 v + c1 c1 + v

v c1 =

2. V ar(Y ) = + v2c ( )y ( ) c c1 1c v E(Y ) = 1+ 1 + v c v ( )y! v y=0 ) ( c )y (y 1 + 1) y + v ( ( ) c c1 1c v ( c ) 1+ 1 + v = v v (y 1)! y=1 ) ( c ( )y y+ v c c1 ( c ) 1+ = (1 + v1c ) v + v v (y 1) y=2


2 c v

( y2 y +

Como (z + 2) = (z + 1)(z)(z)

( E(y 2 ) = ( = (

c v

)( +1 )(

c v c v

) )

( (

1 + v1c

c v

c +1 v

1 + v1c

) c
v

( )( ) c c1 y y+ 1+ v v ( c ) + v + 2 (y 1) y=2 ( )2 (y+ c +1) ( )y c1 c1 v y 1+ 1+ + v v


y=0 ( ) c +2 v

) ( ) )2 ( ) c c1 c c ( 1 1c v 1+ = +1 1 + v 1 c1 v v v 1+ v ) ( ( c )2 ) c ( ) c +2 c1 ( + 1)c ( 1 + v1c v 1 + = 1 + v1c v + v2 v )2 )( ( c v 1 + c1 ( + v) c + = c1 v2 1+ v )( (c + v) c v 2 + v2 2c2 = (c + v) 2c + = = 2 + v2c +

Entonces

V ar(Y ) = (2 + v2c + ) 2 = + v2c

c = 0 E(Y ) = y V ar(Y ) = + v2 c = 1 E(Y ) = y V ar(Y ) = + v

3. Mostrar que P (Y = y) solo pertenece a la familia 1.5 si c = 0. )y ( y+ ( ) c c1 ( c ) 1 + v1c v P (Y = y) = 1+ v v y! ) ( c y ( )y ( ) c i=1 v +yi c1 = 1+ 1 + v1c v y! v ) ( ) ( y ( ) c c c1 log 1 + v1c + log( + y i) log(y!) = exp ylog 1 + v v v
c v i=1

Para c = 0:

( P (Y = y) = exp ylog (v) (v)


1

log 1 + v

1c

y i=1

( log

) ) c + y i log(y!) v

En este caso, P (Y = y) pertenece a la familia 1.5 con:

= log(v) ( ) b() = e log 1 e ( c ) y log c(y; ) = + y i log(y!) v


i=1

= 1

Para y = 0 no es posible separar a y de pertenece a la familia 1.5. 11.

c v

en

i=1 log

c v

) + y i , por lo tanto, para c = 0, P (Y = y) no

(y; ) = =

1 y exp [y + log(cos())] cosh( ) 2 2 [ 1 y ] exp y + log(cos()) + ln(cosh( )) 2 2

b() = log(cos()) (t) = 1 (b(t + ) b()) = (b(t + ) b()) = (ln(cos(t + )) + ln(cos()) ( ) cos( = ln cos(t + ) M (t) = exp() cos() = cos(t + ) 12. Normal:

10

f (x) = = 1 = 2 = b() = t1 = t2 = h(x) =

1 x 2 1 e2( ) 2 ] [ 1 x2 2 1 exp 2 ( ) + 2 x ( 2 ) 2 2 + log() 2

1 2 2 2 2 1 log(1 ) 21 2 x2 2 x 1 2

Gamma: f (x) = ex x1 () = exp [(x) + log(x) + log() log(())] 1 = exp((x) + log(x) + log( )) x ()

h(x) =

1 x =

2 = t1 (x) = x t2 (x) = log(x) b() = log () Normal inversa: f (x) = h(x) = 1 = 2 = t1 (x) = t2 (x) = b(1 , 2 ) = ] [ 1 1 1 x2 1 1 exp log() + 2 ( ) + + ( ) x 2 2 2x 2 2 x3 1 2x3 1 2 1 2 x2 2 1 2x 1 2 2 + log(2 ) 2

11

Beta: f (x) = = = h(x) = 1 (a + b) a1 x (1 x)b1 (a)(b) xa1 (1 x)b1 B(a, b) 1 exp [alog(x) + blog(1 x) log(B(a, b))] x(1 x)

1 x(1 x) = a

2 = b t1 (x) = x t2 (x) = log(x) b() = log () 13. Se tiene, E(T ) = Cov(T ) = Entonces: Normal: b() = E(T ) = Cov(T ) =
2 1 2 log(1 ) 21 2 1 1 2 2 1 22

b() 2 b() T

Gamma: () ( )| E(T ) = () () (( )| )2 ( )|| Cov(T ) = + () () () b() = log Normal inversa: b(1 , 2 ) =

1 2 2 + log(2 ) 2 1 1 E(T ) = + 2 ) ( 1 1 CovT () = + 3/2 22

12

Beta: () ( )| E(T ) = () () (( )| )2 ( )|| Cov(T ) = + () () () b() = log 15. 1 Para demostrar que E(X) = , E(X1 ) = 1 + y cov(X, X1 ), se parte de que b() = 2 log()

, luego=

E(X) = = = = E(X1 ) = = = = Ademas:

b() ( ) 1 2 log() 2 ( ) 1 2 2 b() ( ) 1 log() 2 2 ( ) ( ) 1 1 1 2 2 2 1 +

2 b() 4 2

( ) = 2 ( ) 1 = 2 2 3 = 3 (

2 b() 4 2

) 1 + ) 1 = 2 2 2 3 2 = 2 + 3 = 2 (

13

2 b() 4

( ) = 2 ) ( 1 1 = 2 2 = () 2
1

Luego

2 b() 4 2 cov(X) = 2 b() 4

2 4 b() 3 = 1 22 + 3 () 2

1 () 2 2 + 2 3

16. f (x, ) = h(x)exp [g(x, )] Familia 1.1: f (x, ) Veamos que la siguiente condicin: o
g(x1 ,)g(x2 ) g(x3 ,)g(x4 ,)

h(x)exp(()t(x) b())

h()

Implica que f no pertenece a 1.1. Supongamos que f pertenece a 1.1, entonces g(x1 , ) g(x2 ) g(x3 , ) g(x4 , ) = = ()t(x1 b() ()t(x2 ) + b() ()t(x3 b() ()t(x4 ) + b() t(x1 t(x2 ) t(x3 t(x4

que no es funcin de , por lo tanto f no pertenece a 1.1. o 17. La distribucin de cauchi esta dada por: o f (x, ) = luego: [ ( ( ))] f (x, ) = exp ln 1 + (x )2 [ ( )] = exp ln () ln 1 + (x )2 ( ) 1 = exp ln(1 + (x )2 ) y como ln(1 + (x )2 ) es una funcin que no se puede separar en terminos de ()t(x) b(), se tiene o que no es un miembro de la familia exponencial uniparametrica. 18. 1 [1 + (x )2 ]

14

f (x, , ) = h(x)exp(x + t(x) b(, )) E(x) = b(, )

l((, )) = log(h(x)) + x + t(x) b(, ) = x = U E(U ) = = E(x) = E(x) = b(, ) b(, ) b(, )

V ar(x) =

2 b(, ) 2

T E(U ) = V ar(U )

2 b(, ) 2 E( ) = E(U ) (E(U ))2 2 2 b(, ) 2 = E((x b(, ) 2 ) ) ( ) b(, ) b(, ) 2 = E(x2 ) 2E(x) +

= E(x2 ) (E(x))2 = var(x)

T (T (x)) =

b(, ) b(, )

= t(x)

E(U ) = o E(T (x)) = b(, )

15

cov(x, (x)) =

2 b(, ) 2 ) 2 b(, ) x b(, )

cov(U , U ) = E(, ) ( = E((x b b ), ( (x) )) =

19. La multiparametrica de la familia exponencial es: ( f (x, ) = h(x)exp


k i=1

) i ( )ti (x) b()

en donde i () es funcin real. El parametro natural es: o eta1 ()t1 () + ... + etak ()tk () Parametro canonico. i ti + ... + k tk () luego h(x)exp (
k

) i ()ti (x) b() dx = 1

) i ()ti (x) b() dx = 0 h(x)exp i i=1 ( k ) b() h(x)exp i ti (x) b() (ti (x) )dx = 0 i i i=1 b() )dx = 0 f (x)(ti (x) i i = b(i ) E(ti ()) = i Luego
2 i j

i=1 ( k

h(x)exp

k i=1 i ()ti (x)

) b() dx

Asi f (x)(ti (x)


2b i j b bi

2b i j )dx

f (x)(0 0

2b i j )dx

Entonces COV (Ti (X), Tj (X)) = 20.

16

1. Se tiene que. fy1 fy2 = = e y1 y! e ()y y!

y+ = Y1 + Y2 tiene distribucin poisson con media (1 + ) o f (y+ ) = fy1 (y) fy2 (y) y = fy1 (n)fy2 (y n) = = =
n=0 y

n=0 e(1+) y

e n e ()yn n! (y n)! y! y y! yn n!(y n)!

n=0 (1+) ((1 + e

))y

y!

Y1 | Y+ 21. o 1. Aproximacin de la Binomial a la Poisson. (m) m(m 1)...(m k + 1) ( )k ( )mk l m k k (1 )mk = l m 1 m m m m mk k m(m 1)...(m k + 1) ( )k )m ( l m 1 = 1 k! m mk m m k e = k! k e = k! 2. Aproximacin de la Binomial a la Normal. Sea X B(n, P ) o
m

l P (X a) = P (Y a + 0, 5) m ) ( (a + 0, 5) nP =z = P Z nP (1 P )

l P (X a) = P (Y a 0, 5) m ) ( (a 0, 5) nP =z = P Z nP (1 P )

l P (a X b) = P (a 0, 5 Y b + 0, 5) m ) ( (b + 0, 5) nP (a 0, 5) nP = z1 Z = z2 = P nP (1 P ) nP (1 P )

Entonces: 17

Y n(, 2 ) 22.

Z n(0, 1)

r E(x E(x))r = E( r(i xi (e(x))))ri = =


i=0 r (( i=0 r (( i=0 r)

i E(xi )(E(x))

)ri )

r)

i i1 b(i) ()(b| ())ri

24. ( ) 1 f (y, ) = xp (ylog() log(log(1 ))) y = log() b() = log(log(1 e )) b() = log(1 ) e E(x) = (1 e )log(1 e ) = (1 )log(1 ) = (1 )b() [ ] e (1 e )log(1 e ) + e (e )(log(1 e )) V ar(y) = ((1 e )log(1 e ))2 [ ] e log(1 e ) + e = ((1 e )log(1 e ))2 [log(1 ) + ] = ((1 )log(1 ))2 log(1 ) + = (1 )2 log(1 ) log(1 ) ) ( = 1 b()(1 )2 b()

18

Capitulo 2 1. Se tiene que: 1 0 l m Aplicando regla de Lhopital, 1

= (1 + eln() ) = eln() ln() = ln()

por tanto, 1 0 l m

l ln() m

= ln()

3. (a) } (1 ) 1 = log { } 1 (1 ) (1 ) = log { Si = 1, { log 1 (1 ) (1 ) } = log { 1 }

correspondiente al modelo Logit. (b) Para 0, } e ln(1) e0 l log m = l ln m 0 0 } { e log(1) log(1 ) aplicando regla de lhopital = log l m 0 1 { (1 ) 1 } = log(log(1 )) 4. = log entonces, para los siguientes casos se tiene: g1 (), = 1 = { (1 )1 } {

19

g2 (), = 0,5 = 2(1 g(), = 0 No esta denida g3 (), = 0,5 2(1 1 ) = 1 g4 (), = 1 = g5 (), = 2 = 1 1 2( 1)2 2 1 (1 ))

6. Demostrar que si Y tiene distribucin binomial B(m, ), entonces, para valores grandes de m, o { } Y V ar(arcsen( )) m es aproximadamente
1 4m .

Y Sea u = g( m ), la expansin en serie de Taylor para los primeros valores es: o

g(p) + g ( ya que Y B(m, p) y m , entonces:

Y p) m

Y mp N (0, 1) mp(1 p) por tanto, de esta forma podemos calcular: E(g( y V ar(g( Y )) = g(p) m
Y m Y m (1

p
Y m )/m

N (p,

p(1 p) ) m

Y Y Ahora, si g( ( m )) = arcsen( ( m )) entonces se tiene: Y Y E(g( )) = arcsen( ( )) m m y V ar(g(

p(1 p) Y )) = [g (p)]2 m m

Y 1 1 p(1 p) 1 )) = = m 4 p(1 p) m 4m 20

Y 7. Suponga que Y tiene distribucin Binomial B(m, ) y que g( m ) una funcin arbitraria. Calcular el o o Y coeciente de asimetr asintotico de g( m ). a Y Sea u = g( m ), la expansin en serie de Taylor para los primeros valores es: o

Y p) m por tanto, se puede denir la variable aleatoria G: g(p) + g ( G = aY + b con, a = g )(p) y b = g(p) g ( )(p)p m entonces, por propiedades de la funcin generadora de momentos, se tiene: o
(

MG (t) = ebt (peat p + 1)m para calcular el coeciente de asimetr se debe calcular los momentos centrales 3 y 2 , entonces: a entonces, 3 = 2b3 m3 + 6b2 gm2 p + 2bm2 (3g 2 p2 1) + gp(g 2 (2n2 p2 + 3p 1)) 2m m2 2 =

g 2 p(1 p) m donde g = am, calculando coeciente de asimetr e igualando a cero, se tiene que la solucin de la a o ecuacin diferencia es: o u 1 1 t 3 (1y) 3 0 u 1 g =
0

8. Sea Y1 y Y3 variables aleatorias, con Y1 B(m1 , 1 ) y Y2 B(m2 , 2 ), entonces, sea S = Y1 + Y2 , m = m1 + m2

P (S = s) = P (Y1 + Y2 = s) P (Y1 = k)P (Y2 = s k) = ) ( ) m1 k m2 m1 k = 1 (1 1 ) sk (1 2 )sk k sk 2 k=0 b (m1 )( m2 ) ms m1 s ms = 1 (1 1 ) 2 (1 2 ) j k sk


j=a k=0 (

con j =

1 (12 ) 2 (11 )

y a = max(0, m1 m2 ) s min(m1 , m2 ) = b
b (m1 )( m2 ) 1 (1 2 ) s log + m log 2 + log j 2 (1 1 ) k sk j=a

y pertence a la familia exponencial:

9. Sea Y P () demostrar:

21

(a) El coeciente de asimetr de Y a

2 3

es de orden 1 y de Y

1 2

es de orden 1 .

Sea y = t y + c = , para c R. Sea as con s = 1, . . . , denida como : 1(1)(3) . . . (2s + 3) 2s s! se tiene la expansin de serie de Taylor: para algn t u o { { }s { }s1 } t t y = 1 + a1 + + (1)s as1 + Rs as = (1)s+1 Si t > 0, por denicin : o |Rs | < Se considera |t| , entonces, Rs ( )
f rac12

as ts ( )s 2 { (1)
i+1
1

i=s

ai

}i

Los primeros momentos de la distribuci de t son: n 1 = 0 2 = m 3 = m 4 = 3m2 + m Estos momentos son de orden 2 n cuando . Para la variable y cuando , se tiene: { } 1 3 8c 32c2 52c + 17 var(y) = 1+ + 4 8 322 as que cuando c = 3 , 8 1 var(y) = 4 por tanto, E(y) si el conjunto: E(y) = y + c y + c 1 8
1 2 1

{ 1+

1 162

24c 7 128 2
3

representa a y como el estimado de podemos escribir: y 1 8c 3 + 4 32 22

por tanto, para c =

3 8

el sesgo entre y y .

Finalmente, el coeciente de asimetr a: { } 25 48c 1 1 1 + 16 2 2 1 queda de orden 2 .


1

Por otro lado, para el caso de Y 3 : E(Y 3 ) = 3 {1 + y


2 1 4 1 var(Y 3 ) = 3 {1 + } 9 6 2 2

1 } 9

por tanto, el coeciente de asimetr es de orden 1 . a b) Para una sola observacin y la funcin mxima verosimlitud, es ylog , realizando la expansin en o o a o (y) serie de Taylor, para la funcin = , entonces, o { } { 2 } Y 3 4 Y log (Y ) + 2 6 12 por tanto, la anterior expresin se puede aproximar a: o { 2 } 1 9 1 1 3 4 2 3 3 (Y 3 ) Y + 2 2 6 12 de esta forma, la funcion de verosimilutud de la variable aleatoria Y con y = 1 usando escala 1/3 con aproximacin cuadratica queda descrita por la anterior ecuacin. o o c) La frmula para el r-simo momento factorial E[Y (Y 1)(Y 2) . . . Y (Y r + 1)] = r . o e Dado que Y P (), entonces la funcin generadora de momentos es de la forma: o
k=0

MX (t) =

tk P (X = k)
(t)k

(1) (2) (3)

= e = e usando,

k=0 (t1)

k!

E[Y (Y 1) . . . (Y r + 1)] = por tanto,

dn MY (t) dtn

E[Y (Y 1) . . . (Y r + 1)] = n d) Para este punto, denotamos como S2 (n, i) el segundo nmero de Stirling. u

23

E(Y n ) = =

n i=1 n

S2 (n, i)i E((y + i)) S2 (n i, i 1)i E((y + i)) +


i n i=1

S2 (n 1, i)i E((y + i))


n i=1

i=1 n1 i=1

S2 (n 1, i) E((y + i + 1)) +

S2 (n 1, i)(i ) E((y + i))

ya que S2 (n 1, 0) = S2 (n 1, n) = 0
n1 i=1 n i=1 n d i d S2 (n 1, i) ( )E((y + i)) S2 (n 1, i)(i ) E((y + i)) d d i=1 n i=1

S2 (n 1, i) E((y + i + 1)) +
i

n1 i=1

S2 (n 1, i)i E((y + i + 1)) + S2 (n 1, i)i E((y + i + 1)) +


n1 i=1

d E((Y n1 ) d

S2 (n 1, i)(i )

d E((y + i)) d

n1 i=1

n d d E((Y n1 ) S2 (n 1, i)(i ) (E(Y + i + 1) E(X + i) d d i=1

d E(Y n1 ) + d

S2 (n 1, i)i E(Y + i)

d = E(Y n1 ) + E(Y n1 ) d 14. Suponemos que Y B(m, ) y sea = m la media de Y . Para valores grandes de m, la devianza : 1 2 w(Y ) = [2Y log(Y /) + 2(m Y )log[(m Y )/(m )]1/2 ] + 6 m(1 ) w(Y ) diere de la distribucin normal en trminos de O(m1 ). Debido a que w(Y ) es aproximadamente o e simtrica de tal forma que puede ser vista como una distribucin discreta, ya que la varianza de w(Y ) es: e o
2 Y = 1 +

5 2(1 ) + O(m2 ) 36m(1 )

usando, la siguiente proposicion: Proposition 1 Si los cumulantes de X son de O(m) para un m grande, entonces, Y = g(X) es aproximadamente simtrica si g(.) satisface la sigueine ecuacin diferencial: e o
2 3k2 ()g () + g ()k3 () = 0

(4)

por tanto, w(Y ) O(m3/2 ) Y 16. Demostrar las frmulas de recurrencia de los momentos de la distribucin Binomial, o o La distribucin binomial se puede escribir como: o
n (n) f (e ) = px (e 1)x x x=0

24

donde los parmetros p, n y tienen el signicado usual. Por tanto podemos escribir para simplicidad en a calculos como:
x=0

f (e ) = Para el momento sobre el origen, se tiene:


r=0

Ax (e 1)x .

r = Ax (e 1)x r!
x=0

y
x=0

Ax (e 1) =
x

x=0

Ax

x v=0

(1)

xv

( ) x v e , v

r r r=0

r!

x!Ax Sx ,

x=0

Sx,s es un nmero de Stirling nmero de segundo tipo, se obtiene la siguiente identidad: u u x!Sx,r =
x v=0

(1)

rv

( ) x r v v

(5)

entonces, el momento se puede escribir como:


r x=0

r =

(n)x px Sx,r

pero Sx,r es el nmero de Stirling que sigue la siguiente recurrencia: u Sx,r+1 = xSx,r + Sx1,r por tanto,
r+1 x=0 r+1 x=0

r+1 = =

(n)x px Sx,r+1 (n)x px (xSx,r + Sx1,r )

= pDp r + (npr p2 Dp r ) donde, q = 1 p y Dp = Momento sobre la media,


dr d

25

r+1

r+1 x=0 r+1 x=0 r+1 x=0

(n)x px x,r+1 (n)x px ((x np)x,r + r+1,s )


r+1 (n)x x,r pDp (p ) npr + (n)x px x1,r x x=0

= pq[nrr1 + Dp r ] 19. Demostrar que si Y P () entonces: Sea y = t y + c = , para c R. Sea as con s = 1, . . . , denida como : 1(1)(3) . . . (2s + 3) 2s s! para algn t se tiene la expansin de serie de Taylor: u o { { }s { }s1 } t t s y = 1 + a1 + + (1) as1 + Rs as = (1)s+1 Si t > 0, por denicin : o |Rs | < Se considera |t| , entonces, Rs ( )f rac12 =
i=s

as ts ( )s 2 { (1)i+1 ai }i
1

Los primeros momentos de la distribuci de t son: n 1 = 0 2 = m 3 = m 4 = 3m2 + m Estos momentos son de orden 2 n cuando . Para la variable y cuando , se tiene: { } 3 8c 32c2 52c + 17 1 1+ + var(y) = 4 8 322 as que cuando c = 3 , 8 1 var(y) = 4 { 1+ }
1

1 162

26

por tanto, E(y) si el conjunto: E(y) = y + c y + c 1 8


1 2

24c 7 128 2
3

representa a y como el estimado de podemos escribir: y por tanto, para c = Capitulo 3 1. Ejercicio 1. Para estimar , por medio de (m+1) = (X t W (m) X)1 X t W (m) Z (m) , se necesita encontrar W = diag{w1 , ..., wi , ..., wn } y Z = diag{z1 , ..., zi , ..., zn } para cada distribucin. Por lo cual se obtiene lo o siguiente: o a) Distribucin Normal i zi Wi = = = = = = i i + (yi i )g (i ) i + (yi i )
1 V (i )(g ())2 1 ( )2 3 8

1 8c 3 + 4 32

el sesgo entre y y .

o b) Distribucin Poisson i zi Wi = = = = = = = i i + (yi i )g (i ) i + (yi i )e


1 V (i )(g ())2 1 (e )2 1 (e )3 1 3

o c) Distribucin Binomial i zi = = = Wi = = = = = =
me 1+e i +

(yi i )g (i )
me ) 1+e 1+e me ) me 1+e (1+e )2 me
me 1+e

i + (yi i + (yi

1 V (i )(g ())2 1 (m)( me 2 )2 m (1+e ) m me me (m 2 )(


(1+e ) (1+e ) (1+e )6

me )2 (1+e )2

e )me ( (m(1+e )3 2 (1+e ) me

)(me )2

27

d ) Distribucin Binomial Negativo o i zi = = = Wi = = = = = e) Distribucin Gamma o i zi Wi = = = = = = = o f ) Distribucin Normal inversa i zi Wi = = = = = = = (2) 2 i + (yi i )g (i ) 1 3 1 i + (yi (2) 2 )( 2 (2) 2 )
1

ke 1e i +

(yi i )g (i )
ke )( ke (1e )+ke e ) 1e (1e )2 ke )( ke ) 1e (1e )2

i + (yi i + (yi

1 V (i )(g ())2 1 ( ke )2 ( +1) (1e )2 k 1 ke 1 ke 2 ( 1e )( (1e ) ) 1e )2 ( (1e )6 (ke )2

1 i + (yi i )g (i ) i + (yi 1 )( 12 )
1 V (i )(g (i ))2 1 2 ( 1 )2 2 1 1 2 1 2 ( ) ( 2 ) 6

1 V (i )(g (i ))2 1
3 3

3 ( 1 (2) 2 )2 2

4(2) 2 (2)3 9 4(2) 2

2. Ejercicio 5. Para calcular la covarianza se necesita calcular y el respectivo V o de la respetiva distribucin, o por lo cual, se tiene que: a) NORMAL L(x1 , ..., xn ; , v) ln(L) = = = = Luego
1 n 2v e 2v i=1 ( )n ) ( 1 1 ln 2v exp 2v n (xi )2 i=1 1 n ln(2v) 2v n (xi )2 i=1 2 1 n ln(v) n ln(2) 2v n (xi )2 i=1 2 2
(xi )2

28

= = = = = = = = =

) 1 2v n (xi )2 ni=1 2 i=1 (xi ) 2v n 1 v n i=1 (xi ) i=1 xi n =0 v

= n
L v

i=1 xi n i=1 x n n 2v + n (xi i=1 1 n v n i=1 (xi 2 i=1 (xi ) n

)2 = 0

= n v b) POISSON

)2

L(x1 , ..., xn ; , v)

= = = =

n e xi i i=1 ! x e n i i i=1 x ! e i=1 xi ! n en ( ln en


n xi
i=1n i=1

ln(L)

= =

xi n
i=1

n + ln() n

xi

i=1 xi

Luego
L

= = =

n +

i=1 xi

=0

= n c) GAMMA L(x1 , ..., xn ; , v) = = = = ln(L) = = Luego


L

1 n x n i=1 i xi i=1 n

n e i=1

xi

(xi )k1 (k) k1 k1

n en n exi (xi ) i=1 (k) n en e

xi n(k1) n xi i=1 (k) k1 nk en xi n xi i=1 (k) ( ) k1 nk en n xi n (xi ) i=1 ln i=1 (k) ( ) k1 i) nkln() n n xi + ln n (x(k) i=1 i=1

= = (

nk

n
xi n

i=1 xi

=0

= d ) NORMAL INVERSA L(x1 , ..., xn ; , v) = = ln(L) Luego = n (i=1

n
i=1

( ) 2 exp (xi )i 2 vx 2 ) ( ) ( 1 )2 n 1 1 n ( x3 ) 2 exp 22 v n (xi xi 1 i=1 i=1 i ((2v) 2 ) n (xi )2 1 n ( 1 )3 ) 1 ln(n) 2 ln(2v) + ln(i=1 xi 2 i=1 xi 22 v
1 2vx3 )i
2

)1

29

= =

1 2 v n 2 v

(xi ) i=1 x n i ( 1 ) 1 i=1 xi v ) 1 22 v 2 1 2 v 2

=0

=
L v

= = = =

n n (
i=1 1 2

1 xi

2v

(xi )2 i=1 xi (xi )2 xi

) =0

= 0 v

1 2 + 2 n 2

n
i=1

xi i=1 (xi )2

Despus para cada distribucin se tiene que, e o n n = i=1 xir yi i=1 xir i Luego
Ty X n 1 n 2v v i=1 (x ) 1 + 2v2 n (xi i=1

, r = 1, ..., p

)2

= = = )2

XT 0 0

Luego se despeja V
n 2

= =

1 n 2v n i=1 (x 2 i=1 (xi ) n

Despus de calculado v y se calcula la covarianza. e 3. Ejercicio 7. Para calcular las estimaciones de m nimos cuadrados de cada distribucin se necesita localizar o c. a) Poisson g() g () g
g () g ()

= = = = = =

ln()
1 2 1

1 2

1 e1

V ar(y) c

= = = =

b () 1(e ) () 1 var(y) g () 2 ( 1 g) 1 e e 2
1 2

b) Normal g() g () g
g () g ()

= = = = = =

ln()
1 2 1

1 2

1 e1

30

V ar(y)

= = = = =

b () ( 2 ) 2 2 2 () 1 var(y) g () 2 g) ( 1 1 2 2
2 2

c) Gamma g() g () g
g () g ()

= = = = = =

ln()
1 2 1

1 2

1 e1

V ar(y)

= = = = = = = =

b () 1 (ln()) ( ( ) ) 1 1 (1) ( ( )) 1 1 ( ) 1 12
() 1 var(y) g () 2( ) g 1 1 2 1 2 1

d ) Gamma g() g () g
g () g ()

= = = = = =

ln()
1 2 1

1 2

1 e1

V ar(y)

= = = = =

b () ( ) 1 2 (2) 2 ( ) 1 2 2 1 (2) 2 ( 2 ) 2 (2) 1 2 ) (( ) 3 2 1 (2)(2) 2 2 2 (2) 2 () 1 var(y) g () 2 g


3 3

= = = = =

1 1 2 2 (2) 2 ( 2 ) 2 3 2 (2) 2 (2) 1 2 2 2 (2) 1 2

31

El valor estimado de c puede divergir para muestras pequeas, y de esa forma existen las estimaciones. n 4. Ejercicio 12. Se realizan iteraciones variando en cada 0,2, y se compara el AIC. En caso de que el valor de AIC es menor que 10 % se determina que el modelo ajusto. ) ( 5. Ejercicio 13. Sea f (y) = exp r i y i , con 1 , ..., r desconocidos, una fdp, entonces: Para la estimacin o i=1 de MV: i Luego, para cada i jo. Para la estimacin de los momentos: o f (y) = = = ( ) exp ( r i y i i=1 ) exp (1 y r i i=2 i y ) exp 1(1 y 0) r i y i i=2 = p
j=1 xj j

j=1 xij j

Asi: f (y) b() b( t) = = = = = = = ) ( exp ( r i y i i=1 ) exp 1(1 y 0) r i y i i=2 1 1 0 ln(y) ln ( n xi i ) i=1

Luego: M (t) = = = = ( ) exp 1 (b(t + ) b() exp ((b( + t))) exp (ln ( n xi i )) i=1 n i=1 xi i

6. Ejercicio 15. Dada la ecuacin 3.7 de Clarisse, se tiene que o Cov() = (X T W X)1

Como la funcin de distribucin es ln-lineal, se tiene que o o ln() = = X

Adems, para la funcin de distribucin ln-lineal se tiene que: a o o Entonces Cov() = (X T W X)1 = 1

7. Ejercicio 16. El algoritmo iterativo que se propone es : 32

(m+1) Para el cual U = =

m + (J (m) )1 U m

() n i i i i i=1 i i i

De donde
i i

(( = = = yln

+k

( )) ( ))) + kln 1 e + ln (k+y) (k)y!

e k 1e

i i

= = =
i i i i i

))mid ( ( ln k+ ( )
k (k+)
k+

k (k+)2

= = = =

+ 2 + 2 (X) X

Luego U = = Capitulo 4 1. Valor de Deviance de los modelos: a) Deviance para modelo Binomial: Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi B(n, ), entonces la funcin de logo verosimilitud es, l(; y)
N i=1

( ) k () (k+) ((1 + )) X i=1 n k(+2 ) i=1 (k+) X

( ) ni yi log(i ) yi log(1 i ) + log , yi

para un modelo saturado, los valores de i son diferentes, asi que, = [1 , . . . , n ]Y . El valor estimado por mxima verosilimitud es = a
N i=1 yi ni

asi que el valor de la funcin log- verosimilitud es, o

l(max ; y) =

( ) n i yi ni yi ni yi ) + ni log log . yi log( ) yi log( ni ni ni yi 33

Para algn otro modelo con p < N parmetros, sea el valor estimado usando mxima verosimilitud y u a a yi = ni denota los valores ajustados, entonces la funcin log-verosimilitud evaluada en estos valores es: o l(max ; y) = entonces la deviance es: D = 2[l(max ; y) l(; y)] n n i yi yi ) = 2 yi log( ) + (ni yi ) log( yi n i yi
i=1 N i=1

( ) yi n i yi ni yi ni yi log( ) yi log( ) + ni log log . ni ni ni yi

b) Deviance para modelo Normal: Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi N (i , ), entonces la funcin de o log-verosimilitud es,
n 1 1 l(; y) = (yi i )2 n log(2 2 ). 2 2 i=1

Para un modelo saturado, el estimador es = yi . Entonces, 1 l(max ; y) = n log(2 2 ). 2 Para algn otro modelo, se tiene = (X T X)1 X Y y, por lo que corresponde a la funcin de verosmilitud, u o l(; y) = entonces la deviance es: D = 2[l(max ; y) l(; y)] n 1 = (yi i ). 2
i=1 n 1 1 (yi xT b)2 n log(2 2 ). i 2 2 i=1

c) Deviance para modelo Poisson: Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi P (), entonces la funcin de logo verosimilitud es, l(; y) = yi log(i ) i log(yi !)

Para un modelo saturado, el estimador es i = yi as que la funcin es, o l(max ; y) = yi log yi yi log(yi !) en cualquier otro caso, se tiene que el estimador de puede ser usado para calcular i y ajustar los valores yi = i , debido a que E(Yi ) = i , por tanto, l(; y) = yi log(i ) y 34 yi log(yi !)

por tanto, la deviance es: D = 2[l(max ; y) l(; y)] yi = 2[ yi log( ) (yi yi )]. yi d) Deviance para modelo Gamma: Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi Gamma(), entonces la funcin de o log-verosimilitud es, l(; y) = u
n i=1

(yi i b(i )) +

n i=1

v log(vyi ) log(yi ) log (v)

1 Por tanto, para el modelo saturado se tiene que = yi n i=1

l(max ; y) = u

1 1 (yi b( )) + v log(vyi ) log(yi ) log (v), yi i yi i


n i=1

1 y para cualquier otro modelo = , as que la funcin de verosimilitud queda denida como, o

l(; y) = u

n i=1

1 1 b( )) + v log(vyi ) log(yi ) log (v). (yi i i


n i=1

La funcin deviance escalada del modelo Gamma, jo el parmetro de dispersin, como sigue: o a o D() = 2[l(, v) l(, v)] n yi y = 2v ni [ log 1] i i
i=1

Si se considera la deviance residual, se tiene que


n i=1

D()res = 2

ni [

yi y log 1] i i

entonces, el estimador de la dispersin basado en la deviance: o D()res = np donde p es el nmero de parmetros libres beta del modelo. u a e) Deviance para modelo Binomial Negativa: Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi BN (, k), entonces la funcin de o log-verosimilitud es, l(; y) =
n i=1

(k + y) yi log + k log(1 e ) + log +k (k)y!


n i=1 y y+k

Para un modelo saturado, el estimador es i = log de puede ser usado para calcular i = log por tanto, la deviance es:
+k

y en cualquier otro caso, se tiene que el estimador

35

D = 2[l(max ; y) l(; y)] n yi i + k = 2 [yi log + (yi + k) log ] i yi + k


i=1

f) Deviance para modelo Normal Inversa: Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi N I(, ), entonces la funcin de o log-verosimilitud es, l(; y) =
n i=1

yi

1 1 + 2 + ) log( 2 3 2 2 2y 2y
n i=1
i

1 Para un modelo saturado, el estimador es i = 2y2 y en cualquier otro caso, se tiene que el estimador 1 de puede ser usado para calcular 22 i por tanto, la deviance es:

D = 2[l(max ; y) l(; y)] n (yi i )2 = yi 2 i i=1

Ahora calculamos el valor de la estad stica de Pearson 2 : p a) 2 para modelo Binomial: p Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi B(n, ), entonces,
n (yi )2 i=1 n

2 = p = b) 2 para modelo Normal: p

V ()

(yi )2 . (m ) i=1 m

Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi N (i , ), entonces,


n (yi )2 i=1 n i=1

2 = p = c) 2 para modelo Poisson: p

V () (yi )2 .

Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi P (), entonces,

36

2 = p = d) 2 para modelo Gamma: p

n (yi )2 i=1 n i=1

V () (yi )2 .

Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi Gamma(), entonces,


n (yi )2 i=1 n i=1

2 = p = e) 2 para modelo Binomial Negativa: p

V () (yi )2 . 2

Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi BN (, k), entonces,


n (yi )2 i=1 n i=1

2 p

= =

V () (yi )2 = n p. (1 + a)i

f) 2 para modelo Normal Inversa: p Si las variables de respuesta son Y1 , . . . , Yn , independientes y Yi N I(, ), entonces,
n (yi )2 i=1 n i=1

2 = p =

V () (yi )2 . 3 i

4. Para los modelos log-lineales, se tiene que en el caso de Poisson, i = log i lo que implica que = logyi , para y > 0 y = log mui tal que D = 2[ yi log( yi ) sum(yi yi ], yi

pero si se tiene una columna de unos, entonces, el i-simo trmino de D equivale a 2 e e que denimos la columna 1n C(x) entonces, (I H) = 0 por tanto, i yi = 0. 5. Para un modelo log-lineal,se tiene:

yi i=1 yi log( mu )

ya

La funcin de enlace, i = log{[(1 i ) 1]1 } = 0 + 1 xi , a partir de su funcin de verosimilitud o o se puede obtener: ( )(+1 1 i pero i = e e +1 /, para 1 e > 1, as , 37

= =

(Y n)((1 ) 1)(1 ) ( 1) (n Y ) (1 ) Y n +

se calcula el valor de la esperanza y varianza:

E(U ) =

(1 )( ) 1 ((n) E(Y )) + (E(Y ) n), = 0, ( )2 (V ar(Y )) + ( )2 (V ar(Y )),

V ar(U ) = =

(1 )( )

n(1 )2+1 n(1 ) + , 2 2 = K. Por tanto,


1

( U=

SR = U K

(1 ) (n Y ) Y n +

)(

2 n(1 )((1 )2 + 1)

)(

(1 ) (n Y ) Y n +

) ,

obteniendo el resultado general:

n (yi 1 )i V 1 = 0 i=1

6. a) Para un modelo Gamma, los valores de los estimadores si las medias son iguales son: para el modelo 1 1 o saturado max = i y = i generando asi la funcin de devianza: D = 21
n i=1

log

i (yi i ) + , yi i

pero, por hiptesis, las medias son iguales y 1 = v 1 , se puede reducir a: o = 2v log ( + ) y + , y

utilizando el estimador de , entonces se puede simplicar: y = 2v(log n n


n i=1 n i=1 yi

),

D = 2nv

log(

yi ) yi

pero se puede utilizar el hecho que y y = y la media aritmetica y geometrica. b) Para el caso de la Gamma, f (y; , v) =
vv

(v)

v1

yv exp

) , y>0

38

se tiene la funcin de verosimilitud: o l() = v se calcula la derivada: yi 2l 1 = j n2 n


n i=1 n i=1

(yi i b(i )) +

n i=1

v log(vyi ) log(yi ) log (v)

por tanto, se calcula la esperanza,


n yi 1 )=0 n2 n i=1

E(

7. a) Para la distribucin normal, se tiene: para observaciones independientes Y 1, . . . , Yn con Yi o N (i , 2 ), para estimar el parmetro de dispersin, se dene la estad a o stica: X2 =
n (Yi i )2 i=1

V (i )

por tanto, para el caso de la distribucin normal, se tiene: o = 2 , n 2 i=1 (Yi i ) = , np Dp = . n b) Para la distribucin Gamma, se tiene: para observaciones independientes Y 1, . . . , Yn con Yi Gamma(, ), o para estimar el parmetro de dispersin, se dene la estad a o stica: X =
2 n (Yi i )2 i=1

V (i )

por tanto, para el caso de la distribucin normal, se tiene: o


n (Yi i )2 , 2 (n p) i=1 i

8.Considere una sola variable respuesta Y con Y binomial (n, ). Si Y binomial (n, ), luego { ( ) ( )} n f (y, ) = exp y log + n log(1 ) + log I{0,1,2,...,n} (y) 1 y Siendo la expresin anterior la funcin de densidad y la verosimilitud en vista de contar con una sola variable o o aleatoria. Por lo anterior la Log-verosimilitud esta dada por: ( ) ( ) n (, y) = y log + n log(1 ) + log 1 y 39

La funcin Score esta dada por; o { ( ) ( )} d d n U= = y log + n log(1 ) + log d d 1 y y n y n y = + = 1 1 (1 )


y El estimador de mxima verosimilitud de esta denido por U () = 0, luego tenemos = n . a La informacin se dene para el caso; o

J = Var(U ) = La estad stica de Wald esta dada por: ( )t J( ) = (y n )2

n (1 )

n n (y n)2 = = 2 (1 ) n (1 )

La expresin anterior se puede obtener como U t J 1 U . Para el caso de una sola variable como este, o tenemos; U2 = J ( y n (1 ) )2 (1 ) (y n)2 = n n(1 )

Encontrar la Deviance. El estad stico de razn de verosimilitud esta denido por: o D = 2[(bmax ; y) (b; y)]
y Para el caso y asumiendo = n , tenemos;

( ) n (bmax ; y) = y log(y/n) y log(1 y/n) + log(1 y/n) + log y

Para cualquier otro modelo si fuera el caso por ejemplo p < N parmetros, denota el estimador de mxima a a verosimilitud para la probabilidad de ocurrencia del evento y y = n el valor ajustado, luego; ( ) ( ) ( ) ny ny n + n log + log (b; y) = y log(/n) y log y n n y Por lo tanto la Deviance esta dada por: [ ( ) ( )] y ny D = 2 y log + (n y) log y ny 2 (1) 0,05

(c,1)

El anlisis es a partir de la comparacin de la realizacin del estad a o o stico con el percentil de la distribucin o = 3,84146. El estad stico de Wald es
(yn)2 n(1) .

Para el caso de n = 10, y = 3 y = 0,1, tenemos:

Wald 1 =

(3 1)2 4 = = 4,44 1(1 0,1) 0,9

Wald 1 2 (1)

La Deviance aplicando (c,1) esta dada por D = 3,073272. De manera que el estad stico de Wald sugiere que rechacemos = 0,1. Mientras que la Deviance que no. Para le caso n = 10, y = 3 y = 0,3, tenemos: Wald 2 = 0 40

La Deviance aplicando (c,1) esta dada por D = 0. Luego no rechazamos = 0,3. Para le caso n = 10, y = 3 y = 0,5, tenemos: Wald 3 = 1,6 La Deviance aplicando (c,1) esta dada por D = 1,65. Luego en ninguno de los dos casos rechazamos = 0,5. 9. f (yi ; i ) = i exp(yi i )I(0,) (yi ) Obtenga la deviance por comparacin del modelo mximal con diferentes valores de i para cada Yi y el modelo o a con i = para todo i. El estad stico de razn de verosimilitud esta denido como; o D = 2[(bmax ; y) (b; y)] Si f (y; ) = exp(y)I(0,) (y). Podemos reexpresar tal funcin de densidad como: o f (y; ) = exp{log[ exp(y)]})I(0,) (y) = exp{log y}I(0,) (y) Luego la Log-verosimilitud esta dada por, la contribucin de cada una de las observaciones; o (bmax ; y) =
N i=1

(log i yi i ),

1 i = yi

La expresin anterior es a partir de un modelo saturado, donde los i son todos diferentes de manera que = o [1 , 2 , . . . , N ]t . Para cualquier otro modelo y en particular aquel con i = para todo i, E(Y ) = 1 . (b; y) =
N N (log yi ) = N log yi i=1 i=1

N = N

i=1 yi

1 . y

De acuerdo a lo anterior denimos la Deviance como: ] [N N N D=2 log i yi i N log + yi


i=1 i=1 i=1

En el modelo saturado i =

1 yi

1 y en el otro caso = y . 1 D=2 log (1) N log yi i=1 i=1 [ N ] =2 log yi + N log y
N i=1

] ( ) 1 1 + Ny y y

10. Sea Y1 , . . . , Yn una muestra aleatoria de una distribucin Poisson, P () con i = i1 , i = 1, . . . , n. o Entonces se tiene:

41

a) la funcin log verosimilitud : o l(; y) = yi log(i1 )


i1

log(yi !)

a partir del cual, se puede obtener:


n yi i i=1

= 2 = =

vi

n yi i1 i=1 n

i1

1 yi n i1
i=1

se calcula el valor de la esperanza y varianza:

E(U ) = E( = 0

1 yi n), i1
n i=1

V ar(U ) =

n 1 1 2 V ar(yi ) 2 i1 i=1

n 1 i1 = 2 i1 i=1 n = = K.

Por tanto, SR = U T K 1 U = Estadistica de escore: SR (yi i )2 2 1 Estadistica de Wald: ( ) n ( ) 2 , W = ( ) n yi 1 yi n n n i1 i1


n n i=1 i=1

Razn de verosimilitud: o yi ) (yi yi )]. yi

w = 2[

yi log(

11. Un algoritmo se puede utilizar en este caso: Calcular la estimacin inicial de , r de la forma regular, asumiendo independencia, o 42

A partir de esta estimacin se calcula los residuos dados por: o rij = donde V = n i=1
i i i k i Vi k

(yij ij ) V

(6)

Los residuos seran utilizados para considerar estimaciones para el resto de parmetros, a Calcular la estimacin de covariaza, o por tanto, generar la siguiente frmula de recurrencia: o r+1 = r +
n i i 1 i 1 i [ V 1 ] [ V ] k i k k i k i1

(7)

12. Para realizar la prueba de hiptesis, se utiliza la estad o stica de Wald, est denida como: a w = ( )V 1 ( donde, V es la matriz de varianzas estimada, incorpora una estructura en teoria de grupos, esta estadistica posee ditribucin chi- cuadrado con grados de libertad iguales al numero de parmetros. o a 13. Para un modelo Gamma, los valores de los estimadores si las medias son iguales son: para el modelo 1 1 o saturado max = i y = i generando asi la funcin de devianza: D = 2 pero, por hiptesis, las medias son iguales y o
1 n i=1

log

i (yi i ) + , yi i

= v 1 , se puede reducir a: ( + ) y + , y

= 2v log

utilizando el estimador de , entonces se puede simplicar: y = 2v(log n n


n i=1 n i=1 yi

),

D = 2nv

log(

yi ) yi

pero se puede utilizar el hecho que y y = y la media aritmetica y geometrica, para calcular es estimador de por tanto, usando la aproximacin de taylor para la funcin, o o () = () ()

para grande, entonces, se propone la siguiente aproximacin: o 2Dp 1 n = [1 + ] 2Dp 3n y se puede vericar que, V ar(1 ) = si reemplazamos, se obtiene que:
n i=1

c (yi , )

y 2() y = y 43

14. Sea Y1 , . . . , Yn una muestra aleatoria de una distribucin Normal, N (, 2 ) con desconocido. Eno tonces se tiene la estimacin para = (, ) esta dada por: o = (X T X)1 X T y, de tal forma que E() = la matriz de covarianza es:

I 1 = 2 (X T X)1

por tanto, como es desconocido, se puede estimar de la siguiente forma: 2 = 1 (y X)T (y X) N p (8)

si E(y = s) y E[(y X)(y X)T ] = V , con V conocidom eotnces, debemos minimizar Sw para calcular el estimador de , Sw = (y X)T V 1 (y X), por tanto, Sw = 2X T V 1 (y X) = 0 asi que, Estadistica de escore: SR (Y )2 2 1 Estadistica de Wald: W = ( ) Razn de verosimilitud: o w = 2[l(, v) l(, v)], n 1 = (yi i ). 2
i=1

= (X T V 1 X)1 X T v 1 y

( n ) ( ) 2 , n 2 2

15. Sea Y1 , . . . , Yn una muestra aleatoria de una distribucin Poisson, P () con i = i1 , i = 1, . . . , n. o Entonces se tiene: a) la funcin log verosimilitud : o l(; y) = yi log(i1 )
i1

log(yi !)

a partir del cual, se puede obtener:


n yi i i=1

= 2 = =

vi

n yi i1 i=1 n

i1

1 yi n i1
i=1

44

se calcula el valor de la esperanza y varianza:

E(U ) = E( = 0

1 yi n), i1
n i=1

V ar(U ) = =

n 1 1 2 V ar(yi ) 2 i1 i=1 n i=1

1 2 n = = K. Por tanto, SR = U T K 1 U = Estadistica de escore:

i1 i1

yi 1 yi n n i1 n i1
n n i=1 i=1

SR (yi i )2 2 1 Estadistica de Wald: ( ) n W = ( ) ( ) 2 , n

Razn de verosimilitud: o yi ) (yi yi )]. yi

w = 2[

yi log(

16. Sea Yi , i = 1, . . . , n variables aleatorias independientes con distribucin gamma, media i y parmetro o a . La funcin de densidad para cada Yi esta dada por: o f (yi , i , ) = 1 yi yi 1 e i i yi 1 yi yi 1 = exp[log + log + log ] () i i yi yi = exp[log() + log(yi ) log i log yi ] i yi = exp[[ log i ] log () + log(yi ) log(yi )] i

asi que la funcin queda: o } n { yi l(, y) = [ log i + ( 1) log yi + log log ()] i
i=1

asi que el test de razon de verosimilitud, puede escribirse como: 45

w = 2[l(, y) l(, y)] por tanto, l(, y) = y l(, y) = dado que i =


1 i

} n n { yi [ log i + ( 1) log yi + nlog n log ()] i


i=1 i=1 n i=1

yi log i i

no depende de , entonces, i = i , entonces:


n i=1

w = 2[( 1) se tiene que,

log yi + n log n log () + ( 1)

n i=1

yi log(i ))] i

D(y, ) = log (), 2n implica que, D(y, ) = n[log ()], 2 para el caso de la Gamma, se tiene,
n yi i i=1 n i=1

D(y, ) = 2 = 2

log

yi i

(9) (10)
n i=1

yi yi log i i log(yi )

= n[1 + log ()] sustituimos, y se obtiene,

(11)

w = 2n[log log () ( 1)(1 + ())]

(12)

46

You might also like