Professional Documents
Culture Documents
Mayo 2014
1.
yi = xi + ui se propone el estimador:
n
P
xi yi
i=1
2
2
n
P
x2i
i=1
) = E()
. Por lo tanto el problema consiste
a ) El sesgo del estimador se dene como: b(,
est entre 0 y , o lo que es lo mismo, que b(,
) sea de signo contrario
en demostrar que E()
a
Se empieza calculando
n
P
xi (xi + ui ) !
i=1
=E
E()
2
2
n
P
i=1
=E
E()
i=1
n
P
i=1
=E
E()
2
2
i=1
=
E()
2
2
* Cualquier
1
n
P
1
n
P
i=1
i=1
x2i +
x2i
n
P
i=1
E[
x2i
x2i
xi ui !
i=1
n
P
n
X
n
P
2
2
=
E()
x2i
(x2i + xi ui ) !
2
2
n
P
x2i
x2i +
n
X
i=1
i=1
n
X
n
X
x2i + E[
i=1
xi ui ]
xi ui ]]
i=1
{z
0
n
P
x2i
i=1
n
P
=
E()
2
2
i=1
x2i
Hasta aqu ya es posible observar que el valor esperado del estimador est entre 0 y , sin
embargo se calcular el sesgo:
n
P
i=1
n
P
) =
b(,
2
2
x2i
i=1
n
P
"
i=1
=
2
2
x2i
x2i
n
P
i=1
#
1
x2i
Lo que est dentro del parntesis es negativo, por lo tanto el sesgo es de signo contrario a ,
por lo que est sesgado hacia 0.
b)
n
P
"
xi yi
2
2
n
P
x2i
i=1
" P xi yi
i=1
E( )2 = E
#2
i=1
E( )2 = E
2
2
E( ) = E
i=1
n
P
x2i
i=1
i=1
2
2
E
E( )2 =
E( )2 =
n
P
n
P
2
2
n
P
x2i #2
i=1
x2i
i=1
xi ui
i=1
x2i #2
i=1
n
n
" P x2 + P xi ui
i
2
n
P
n
P
x2i
i=1
2
2
n
n
P
2 P
2
xi ui + [ ]2
E [ xi ui ]2 2
i=1
i=1
2
2
n
P
i=1
x2i
2
Obteniendo el valor esperado de cada trmino del numerador y teniendo en cuenta que E[xi ui ] =
0, E[ui uj ] = 0 la ecuacin anterior se reduce a:
2
n
P
x2i + [ ]2
P
n
x2i +
2
2
i=1
E( )2 = i=1
2 =
2
n
n
P
P
2
2
2
2
xi
xi
2 +
2 +
i=1
i=1
E( )2 =
2
2
2
n
P
+
x2i
i=1
c)
= E[ E()]
2
V ar()
n
n
" P x2 + P xi ui
i
i=1
n
P
i=1
=E
V ar()
2
2
x2i #2
i=1
n
P
2
2
x2i
i=1
n
P
x2i
i=1
n
n
n
" P x2 + P xi ui P x2 #2
i
i
i=1
=E
V ar()
i=1
2
2
n
P
"
i=1
2
2
x2i
xi ui #2
i=1
=E
V ar()
i=1
n
P
n
P
=h
x2i
i=1
n
P
2
=h
V ar()
xi ui ]2
i=1
2
2
n
P
i=1
x2i
i2
x2i
i=1
n
P
2
2
n
P
E[
i=1
x2i
i2
Para probar que la varianza del estimador MCO es mayor basta con probar que la diferencia
entre la varianza del estimador MCO y la varianza del estimador propuesto es positiva.
=
V ar(M CO ) V ar()
n
P
i=1
=
V ar(M CO ) V ar()
2
2
h
"
=
V ar(M CO ) V ar()
"
2
2
i2
=
V ar(M CO ) V ar()
h
"
2
=
V ar(M CO ) V ar()
2
2
n
P
i=1
2
2
x2i
i=1
2
2
i=1
2
2
i2
i2
hP
n
n
P
i2
hP
n
i=1
x2i
i2
i2 P
n
x2i
x2i
i=1
hP
n
n
P
i2 P
n
x2i
x2i
i=1
hP
n
i=1
x2i
i2
i=1
+ 2 2
x2i
x2i
i2
i=1
i2
i=1
x2i
n
P
x2i
i2 P
n
x2i
x2i
x2i
i=1
i=1
x2i
i=1
i=1
n
P
i2
n
P
n
P
x2i
i=1
n
P
2
2
i=1
2
2 2
x2i
2
2
n
P
n
P
i=1
i2 P
n
i=1
#
x2i
>0
x2i
Yt = + Xt + ut se han
P
Y
Pt t
t Xt
4 =
P
y
Pt t
t xt
Yt
t Xt
5 =
1
T
P
X Y
Pt t 2 t
t Xt
6 =
P
x y
Pt t 2 t
t xt
1 =
2 =
1
T
3 =
yt
i xt
donde letras minsculas indican diferencias entre los valores representados por las
maysculas y sus respectivos promedios muestrales. Todas las sumas anteriores son
desde t = 1 hasta t = T , donde T es el tamao muestral. Calcular la esperanza y la
varianza de cada estimador y sugerir cul de ellos debera utilizarse.
Respuesta:
E(1 ):
hP Y i
t
E(1 ) = E P t
X
t t
E(1 ) = E
P
h T
i
h P ( + X + u ) i
t
t ut
t
P t
P
P
=E
++
t Xt
t Xt
t Xt
P
E(ut )
| {z }
P 0
t Xt
t
h P ( + X + u ) i
T
t
t
P t
E(1 ) = E
=P
++
X
t
t
t Xt
V ar(1 ):
P
P
h T
ut i
t V ar(ut )
+ + Pt
= hP
V ar(1 ) = V ar P
i2
t Xt
t Xt
X
t t
T 2
V ar(1 ) = hP
i2
t Xt
E(2 ):
E(2 ) =
1 hX Yt i
1 hX
ut i
E
(
= E
++
)
T
Xt
T
Xt
Xt
t
t
E(2 ) =
X ut i
1 h X 1
E
+ T +
T
Xt
Xt
t
t
E(ut )
| {z }
X
X
1
1
0
E(2 ) =
++
T t Xt
T t
Xt
V ar(2 ):
hX Y i
1
t
V ar(2 ) = 2 V ar
T
X
t
t
V ar(2 ) =
h X 1
X ut i
1
V
ar
+
T
+
T2
Xt
Xt
t
t
1 X V ar(ut )
V ar(2 ) = 2
T t
Xt2
V ar(2 ) =
2 X 1
T 2 t Xt2
E(3 ):
E(3 ) = E
P
P
hP X Y i
h P X
t Xt2
Xu i
t t
t
t
t
P 2 = E P 2 + P 2 + Pt t 2 t
t Xt
t Xt
t Xt
t Xt
P
Xt E(ut )
| {z }
P 20
t Xt
Xt
E(3 ) = P t 2 + +
X
t t
V ar(3 ):
P
P
h P X
t Xt2
Xt ut i
t t
P
P
V ar(3 ) = V ar
+
+ Pt 2
2
2
t Xt
t Xt
t Xt
V ar(3 ) =
Xt2 V ar(ut )
P 2
= 2
t Xt
u
i
1 hX + Xt + ut X
E
T
xt
t
E(5 ) =
u
i
1 hX + Xt + ut X
E
T
xt
t
E(5 ) =
E(5 ) =
1 hX
E
T
t
1
E T +
T
h
+ut u
(Xt X)
| {z }
i
X ut u
i
t
xt
xt
xt
E(ut u
)
| {z } i
h
X
1
0
T +
=
T
x
t
t
E(5 ) =
V ar(5 ):
h
X ut u
1
i
V ar(5 ) = 2 V ar T +
T
xt
t
V ar(5 )
hu u
i
XX 1 1
i
1 hX
t
(V
ar
)
2
Cov(u
,
u
)
i
t
{z
}
T2 t
xt
xi xt |
t
i
2
i<t
1 hXh V ar(ut u
) i 2 X X 1 1 i
+
2
2
2
T
xt
T
xi xt
t
t
i
i<t
V ar(5 ) =
2
2
1 hXh 2 + T 2 T i 2 X X 1 1 i
+
2
T2 t
x2t
T
xi xt
t
i
i<t
V ar(5 ) =
1 h 2 2 Xh 1 i 2 X X 1 1 i
(
+
)
2
T2
T
x2t
T
xi xt
t
t
i
i<t
Los momentos de 6 son conocidos, debido a que es el estimador de mnimos cuadrados ordinarios.
E(6 ) =
V ar(6 ) =
2
P 2
t xt
Una propiedad deseable de un estimador es que sea insesgado, as que se seleccionar entre los
estimadores insesgados. Si se comparan las varianzas de los dos estimadores insesgados 6 y 5 se
puede observar que la varianza de 6 es menor que la de 5 . Esto tambin se sabe gracias al teorema
de Gauss-Markov.
3.
yi = 1 + 2 xi + ui
yi = 1 + 2 xi + ui
y y x son variables estandarizadas. Demuestre que 2 = 2 SSxy , donde Sx y Sy
son las desviaciones estndar muestrales de x y y respectivamente.
donde
Respuesta:
P
y x
2 = P i i2 =
(xi )
P
(yi
y )(xi
x)
Sy Sx
P
(xi
x)2
2
Sx
P
S
(yi y)(xi x
) Sx
x
P
= 2
2
(xi x
)
Sy
Sy
2 =
Este resultado muestra que a pesar de que los coecientes de pendiente son independientes de un
cambio en el origen, no lo son de un cambio de escala.
4.
yx xy = R2
donde R2 es el coeciente de determinacin de la regresin de
del coeciente de correlacin muestral entre y y x.
y sobre x, o el cuadrado
Respuesta:
P
i y)2
(
y x
+ x
P
R =
(yi y)2
2
R2 =
P
P
((x x
))2
(x x
)2
P i
P i
=
2
(yi y)
(yi y)2
P
)2
2 P(xi x
R = yx
(yi y)2
2
P
P
P
)(xi x
)
(x x
)2
(xi x
)2
iy
yx (yP
P i
=
R2 = yx yx P
2
2
(yi y)
(xi x
)
(yi y)2
R2 = yx
5.
(yi y)(xi x
)
P
= yx xy
(yi y)2
Respuesta:
Utilizando el resultado del ejercicio anterior se sabe que el coeciente de determinacin R2 puede
ser escrito como:
R2 =
6.
1
=1
ln yi = 1 + 2 ln xi + ui
ln yi = 1 + 2 ln xi + ui
donde
a ) Establezca las relaciones entre los dos conjuntos de coecientes de regresin y sus
errores estndar.
a ) Se dene zi y zi como:
zi = ln xi
zi = ln xi
z = ln w2 + zi
P ln w
+ zi = zi zi
ln yi
n
1 = ln w1 + lnyi 2 ln w2 2 lnxi
Al obtener la varianza:
V ar(1 ) = V ar(1 ) + (ln w2 )2 V ar(2 ) 2 ln w2 Cov(1 , 2 )
V ar(1 ) = V ar(1 ) + (ln w2 )2 V ar(2 ) + 2lnx ln w2 V ar(2 )
V ar(1 ) = V ar(1 ) + ((ln w2 )2 + 2lnx ln w2 )V ar(2 )
Se puede observar que el estimador del coeciente de intercepto no ser igual, adems su
error estndar tambin sera distinto como se aprecia en la ecuacin anterior. La varianza del
estimador 1 ser igual a la varianza del estimador 1 mas una constante multiplicada por la
varianza de 2 .
b ) El R2 en ambos modelos sern los mismos. Esto puede comprobarse mostrando que lnyi
lnyi = lnyi lnyi o simplemente usando el resultado del ejercicio 5. Dado que los estimadores
de las pendientes son iguales en ambos modelos, el R2 ser el mismo.
7.
(
y = X1 1 + 1
y = X2 2 + 2
coinciden con los estimadores MCO para el modelo
y = X + .
Respuesta:
(1)
donde PX es la matriz que proyecta sobre el espacio columna de X y MX es la matriz que proyecta
sobre el complemento ortogonal del espacio columna de X .
Si se multiplica (1) por X 01 se obtiene:
+ X 0 X 2
+ X 0 MX y
X 01 y = X 01 X 1
1
2
1
1
+ X 0 MX y
+ X0 X2
X 01 y = X 01 X 1
1
1
} 2 | 1{z }
| {z
O
(2)
1
(X 01 X 1 )1 X10 y =
8.
33
X 0X = 0
0
0
40
20
0
132
20 X 0 y = 24 u
0 u
= 150
60
92
Se pide:
P
P
n
x1
x2
P y
P
P
P
X 0 y = x1 y
x
x
X 0 X = P x1 P x21
1
2
P
P 2
x2 y
x2
x1 x2
x2
b ) Usando la frmula del estimador MCO se obtienen los resultados:
4
= (X 0 X)1 X 0 Y = 0,2
1,6
= 2 (X 0 X)1 = u
(X 0 X)1
V ar()
n3
V ar(
)
Cov(
, 1 ) Cov(
, 2 )
0,03030303
150
= Cov(
0
V ar()
, 1 )
V ar(1 )
Cov(1 , 2 ) =
30
0
Cov(
, 2 ) Cov(1 , 2 )
V ar(2 )
0
0
0,03 0,01
0,01 0,02
9.
(y Xc)0 (y Xc) (y X )
Respuesta:
= (y 0 c0 X 0 )(y Xc) (y 0
+ 0 X 0 y 0 X 0 X
= y 0 y y 0 Xc c0 X 0 y + c0 X 0 Xc y 0 y + y 0 X
+ 0 X 0 y 0 X 0 X
= y 0 Xc c0 X 0 y + c0 X 0 Xc + y 0 X
= (X 0 X)1 X 0 Y entonces:
Si usamos el hecho de que
+ 0 X 0 y 0 X 0 X(X 0 X)1 X 0 y
= y 0 Xc c0 X 0 y + c0 X 0 Xc + y 0 X
|
{z
}
I
= y 0 Xc c0 X 0 y +c0 X 0 Xc + y 0 X
|{z}
X0X
= (c0 X 0 X y 0 X )(c )
|{z}
0 X 0 X
= (c0 0 )X 0 X(c )
0 X 0 X(c )
= (c )
10.
Para estudiar la relacin entre 2 variables se han estimado los siguientes modelos:
a)
b)
c)
d)
yi = + xi + i
ln yi = + xi + i
yi = + ln xi + i
ln yi = + ln xi + i
Discutir la interpretacin que tendria, en cada caso, el valor estimado para el coeciente
.
Respuesta:
11.
Utilice la siguiente regresin simple para contestar los literales justicando su respuesta:
yt = 0 + 1 Xt + ut
Para el cual se conocen los siguientes resultados:
Xt = 0
Yt = 0
Xt2 = B
10
Yt2 = E
Xt Yt = F
a ) Las estimaciones de MCO para los parmetros 0 y 1 son (en ese orden):
1)
2)
3)
4)
E/F y B
0 y F/B
E y B/F
F/B y 0
1)
2)
3)
4)
B + E2
0
(B 2 /E) F
E (F 2 /B)
Respuesta:
a ) ii) 0 y F/B
1 = 0 0(1 ) = 0
0 = Y X
1 =
P
t Y )
X)(Y
XY
F
Pt t 2 t =
=
2
B
X
(X
X)
t
t t
t
t (Xt
b ) iv) E (F 2 /B)
Yt = 0 + (F/B)Xt
X
t
u2t =
12.
u2t =
(Yt (F/B)Xt )2 =
Yt2 2(F/B)
Xt Yt + (F 2 /B 2 )
Xt2 = E 2F 2 /B + F 2 /B = E (F 2 /B)
las regresiones:
y = X + v1
y
y = u
+ v2
Por lo tanto:
= (X 0 X)1 X 0 y
= (
u0 u
)1 u
0 y = (
u0 u
)1 (MX y)0 y = (
u0 u
)1 y 0 MX y = (
u0 u
)1 u
0 u
=1
11
b ) Los residuos sern cero porque hemos incluido en los regresores la parte de y que no es explicada
por X de la regresin original.
u
v
= y X
u
= y X
=u
u
=0
c ) Por obvias razones el R2 ser 1, debido a que el modelo se ajusta perfectamente, es decir la
variabilidad de y est explicada completamente por la variabilidad de los regresores.
R2 = 1
13.
v
0 v
=10=1
0
(y y
) (y y
)
Yi = + Xi + ui , i : ui (0, 2 ) y i, j : cov(ui , uj ) = 0
P
a ) Demuestre que el estimador de MCO
= i i Yi , en donde i =
Pxi 2 .
i xi
1
n
y wi =
wi X
.
xi es la variable Xi en desviaciones con respecto a su media muestral xi = Xi X
P
P
b ) Muestre que i i = 1 y i i Xi = 0.
c ) Pruebe
(de la forma
P que cualquier otro estimador
P lineal para
P(de la forma
a)
i Yi =
X 1
X 1
xi
i=
( P 2 X)Y
( wi X)Y
i
n
n
i xi
i
i
b)
X
i
P
xi Yi
X Pi 2 = Y X
n
i xi
X yi
P
X 1
X
xi
n
P0 = 1
P
i =
( wi X) = X
wi = 1 X i 2 = 1 X
2
n
n
x
i i
i xi
i
i
X
i
X
i
i Xi =
X 1
X
i=X
X
( wi X)X
wi Xi
n
i
i
P
P 2
xi Xi
x
i
X
=0
i Xi = X X P 2 = X X Pi i2 = X
i xi
i xi
c)
= i bi Yi
P
P
E(
) = E( i bi Yi ) = E[ i bi ( + Xi + ui )]
P
P
P
E(
) = E( i bi ) + E( i bi Xi ) + E( i bi ui )
P
P
P
E(
) = i bi + i bi Xi + bi i E(ui )
| {z }
P
P
P
P
P
fi = i (bi i ) = i bi i i = 1 1 = 0
Pi
P
P
i fi Xi =
i bi Xi
i i Xi = 0 0 = 0
12
e)
V ar(
) = V ar(
bi Yi ) =
V ar(
) = 2
b2i 2
X
X
X
(i + fi )2 = 2 [ (i )2 + 2
i fi +
fi2 ]
| {z }
0
V ar(
) = 2
2i + 2
{z
V ar()
fi2
El primer trmino es la varianza del estimador MCO y el segundo trmino es algn nmero
positivo. Por lo tanto:
V ar(
) V ar(
)
14.
K
X
1
k
k=1
donde
Respuesta:
0 )
= E[( + (X 0 X)1 X 0 u)0 ( + (X 0 X)1 X 0 u)]
E(
0 )
= E[ 0 + u0 X(X 0 X)1 + 0 (X 0 X)1 X 0 u + u0 X(X 0 X)1 (X 0 X)1 X 0 u]
E(
0 )
= E[ 0 ] + E[u0 ] X(X 0 X)1 + 0 (X 0 X)1 X 0 E[u] +E[u0 X(X 0 X)1 (X 0 X)1 X 0 u]
E(
| {z }
| {z }
0
0 )
= 0 + E[u0 X(X 0 X)1 (X 0 X)1 X 0 u]
E(
La segunda parte del lado derecho de la ecuacin anterior es una matriz de 1 1, por lo tanto es
igual a su traza.
E[u0 X(X 0 X)1 (X 0 X)1 X 0 u] = E[tr(u0 X(X 0 X)1 (X 0 X)1 X 0 u)]
13
Dado que X 0 X es una matrz simtrica, esta se puede descomponer espectralmente como CC 0
donde C es la matriz con los vectores caractersticos correspondientes a las raices caractersticas de
X 0 X y es una matriz diagonal con las races caractersticas de X 0 X . Usando este hecho y las
propiedades de la inversa de una matriz se obtiene:
(X 0 X)1 = (CC 0 )1
(X 0 X)1 = (C 0 )1 1 C 1 = C1 C 1
donde
1 =
1
1
..
.
1
2
..
.
..
0
0
..
.
1
K
En consecuencia la traza de
es
1
k k
y por lo tanto:
0 )
= 0 + 2 tr(1 ) = 0 + 2
E(
K
X
1
k
k=1
15.
a ) Las ecuaciones normales del modelo de regresin lineal mltiple implican que el
vector de residuos MCO es ortogonal al vector de valores estimados y
.
b ) Si las variables que intervienen en un modelo de regresin simple estn en desviaciones con respecto a su propia media, entonces la lnea de regresin estimada
debe pasar a travs del origen.
Respuesta:
a ) Verdadero. Las ecuaciones normales del modelo de regresin lineal mltiple pueden escribirse
como:
=0
2X 0 y + 2X 0 X
=0
X 0y X 0X
=0
X 0 (y X )
| {z }
u
Se puede observar que las ecuaciones normales implican que la matriz de informacin X sea
ortogonal al vector de residuos u
, y esto implica que el vector de residuos sea ortogonal al
vector de valores estomados y.
0u
(X )
=0
0 X 0 u
| {z} = 0
0
b ) Verdadero. El modelo de regresin simple con variables en desviaciones con respecto a su propia
i : yi = + xi + ui ,
= P 2 = i P
x
(x
)2
i i
i ix
= y x = 0 0 = 0
Suponga que un amigo que ignora sobre econometra bsica le pide que estime un
modelo de regresin de la forma yi = + xi + ui armando que los errores no estn
correlacionados y que adems se distribuyen exponencialemente. Este le dice que an
cuando los errores no siguen una distribucin normal, usted puede hacer las pruebas
de hiptesis necesarias debido a que el tamao de la muestra es 100000.
Respuesta:
a ) No se puede estimar porque si los errores siguen una distribucin exponencial, entonces los
errores estn restringidos a tomar valores positivos. Si todos los errores toman valores positivos
entonces no se cumple el supuesto E(u) = 0. Formalmente, la distribucin exponencial es:
f (ui ) =
1 ui
e
= y x
P
(xi x
)ui
= + Pi
(x
x
)2
i
i
P
E() = +
E(ui )
(x
)2 | {z }
i i
P
E(
) = + E[
ui
P
]=+
E(ui )
n
=+
n
n
E(
) = +
17.
Respuesta:
1
= E
E
x
y
y
x
1
E
x
xi + ui
n
i (xi
+ ui )
y
1 X xi
E
= [
+E
x
n
i
| {z }
P
ui
y
x
E(ui )
| {z }
0
=+
x
n
y
V ar
P
ui
x
n
i
= V ar
y
x
1
x
2 n2
=
V ar(
x
2 n2
ui )
X
2 n
2
V ar(
ui ) = 2 2 = 2
x
n
x
n
i
y
x
V ar(M CO ) =
V ar
Se sabe que
i (xi
x
)2 =
y
x
y
x
2
2
1
1
P 2 = 2 ( 2 P 2 )
2
x
n
x
x
n
i i
i xi
V ar(M CO ) = 2 (
x2i n
x2
P
)
n
x2 i x2i
x2i n
x2 . En consecuencia:
V ar
y
x
V ar(M CO ) = 2 (
)2
ix
i (xP
)
n
x2 i x2i
La expresin dentro del parntesis siempres er positiva, por lo tanto la varianza del estimador
es mayor que la del estimador MCO.
18.
y
x
Reproduzca un razonamiento similar usado en la demostracin del teorema de GaussMarkov para probar el siguiente resultado:
Basta con demostrar que la diferencia entre la covarianza de c0 y c0 es mayor o igual a 0, donde
es cualquier estimador lineal insesgado de , distinto del estimador MCO.
16
V ar(c0 )
= c0 V ar()c
c0 V ar()c
V ar(c0 )
V ar(c0 )
= c0 (V ar()c
V ar()c)
V ar(c0 )
V ar(c0 )
= c0 [V ar()
V ar()]c
V ar(c0 )
Dado que Z es semidenida positiva, existe una matriz no-singular B tal que:
V ar(c0 )
= c0 [B 0 B]c
V ar(c0 )
V ar(c0 )
= (Bc)0 (Bc) = w0 w = kwk2
V ar(c0 )
Demuestre que el estimador MCO del vector es independiente del estimador MCO
del parmetro 2 , sabiendo que el vector de errores se distribuye N (0, 2 I).
Respuesta:
y 2 como:
u0 M X u
2 =
nk
solo depende de la parte aleatoria u a travs de (X 0 X)1 X 0 u, y 2 solo depende de la parte
{z
}
|
El producto matricial LMX da como resultado la matriz nula debido a que la matriz MX proyecta
al complemento ortogonal del espacio columna de X . Dado que los dos vectores son independientes,
entonces se puede concluir que los dos estimadores son independientes.
20.
y = X + u, en donde u N (0, 2 I) y X es
17
Por lo tanto, X 0 u
= 0 es una condicin necesaria para obtener el estimador MCO.
b ) Dado que u N (0, 2 I), se puede escribir la funcin de mxima verosimilitud en froma
matricial de la siguiente manera:
L=
ln L =
ln L =
1
n
ln 2 2 2 u0 u
2
2
n
1
n
1
ln 2 2 2 (yX)0 (yX) = ln 2 2 2 (y 0 y 0 X 0 yy 0 X+ 0 X 0 X)
2
2
2
2
ln L
X 0y X 0X
= 2
=0
2
=0
X 0y X 0X
=0
X 0 (y X )
| {z }
u
Por lo tanto, el estimador mximo verosimil y MCO de solo coinciden cuando la condicin
X 0u
se cumplen.
21.
En el modelo yi = +xi +ui con ui N (0, 2 ), use las condiciones de segundo orden para
demostrar que los estimadores mximo verosmiles de , y 2 en realidad maximizan
la funcin de mxima verosimilitud.
Respuesta:
i
1 X
ln L
= 2
(yi xi )xi
i
ln L
n
1 X
= 2 + 4
(yi xi )2
2
2
2 i
1
2 ln L
= 2
2
P 2
x
2 ln L
= i2 i
2
n
1 X
2 ln L
=
(yi xi )2
2
2 4
6 i
Para la condicin de segundo orden de se puede ver que la segunda derivada siempre ser negativa
debido a que la varianza siempre ser positiva. Esto asegura que exista un mximo.
La condicin de segundo orden para tambin satisface la condicin de mximo puesto que
siempre ser positivo.
Al manipular un poco la segunda derivada con respecto a 2 se obtiene:
2
i xi
2
2 ln L
1 n
1 X
= 4( 2
(yi xi )2 )
2
2
i
2 ln L
1 n 2 2
=
2
4
i (yi
xi )2
2 2
donde
se observa que el numerador siempre ser negativo debido a que se puede descomponer
P
2
2
i (yi xi ) como una suma de n y otra expresin. Todo esto garantiza que los estimadores
mximo verosmiles maximizan la funcin de verosimilitud.
22.
Respuesta:
Un estadstico t con n grados de libetad, elevado al cuadrado sigue una distribucin chi-cuadrado
con 1 grado de libertad en el numerador y n grados de libertad en el denominador.
#2
0
= p
pP
(xi x
)2
2 /
P
P
( 0 )2 (xi x
)2
( 0 )2 (xi x
)2
=
=
P
2
[ u2i ]/(n 2)
"
t20
t20
P
(xi x
)2
2(1)
2
Por lo tanto se tiene en el numerador una funcin de variable aleatoria que se distribuye 2(1) y en el
denominador una funcin de variable aleatoria que se distribuye 2(n2) dividida para n 2. Dado
esto, se tiene la forma del estadstico F . Esta sobreentendido que el numerador esta dividido para
1, es decir los grados de libertad.
t20
P
( 0 )2 (xi x
)2
=
= F(1,n2)
P 2
[ u ]/(n 2)
i
2 La
19
23.
Conteste brevemente:
e1 +2 xi
1 + e1 +2 xi
b ) Suponga que los ingresos anuales y el consumo de alcohol estn determinados por
el sistema de ecuaciones simultneas:
Respuesta:
#
yi
ln
= 1 + 2 x i
(1 yi )
i : 0 < yi < 1
20
b ) La ecuacin identicada es
log(earnings) = 0 + 1 alcohol + 2 educ + u1
puesto que log(price) est excluida y aparece en la otra ecuacin. log(price) sirve como instrumento para alcohol. La ecuacin se estima usando mnimos cuadrados en dos estapas. Primero
regresando alcohol sobre educ y log(price), y luego regresando log(earnings) sobre alcohol
y
educ.
24.
ui 2
yi = 0 + 1 xi + ui ,
(n2)2
2
(n2) .
Respuesta:
u0 MX u
= 0 MX = (MX )0 (MX )
2
donde =
N (0, I).
u0 Mx u
2
Por lo tanto
se distribuye chi-cuadrado con grados de libertad igual al rango de MX . Para
calcular el rango de la matriz MX se usa la propiedad de la traza y las propiedades de las matrices
idempotentes. El rango de una matriz simtrica e idempotente es igual a su traza.
rank(MX ) = tr(MX ) = tr(I X(X 0 X)1 X 0 ) = tr(I) tr(X(X 0 X)1 X 0 )
| {z }
n
Si se usa la propiedad de la traza entonces tr(X(X 0 X)1 X 0 ) = tr((X 0 X)1 X 0 X) = tr(I), donde
esta nueva matriz identidad es de tamao k k.
rank(MX ) = n tr(I) = n k
Escoja una respuesta para cada uno de los siguientes literales (justicando su respuesta):
a ) Cul de las siguientes opciones contiene solamente condiciones necesarias para que
sea un estimador insesgado para el parmetro en el modelo
el estimador MCO
de regresin mltiple y = X + u con k regresores:
1) E[u0 u] = 2 I y rank(X) = k
2) u N (0, 2 I)
3) E[u] = 0 y rank(X) = k
4) Ninguna de las anteriores.
b ) Cul de las siguientes condiciones debe cumplir el estimador MCO en el modelo
de regresin mltiple y = X + u para garantizar que sea MELI(Mejor Estimador
Linealmente Insesgado):
1)
2)
3)
4)
= 0 y V ar[]
= 2 (X 0 X)1
E[]
u
Cov(,
) = 0
Respuesta:
21
= 0 y V ar[]
= 2 (X 0 X)1
b ) i. E[]
La primera condicin asegura que el estimador sea insesgado. La segunda condicin asegura
que el estimador sea el de mnima varianza, como se prueba con el teorema de Gauss-Markov.
26.
Respuesta:
a ) Falso. Si el poder explicativo del modelo es muy bajo al incluir un regresor ms, entonces el R2
ajustado disminuir, incluso puede llegar a ser negativo. Precisamente por esto, se lo considera
ms able que el R2 sin ajustar.
b ) Falso. Hay varias alternativas para testear la presencia de un cambio estructural por ejemplo
el test de Hansen. Un inconveniente del test de Chow es la arbitrariedad al escoger el punto
donde se sospecha que hubo un cambio estructural.
27.
Una regresin usando datos trimestrales desde 1958 hasta 1976 inclusive, di la siguiente ecuacin estimada:
Respuesta:
tesis:
H0 : y = 1 + 2 x 2 + 3 x 3 + 4 x 4 + u
(3)
H1 : y = 1 + 2 x2 + 3 x3 + 4 x4 + 5 x5 + 6 x6 + 7 x7 + u,
(4)
22
F =
(RSSR U SSR)/r
,
U SSR/(n k)
donde RSSR es la suma de los residuos al cuadrado del modelo restringido (3), y U SSR es la
suma de los residuos al cuadrado del modelo sin restringir (4). r es el nmero de restriciones
y n k son los grados de libertad del modelo sin restringir.
La suma de los cuadrados totales es la misma en ambas ecuaciones puesto que y no ha cambiado. A partir de esto podemos hallar la suma de los residuos al cuadrado del modelo sin
restringir que es el dato que falta para calcular F .
RT SS = RESS + RSSR = 109,6 + 18,48 = 128,08
U SSR = U
| T{zSS} U ESS = 128,08 114,8 = 13,28
RT SS
(18,48 13,28)/3
= 9,006
13,28/69
b ) Para testear la presencia de un quiebre estructural se usa el test de Chow para lo cul se
calcula el estadstico F como sigue:
F =
donde RSSR es la suma de los residuos al cuadrado del modelo original, SSR1 es la suma
de los residuos al cuadrados de la regresin para el primer periodo y SSR2 es la suma de los
residuos al cuadrado de la regresin para el segundo periodo.
F =
28.
Respuesta:
y 0 (M1 M )y = y 0 (M1 y M y) = y 0 M1 y y 0 M y
y 0 (M1 M )y = (M1 y)0 M1 y (M y)0 M y = u
0R u
R u
0 u
Se sabe que:
r)0 [D(X 0 X)1 D 0 ]1 (D
r)
u
0R u
R u
0 u
= (D
0
23
29.
= 2 I es conocida, derive un
H0 : 1 = 2 = ... = k = 0
Respuesta:
(5)
yt = + xt + ut
donde el trmino de error cumple los supuestos clsicos y
embargo se estim por error el modelo:
t : xt es determinstica. Sin
yt = + ut
(6)
yT +1 =
E(
yT +1 yT +1 ) = 0)
Respuesta:
a ) Si se usa la forma general del estimador MCO = (X 0 X)1 X 0 y , donde en este caso X es
un vector de 1s, se tiene que el estimador de es:
P
X
X
yt
1
=(
1)
yt = t = y
n
t
t
b ) Para saber si es insesgado para , se reemplaza yt por el verdadero proceso generador de datos.
P
P
yt
( + xt + ut )
= t = t
n
n
P
P
n + t xt + t ut )
=
= + x
+u
E(
) = E( + x
+u
) = + x
+ E(
u)
| {z }
0
E(
) = + x
d ) Se sabe que
= + x
+u
. Por otro lado la realizacin yT +1 es igual a + xT +1 + uT +1 .
yT +1 yT +1 = + x
+u
( + xT +1 + uT +1 )
yT +1 yT +1 = (
x xT +1 ) + u
uT +1
(7)
Ahora considere el caso en el que el modelo est mal especicado. Como se demostr anteriormente el error de prediccin viene dado por:
yT +1 yT +1 = (
x xT +1 ) + u
uT +1
V ar[
yT +1 yT +1 ] =
25
2
1
+ 2 = 2 (1 + )
T
T
(8)
Comparando (7) y (8) se puede ver que mientras xT +1 > x, la varianza de la prediccin del
modelo mal especicado ser menor que la del verdadero modelo.3
31.
Respuesta:
PZ = X(X 0 X)1 X 0 = PX
Esto se debe a que el subespacio generado por las columnas de X es idntico al subespacio generado
por las columnas de Z . Esto resulta bastante obvio, ya que cada columna de Z es una combinacin
lineal de las columnas de X . Si PZ = PX entonces MZ = MX , as el vector de residuos MZ y
ser igual a MX y .
La importancia de esto es que al cambiar la unidad de medida de las variables explicativas no se
altera la prediccin ni los residuos,a pesar de que el estimador si cambia.
32.
a ) t2 = 2 para todo t
b ) t2 = kxt , k dado.
Respuesta:
min s =
,
X 1
2
2 (yt xt )
t
t
t
t
X 2xt
s
=0
=
2 (yt
xt )
t
t
P
t
P 1
yt
t t2
xt
t2
t t2
3 El
hecho de que a veces la varianza de la prediccin usando estimadores de un modelo subespecicado, sea menor que
la varianza de la prediccin usando los estimadores del verdadero proceso generador de datos, se conoce en la literatura
como paradoja de Stein.
26
1
t t2
xt yt
t t2
x2t
t t2
yt
t t2
1
t t2
xt
t t2
2
P
xt
t t2
P
P
xt yt 14 t yt t xt
P 2
P 2
1
x
t t
t xt
4
n
4
P
P
(xt x
)(yt y)
xt yt n
xy
t
= tP
= P 2
2
x
n
x
(x
)2
t t
t tx
1
2
1
2
yt
xt
1
2 n
yt
= y x
b ) Si t2 = kxt , entonces:
1
k2
1
t xt
x2t
t xt
1
k2
xt yt
xt
1
t xt
yt
t xt
1
k2
P
xt
t xt
1
k2
xt
t xt
2
P
yt n t xytt
P
P 1
2
t xt
t xt n
P
P
n
y t x1t n t xytt
P
=
n
x t x1t n2
P
P
y t x1t t xytt
P
=
x
t x1t n
P
1
t xt
yt
t kxt
1
t xt
P
yt
t xt
1
t xt
P
yt
xt
P
t
1
t xt
n
1
t xt
1
t xt
n)
yt
t xt
P
n
y
1
t xt
1
t xt
+n
yt
t xt
1
t xt
P
P
1
t xt
yt
t xt
yt
y
xt n
1
n
t xt
Pt
1
t xt
+n
yt
t xt
1
t xt
yt
y)
t xt n
1
n
t xt
1
x
t xt (
P
xt
t kxt
(
x
yt
t xt
1
t kxt
1
t xt
P
1
t xt
27
yt
y
t xt n
1
t xt n
xt
33.
Cul de los siguientes casos puede provocar sesgo en los estimadores MCO? Justique
su respuesta (Si o no, y por qu).
a ) Heteroscedasticidad.
b ) Omitir una variable relevante.
c ) Un coeciente de correlacin muestral de 0.95 entre 2 variables independientes
incluidas en el modelo.
Respuesta:
a ) No.
= + (X 0 X)1 X 0 E(u)
E()
Sea el modelo
a ) Demuestre que el estimador MCO es insesgado y que su varianza est dada por:
P 2
x t
V ar(M CO ) = 2 P t 2t 2
( t xt )
Respuesta:
28
P 2
= P 2 =
= + Pt 2
x
x
t t
t t
t xt
Y su valor esperado:
= + P1
E()
2
t xt
xt E(ut )
{z
b ) Para obetener el estimador de MCG se minimiza la suma de los residuos al cuadrado, pero
esta vez ponderada por la inversa de la parte variable de la varianza de ut .
min s =
X1
(yt xt )2
t
t
X yt xt
t
P yt xt
M CG = Pt xt2
t
t t
M CG =
x2t
t t
P
+ t
P x2t
t t
P
=
ut xt
t
x2t +ut xt
t
P x2t
t t
ut xt
t
x2t
t t
= + Pt
Como los errores no estn correlacionados la varianza del estimador puede escribirse como:
1
V ar(M CG ) = P x2 2
t
X x2
t t
t
t2
X x2 t
2
t
V ar(ut ) = P x2 2
t
t2
t
t t
V ar(M CG ) = P
x2t
t t
29
35.
y = + x + u
y sea
P
(y
y )(zi
z)
Pi i
x)(zi
z ) para dei (xi
y1 y0
IV =
x1 x0
donde y0 y x0 son las medias muestrales de yi y xi para aquellas observaciones con zi = 0,
y donde y1 y x1 son las medias muestrales de yi y xi para aquellas observaciones con
zi = 1. Este estimador, conocido como estimador de grupo fue propuesto por primera
vez por Wald(1940).
Respuesta:
,
es n k. La medias muestrales para
las
observaciones
con
z
=
1
son
y
=
1 =
i
1
k
k
P
P
i yi (1zi )
i xi (1zi )
mientras que para zi = 0 son y0 =
y x0 =
. Entonces el estimador por grupos
nk
nk
sugerido por Wald es:
P
IV =
yi zi
k
P
i xi zi
k
i
yi (1zi )
nk
i xi (1zi )
nk
i
P
yi zi k i yi (1zi )
k(nk)
P
P
(nk) i xi zi k i xi (1zi )
k(nk)
(nk)
IV =
P
P
(n k) i yi zi k i yi (1 zi )
P
P
IV =
(n k) i xi zi k i xi (1 zi )
P
P
P
P
n i yi zi k i yi zi k i yi + k i yi zi
P
P
P
IV = P
n i xi zi k i xi zi k i xi + k i xi zi
P
P
n
yi zi k i yi
P
IV = P i
n i xi zi k i xi
Multiplicando por
n
n
se obtiene:
P
P
P
yi zi k y
yi zi y i zi
i
i
P
IV = P
=P
x
i zi
i xi zi k
i xi zi x
P
P
(yi y)zi
(yi y)(zi z)
IV = P i
= Pi
(x
)z
(x
)(zi z)
i
i
i
i ix
36.
30
X 1
(yt )2
x
t
t
=0
xt
xt
t
t
Despejando se obtiene:
X 1
X yt
=
xt
xt
t
t
P yt
t xt
1
t xt
= P
P
V ar(
) = V ar(
t
ar( P x1t
t xt
V ar(
) = V
) = V ar(
P
V ar(
) = V ar( + P
t
t xt
1
t xt
P
+ t
P 1
t
xt
t xt
t
t
P x1t
t xt
P
+
t xt
t
xt
1
t xt
P
P
t x1t
t
) = V ar( P 1 + P
t xt
X t
1
) = P 1 2 V ar(
)
xt
[ t xt ]
t
Bajo el supuesto de independencia de los errores, las covarianza entre los errores de todas las
observaciones son 0.
X
X 2 xt
1
t
1
V ar(
) = P 1 2
V ar[ ] = P 1 2
xt
[ t xt ] t
[ t xt ] t x2t
P
2 t x1t
2
V ar(
) = P 1 2 = P 1
[ t xt ]
t xt
= y = t
n
P
P
P
P
t
t+
t
t t
=
=
+ t
n
n
n
P
t
=+ t
n
Y su varianza es:
V ar(
) =
37.
1 X
2 X
V
ar(
)
=
xt
t
n2 t
n2 t
yi = xi + ui
E(ui ) = 0, E(u2i ) = i2 suponiendo que las varianzas cambian con el esquema
= zi donde zi es una variable conocida.
Donde
i2
31
Respuesta:
M CG = (x0 1 x)1 x0 1 y
y su varianza:
V ar(M CG ) = 2 (x0 1 x)1
z1
0
=
0
.
..
0
0
z2
0
0
..
..
.
..
.
zn1
0
0
0
..
.
zn
M CG = P xz2i
i
i zi
y su varianza:
2
V ar(M CG ) = P x2
i
i zi
P
P
P
b ) Usando la desigualdad de Cauchy-Schwarz [ i vi wi ]2 [ i vi2 ][ i wi2 ], donde vi =
wi = xi zi .
[
X xi
X x2 X
i
][
x2i zi ]
xi zi ]2 [
z
z
i
i
i
i
i
X
X x2 X
i
[
x2i ]2 [
][
x2 zi ]
zi i i
i
i
P 2
x zi
Pi i2 2
[ i xi ]
var(M CG ) V ar(M CO )
32
xi
zi
38.
GP A = 0 + 1 P C + u
Responda lo siguiente:
c ) Supongamos que hace 4 aos, la universidad concedi becas para comprar computadoras a aproximadamente la mitad de sus estudiantes que recin ingresan y
que, adems los alumnos que las recibieron fueron elegidos al azar. Explique como
podra utilizar esta informacin para construir una variable instraumental para
P C.
Respuesta:
a ) Porque hay otros factores en el error que posiblemente inuyan sobre el promedio de calicaciones y esten correlacionados con P C . Un ejemplo es el gasto en educacin de los estudiantes
que realizan sus padres. Esta variable est claramente correlacionada con P C .
b ) P C est correlacionada con el nivel de renta de los padres porque es ms probable que los
estudiantes con padres de mayores ingresos tengan computadoras y los de menos ingresos no.
Esto no es suciente para concluir que el nivel de renta de los padres es una buena variable
instrumental ya que el nivel de ingresos de los padres puede estar correlacionado con el error.
Por ejemplo est correlacionado con el gasto en educacin.
c ) Se puede usar una variable dummy que indique 1 si el estudiante recibi beca y 0 en caso
contrario. Esta variable est claramente correlacionada con P C y dado que los estudiantes que
recibieron las becas fueron escogidos al azar(la variable es exgena en el modelo), entonces no
est correlacionada con el error.
39.
Supongamos que queremos contrastar si las chicas que asisten a institutos femeninos
de educacin secundaria son mejores en matemticas que las chicas que van a institutos
mixtos. Se dispone de una muestra aleatoria de adolescentes femeninas que estudian los
ltimos aos de la secundaria en un estado de Estados Unidos, y score es la calicacin
en un determinado examen de matemticas. Sea girlhs una variable cticia que indica
si una estudiante asiste a instituto femenino, conteste:
b ) Escribir una ecuacin que relacione score con girlhs y las otras variables indicadas
en el apartado (a).
c ) Supongamos que el apoyo y la motivacin que ofrecen los padres son factores
no observables que se encuentran en el trmino de error del apartado (b). Es
probable que stos estn correlacionados con girlhs? Explicar por qu.
Respuesta:
a ) Se puede incluir el ingreso familiar, ya que se esperara que quienes tienen padres con me-
jores ingresos rindan mejor en los estudios. Se puede incluir una variable proxy del nivel de
inteligencia como el IQ. Otra variable importante que se debera incluir son las horas que la
estudiante dedica a estudiar matemticas.
33
b)
score = + 1 girlhs + 2 ing + 3 IQ + 4 time + u
donde:
girlhs =variable cticia que indica si una estudiante asiste a instituto femenino.
ing =ingreso familiar.
IQ =nivel de IQ.
time =tiempo que la estudiante dedica a estudiar matemticas medido en horas promedio
semanales.
score =calicacin en el examen de matemticas.
c ) Si es probable que est correlacionado porque los padres que ofrecen menos apoyo y motivacin
tienden a enviar a sus hijas a instututos femeninos. Note que tambin se puede argumentar
lo contrario. Ms alla de la justicacin lo que se busca es encontrar un sustento terico que
permita hacer suspuestos sobre un modelo de regresin, en especial aquellos supuestos que no
se pueden testear.
d ) Para que sea una variable instrumental vlida debe estar correlacionada con la variable girlhs.
Obviamente las dos variables estn correlacionadas. Mientras haya ms institutos femeninos
en un radio de veinte millas de la casa, es ms probable que los padres decidas que sus hijas
deben estudiar en institutos femeninos.
La otra condicin necesaria es que esta variable no debe estar correlacionada con el error. En el
error se encuentran factores no observables como el apoyo y motivacin que los padres ofrecen
a sus hijas. Estos factores no tienen relacin alguna con el nmero de institutos femeninos que
hay cerca de la casa. En resumen, dicha variable cumple con las dos condiciones que hacen que
sea una variable instrumemntal vlida.
Sea num el nmero de institutos femeninos en un radio de veinte millas de las casas de los
estudiantes. Entonces:
Cov(num, girhs) 6= 0
Cov(num, u) = 0
40.
b ) Se desea realizar un estudio que tenga como variable dependiente al ahorro agregado para explicarlo por medio de las tasas de inters, en una economa. Un
investigador an no dene los aos de anlisis para el estudio. Para procurar que
las estimaciones de mnimos cuadrados ordinarias sean ms precisas, el investigador debe escoger un periodo en el cual las tasas de inters hayan uctuado mucho
o es preferible poca uctuacin?
c ) Un investigador plantea una regresin con datos anuales, desde 1981 hasta 1999,
sobre los niveles de consumo agregados explicados por los ingresos, en cierta economa. Analiza la siguiente relacin:
consumo = + ingreso + ut
Adicionalmente conoce que el coeciente de correlacin entre las variables consumo
e ingreso es igual a 0,7. Al 95 % de conanza es signicativo el coeciente de la
pendiente que se estima?
Respuesta:
34
a ) Falso. An cuando los errores no se distribuyan normal, los estimadores MCO siguen siendo
los mejores estimadores linealmente insesgados. El teorema de Gauss-Markov solo requiere que
E(ui |xi ) = 0 , V ar(ui ) = 2 y Cov(ui , uj ) = 0.
b ) El investigador debe escoger un perodo en el que las tasas de inters hayan uctuado poco.
Si utiliza el resto de perodos es probable que el modelo presente heterocedasticidad.
c ) Falso. Hace falta ms informacin para concluir algo as. Una correlacin lineal fuerte entre
dos variables no necesariamente implica que los coecientes de la regresin entre los dos sean
signicativos.
41.
Oferta: Q
= 1 P + 1 Z1 + u1
= 2 P + 2 Z2 + u2
2
u2
Q
Z2
2
2
2
(9)
Como se puede apreciar hasta ahora, es necesario que 2 6= 0 para poder despejar P , y por
lo tanto que la forma reducida de Q exista. Reemplazando (9) en la ecuacin de demanda se
obtiene:
Q = 1 (
Q(1
Q=
Q
2
u2
Z2
) + 1 Z1 + u1
2
2
2
1
1 2
1 u2
) = 1 Z 1
Z2
+ u1
2
2
2
1 2
1 u2
u1
1
Z1
Z2 +
+
1
1
1
1
(1
)
(1
)
(1
)
(1
2
2
2
2 )
| {z 2 }
|
{z2 }
|
{z
}
1
v1
2
1
u2
u1
Z2
Z1 +
1
1
1
1
|{z}
|{z}
| {z }
3
35
v2
c ) La forma reducida para Q es la misma que la del literal (a). La forma reducida para P
ser distinta. La condicin 1 6= 2 garantiza que la forma reducida exista como se ver a
= 1
1 2 P
0
| {z }
0
2
Z1
u
+ 1
Z2
u2
(10)
Para que la forma reducida exista, la inversa de la matriz B tiene que existir. Si 1 = 2 ,
entonces el determinante de la matriz es 0 y por lo tanto no tiene inversa. Usando la condicin
del ejercicio la matriz inversa existe y es igual a:
B
1
2
=
1 2 1
1
1
42.
1 2
1 2
2
1 2
#
1 u2
2 u1
Z1
1 2 1 2
+
u2
u1
Z2
1 2 1 2
{z
}
|
{z
}
|
}
z
a partir del
y = X + u
X = Z +
Respuesta:
Primero se regresa X sobre Z para obtener el mejor instrumento para X . Luego en la primera
ecuacin se sustituye X por la prediccin de la segunda. Es decir:
y = PZ X + u
36
43.
yi = 0 + 1 x
i,1 + 2 x
i,2 + 3 xi,k + ui
1
donde u
i = mi
Si para todo e,
conteste:
(11)
Pmi
a ) Calcular V ar(
ui ) . Es correcto usar el estimador MCO? Por qu?
b ) Qu ponderador de la suma residual, usara para estimar el modelo por mnimos
cuadrados ponderados y por qu? (No solo de una explicacin matemtica, sino
tambin una breve explicacin intuitiva).
Respuesta:
a)
V ar(
ui ) = V ar(m1
i
mi
X
ui,e )
V ar(
ui ) =
mi
mi
1 X
1 X
V
ar(u
)
=
2
i,e
m2i e
m2i e
V ar(
ui ) =
2
mi 2
=
m2i
mi
No es correcto usar MCO debido a que la varianza del error ser ms pequea a medida que el
nmero de empleados aumente y por lo tanto el supuesto de homocedasticidad no se cumple.
b ) El ponderador de la suma residual que hace cumplir el supuesto de homocedasticidad es el
2
V ar(
ui m1 ) =
mi = 2
mi
Al hacer esto, se le est asignando ms peso a las empresas con mayor nmero de empleados.
De esta manera se compensa la reduccin de la varianza de ui a medida que el nmero de
empleados es mayor.4
4 Como
se vi en clase, los ponderadores muchas veces se escogen arbitrariamente. Este ejercicio ilustra como algunas
veces pueden surgir de forma natural.
37
44.
d ) Analice la relevancia del inciso (c) para la estimacin por mnimos cuadrados
ponderados empleando datos promediados a nivel de las empresas, donde el ponderador empleado para la observacin i es el tamao de la rma.
Respuesta:
a)
V ar(ui,e ) = V ar(fi + vi,e ) = V ar(fi ) + V ar(vi,e )
V ar(ui,e ) = f2 + v2 = 2
La varianza de ui,e es simplemente la suma de las varianzas de fi y vi,e porque estas variables
no estan correlacionadas y por ende tienen covarianza 0.
b)
Cov(ui,e , ui,g ) = E[ui,e ui,g ] E[ui,e ]E[ui,g ]
Cov(ui,e , ui,g ) = E[(fi + vi,e )(fi + vi,g )] E[fi + vi,e ]E[fi + vi,g ]
Cov(ui,e , ui,g ) = E[fi2 +fi vi,g +fi vi,e +vi,e vi,g ] E[fi ]E[fi ]+E[fi ]E[vi,g ]+E[vi,e ]E[vi,g ]+E[fi ]E[vi,e ]
Cov(ui,e , ui,g ) = E[fi2 ] E[fi ]E[fi ] + E[fi vi,g ] E[fi ]E[vi,g ] + E[fi vi,e ] E[fi ]E[vi,e ] + E[vi,e vi,g ] E[vi,e ]E[v
{z
} |
|
{z
} |
{z
} |
{z
V ar(fi )
Cov(fi ,vi,g )
Cov(fi ,vi,e )
Dado es supuesto de correlacin 0 entre fi y vi,g , y correlacin 0 entre vi,e y vi,g , los ltimos
tres trminos del lado derecho de la ecuacin anterior son 0.
Cov(ui,e , ui,g ) = E[fi2 ] E[fi ]E[fi ] = f2
|
{z
}
V ar(fi )
c)
V ar(ui ) = V ar(m1
i
mi
X
ui,e )
V ar(ui ) =
mi
mi
i
X
XX
1 hX
1
V
ar(
u
)
=
V
ar(u
)
+
2
Cov(u
,
u
)
i,e
i,e
i,e
i,g
m2i
m2i e
e
e
g
38
Cov(vi,e ,vi,g )
V ar(ui ) =
i
i
X
1 h
1 h
mi
2
2
2
2
=
m
+
2
(m
1)
m
+
2
(m
1)
i
i
i
i
f
f
m2i
m2i
2
e
V ar(ui ) =
i
f2
f2
1 h
2
mi f2 + mi v2 + m2i f2 mi f2 =
+ v + f2
2
mi
mi
mi
mi
V ar(
ui ) = f2 +
v2
mi
d ) El problema de usar el tamao de la rma como ponderador es que aun as la varianza del
nuevo error depender del tamao de la rma. La varianza del nuevo modelo ser:
V ar(
ui ) = mi f2 + v2
45.
H0 : 2 = 0 en el modelo:
V ar(ut ) = t2 = u2 x2t
y t = 1 + 2 x t + u t ,
Respuesta:
Se estima el modelo por MCO asumiendo homocedasticidad, sin embargo la varianza del estimador
cambia. En su lugar se construye la varianza usando el estimador de White.
= (X 0 X)1
V ar()
X
ut 2 (xt x0t ) (X 0 X)1
46.
2
(xt
x)ut 2
2 2
(x
t x) ]
t
Pt
Respuesta:
donde
1 =
1
k(x1 )2
..
.
0
1
k(x2 )2
..
.
Resolviendo se obtiene:
39
..
0
0
0
..
.
1
k(xT )2
P yt
T 1 1 X y
t xt
t
=
=
k 2
k 2 t xt
T
T 1
k 2
=
k 2
T
47.
Suponga el modelo:
(12)
y1 = 0 + 1 y2 + 2 z1 + u1
donde y2 es endgena y z1 es exgena. Se cuenta con una variable z2 que sirve como
instrumento para y2 . Al tomar la forma reducida de y2 y sustituirla en el modelo (12)
se obtiene la forma reducida para y1 :
y1 = 0 + 1 z1 + 2 z2 + v1
(13)
y2 = 0 + 1 z1 + 2 z2 + v2
v1
Por lo tanto, 0 = 0 + 1 0 , 1 = 1 1 + 2 y 2 = 1 2 .
b ) Del resultado anterior se tiene que v1 = 1 v2 + u1 .
c ) Los j pueden estimarse por MCO debido a que las variables z1 y z2 son exgenas en el modelo,
sin embargo no se podr recuperar los coecientes j y j debido a que habrn ms incgnitas
que ecuaciones.
48.
yt = 0 + 1 x t +ut
xt = xt + et
40
(14)
Dado que xt tiene media cero la covarianza entre xt y vt puede escribirse como:
Cov(xt , vt ) = E(xt vt )
Cov(xt , vt ) = E[(xt + et )(ut 1 et )]
Cov(xt , vt ) = E(xt ut 1 et xt + et ut 1 e2t )
Cov(xt , vt ) = E(xt ut ) 1 E(et xt ) + E(et ut ) 1 E(e2t )
| {z }
| {z } | {z }
0
E(xt1 vt ) = 0
c ) Al obtener la covarianza
Cov(xt , xt1 ) = E(xt xt1 )
Cov(xt , xt1 ) = E(xt xt1 + et xt1 + xt et1 + et et1 )
41
Cov(xt , xt1 ) = E(xt xt1 ) + E(et xt1 ) +E(xt et1 ) + E(et et1 )
| {z }
| {z }
0
y1 = 1 + 2 y2 + 3 x1 + 4 x2 + u1
Oferta:
y1 = 5 + 6 y2 + u2
Aqu, y1 (=horas de trabajo) e y2 (=salario) son las variables endgenas. Las variables
exgenas, x1 (=tipo de inters) y x2 (=precio de las materias primas), son independientes de las perturbaciones estructurales u1 y u2 . Estas perturbaciones tienen esperanza
cero. En lo siguiente, respecto a la estimacin, supondremos que disponemos de una
muestra de observaciones de y1 , y2 , x1 y x2 de tamao moderado, y que las regresiones
lineales a efectuar incluyen una constante.
Respuesta:
3
4
u2 u1
5 1
+
x1 +
x2 +
| 2 {z 6} | 2 {z 6}
| 2 {z 6}
| 2 {z 6}
1
v1
y1 = 5 +
3
4
u2 u1
5
1
+
x1 +
x2 +
+ u2
2 6
2 6
2 6
2 6
6 (5 1 )
6 3
6 4
6 (u2 u1 )
+
x1 +
x2 +
+ u2
2 6
2 6
2 6
2 6
42
y1 =
6 3
6 4
2 u2 6 u1
5 2 1 6
+
x1 +
x2 +
2 6
2 6
2 6
|
{z
} | {z }
| {z }
| 2 {z 6 }
4
v2
b ) La ecuacin de oferta si est identicada, sin embargo no se debe estimar por mnimos cuadrados ordinarios debido a que y2 es endgena y causa un sesgo de simultaneidad en el estimador,
adems de la inconsistencia.
c ) La ecuacin de demanda no est identicada, y tampoco debe estimarse por mnimos cuadrados
ordinarios por la misma razn (el estimador es sesgado e inconsistente).
d ) Primero se regresa y2 sobre x1 y x2 . Mediante una prueba de hitesis se testea si los coecientes
que acompaan estas variables son signicativos. De ser as, el segundo paso es regresar y1
sobre y2 , donde y2 es la prediccin de la regresin de y2 sobre x1 y x2 .
e ) No se puede estimar por mnimos cuadrados en dos etapas debido a que la ecuacin no est
identicada.
50.
En el modelo lineal
yi = x0i + ui
E(ui ) = 0
Suponga que los trminos de error no estn correlacionados, sin embargo no se cumple
el supuesto de homocedasticidad. Suponga que la estructura de la varianza del error
cambia en funcin de xi y adems es conocida. Muestre que el estimador de mnimos
cuadrados generalizados de puede ser escrito como un estimador de variable instrumental usando algn instrumento zi . (Encuentre una expresin para zi en funcin de
xi )
Respuesta:
se puede notar que es necesario que Z 0 sea igual a X 0 1 . Debido a la simetra de 1 , la matriz
de instrumentos Z puede ser escrita como:
Z = 1 X
Z=
1
12
..
.
0
0
1
22
..
.
..
0 x11
0
x12
.
..
. ..
1
x1n
2
n
zi0
43
1 0
x
i2 i
x21
x22
x2n
..
.
..
xk1
xk2
..
.
xkn
Referencias
[1] Novales (1993); Econometra.
[2] Wooldridge (2008); Introductory Econometrics: A Modern Approach.
[3] Greene (2005); Econometric Analysis.
[4] Gujarati & Porter (2010); Econometra.
[5] B. Hansen (2012); Econometrics.
[6] Johnston and Dinardo (1996); Econometric Methods.
44