You are on page 1of 4

Mnimos Cuadrados Ordinarios

Teora Econometrica-I
Agosto, 2016
Profesor
TA

:
:

Tom
as Rau B.
Martn Carrasco N.

1.Conceptos claves
2.Ejercicios
1. Suponga que el modelo de regresi
on lineal
yi = 1 + 2 xi + i
donde

1 i
e con i 0

Esto significa que los errores, en promedio, son positivos.


f (i ) =

a Muestre que el estimador MCO de 2 es insesgado, pero que el estimador MCO de 1


es sesgado.
b Es consistente el estimador MCO de 1 ? Si no lo es bajo que condiciones es el
estimador 1 consistente?
2. Usted dispone la siguiente informacion obtenida de un modelo de regresion lineal con una
constante y dos regresores para una muestra de tama
no 30

5
= 4
2

s2 (X 0 X)1

3
= 0
1

0
2
0

1
0
2

a Usando estos resultados construya un intervalo de confianza a un 95% de confianza para


el par
ametro = 1 + 2 + 3 Esta = 1 en el intervalo?
b Realice un test de hip
otesis para H0 : 1 + 2 = 1.

3. Sea el modelo de regresi


on lineal
Y = XB +
, donde se cumplen los supuestos del teorema de Gauss-Markov. Suponga que se sabe que
R = 0, en donde R es una matriz de q x k no estocastica. Considere el estimador
= (X 0 X)1 R0 [R(X 0 X)1 R0 ]1 R
en donde es el estimador de MCO.
a) Demuestre que R = 0

b) Encuentre E()
c) Encuentre la varianza de
4. Sea el modelo de regresi
on lineal expresado de la siguiente forma particionada
Y = X1 1 + X2 2 +
donde Y es un vector de n x 1, X1 es una matriz de nxk1 , la matriz X2 es una matriz de
nxk2 , los vectores 1 , 2 son de dimension k1 y k2 respectivamente, es un vector n x 1 y se
cumplen todos los supuestos del teorema de Gauss-Markov. Suponga que Ud. dispone de un
estimador de 1 : b1 . Sea
Y = Y X1 b1
Suponga que Ud.estima el modelo
Y = X2 2 +
a) Encuentre formalmente las condiciones estadsticas que debe satisfacer b1 para que el
estimador de 2 del modelo anterior sea insesgado.
b) Asumiendo que la condici
on anterior se cumple, encuentre una expresion para su matriz
de varianzas y covarianzas.
c) Muestre que si
X1 V (b1 )X10 = 2 X2 (X20 M1 X2 )1 X20 2 I
el estimador de 2 es BLUE.
5. Considere el modelo lineal y = 1 + 2 x + u y los efectos que se pueden producir en el
R2 cuando se hacen transformaciones lineales a la ecuacion verdadera. Suponga que x es
una variable aleatoria escalar, que la varianza de u es igual a 2 y suponga que los valores
verdaderos de los par
ametros son 1 = 0 y 2 = 1
a) Demuestre que
plim2 =

cov(x, y)
y
=
2
x
x

donde es el coeficiente de correlacion entre x e y, x2 = V ar(x) , y y2 = V ar(y).

b) Muestre que y2 = V ar(y) = V ar(x) + u2 . Usando algebra de plims y ley de grandes


n
umeros, demuestre que adem
as
plimR2 = 2 = 1

u2
=1
y2

1
2
x
2 +1
u

A la expresi
on plimR2 se le conoce como R2 poblacional Discuta que ocurre con dicho
2
2
plim cuando x2 = 1 y cuando x2 = 10?
u

6. Sea Xi una variable binaria, y considere la siguiente regresion


Yi = 0 + 1 Xi + ui
Sea Y0 la media muestral de las observaciones con X = 0 e Y1 la media muestral para las
observaciones con X = 1
a) Muestre que 0 = Y0
b) Muestre que 0 + 1 = Y1
7. En el modelo de regresi
on con k variables, demuestra que el estimador de 2 es insesgado, es
u
0 u

2
decir E( ) = donde 2 = nk
8. Considere una regresi
on de Y en K variables explicativas X. Imagine un regresor alternativo
Z = XP , donde P es una matriz no singular, de tal forma que cada columna de Z es una
mezcla de columnas de X. Prueba que los residuros de la regresion de Y en X e Y en Z son
identicos.
9. En el contexto de MCO bajo los supuesto de Gauss-Markov, encuentre la matriz de residual
makers y la matriz de proyecci
on. Muestre que las matrices son ortogonales y que ambas son
simetricas e idempotentes.
10. Suponga que la regresi
on involucra dos clases de variables X1 y X2 , esto es
y = X + = X1 1 + X2 2 +
a) Encuentre las ecuaciones normales al problema
b) Encuentre las expresiones algebraicas para los estimadores.
c) Existe alguna diferencia entre realizar una estimacion larga a una corta, si es que ambos
set de variables son ortogonales?
11. Si e0 e es la suma de cuadrados de los residuos cuando se esta regresionado en X y u0 u es la
suma de cuadrados de los residuos cuando es regresionado en (X,z). Muestre que
u0 u = e0 e c2 (z0 z ) e0 e
donde c es el coeficiente en la regresion larga, y z = [I X(X 0 X)1 X 0 ]z es el vector de
residuos cuando z es regresionado en X.

12. Suponga que b es el vector de estimadores de mnimos cuadrados ordinarios de la regresion


de y en X, y sea c otro vector de estimadores de Kx1. Demuestre que la diferencia entre
ambas sumas de residuos al cuadrado es
(y Xc)0 (y Xc) (y Xb)0 (y Xb) = (c b)0 X 0 X(c b)
13. En la estimaci
on de MCO de y en K variables (con una constante) X, para computar los
coeficientes de la regresi
on podemos transformar y en desviaciones respecto a su media y
y, podemos transformar cada columna de X en desviaciones con la respectiva media de la
columna, y segundo regresionar la y transformada en las Xs transformadas sin la constante
Obtenemos los mismo si solo transformamos y? Que ocurre si solo transformamos X?
14. Suponga que la regresi
on involucra dos clases de variables X1 y X2 , esto es
y = X + = X1 1 + X2 2 +
Cu
al es el resultado del producto de las matrices M1 M en donde M es la matriz de residuos?

You might also like