Professional Documents
Culture Documents
Julio 2009
Introduccin
El curso de Econometra I constituye uno de los dos cursos de ECONOMETRA del Programa Universitat Empresa y es un curso obligatorio del primer semestre del primer ao del Programa (tercero de carrera). El objetivo principal del curso es familiarizar al estudiante con los elementos bsicos del trabajo economtrico proporcionndole todos los conocimientos necesarios para poder desarrollar un anlisis cuantitativo de los modelos econmicos. Por otro lado, es tambin objetivo del curso familiarizar al estudiante con la utilizacin de software economtrico, como el programa GRETL, para la investigacin emprica. Por la naturaleza del los modelos estudiados, el curso requiere el conocimiento de determinados conceptos estadsticos y matemticos que, por ello, se revisan en la primera parte del curso. La presente gua de estudios tiene como objetivo fundamental ser un instrumento til al alumno en el aprendizaje del contenido temtico del curso. La idea es que pueda servir como material complementario a los apuntes y de profundizacin de algunos de los temas estudiados en clase. La gua contiene apuntes sobre todos los temas tericos tratados en el curso, adems de ejemplos, ejercicios, aplicaciones empricas con GRETL, exmenes pasados y referencias bibliogrcas.
que proporcione respuestas a preguntas como: (i) cules son los efectos sobre cambio en
de un
que estudiaremos en este curso es el modelo de regresin lineal. En este captulo, en particular, nos concentraremos en el modelo "simple". El modelo de regresin lineal simple se describe a travs de la siguiente relacin
lineal
(1.1)
y = 0 + 1 x + u
Donde: 1.
y es
variable depen-
diente
2.
variable explicada.
y
y recibe el nombre de
que afectan a
y.
4.
0 , 1
son los parmetros del modelo. una muestra de la poblacin. Asumiendo que estos
Sea ahora
{(xi , yi ) : i = 1, ...n}
datos sean generados por el modelo de regresin (1.1) podemos asumir que por cada
i yi = 0 + 1 xi + ui
Al supuesto de linealidad del modelo aadimos los supuestos siguientes:
S1
(1.2)
La esperanza de ui es zero: E(ui ) = 0 por cada i. La variable independiente es no aleatoria o ja en muestras repetidas. La varianza de ui es constante: V ar(ui ) = 2
para todos
S2
S3
i.
S4
homoscedasticidad. El supuesto
debe ser igual a cero o sea
ui
uj y
con
i = j
E(ui uj ) = 0.
obtenemos
funcin
de regresin poblacional
El parmetro
x.
porque describe la relacin existente entre tro? Considerese un cambio supongamos que tonces
x.
de
y = 1 x + u.
Ahora En-
se mantenga constante,
u = 0,
de manera que
y = 1 x.
1 =
si
x = 1,
x, 1 = y
representa la variacin de
y.
Queda sobre
es lineal sobre
porque es simplemente
por el cambio en
x. Se considere ahora la
si
vara de
x.
Podemos interpretar
como la variacin de
x. La interpretacin de 0 y
cuando
es mas
problemtica. De hecho
es cero.
0 , xi
Obs. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
y
1.8987 7.0240 3.1294 5.3579 4.3279 6.1567 4.1183 3.5169 3.7885 6.7904 6.1492 6.4227 9.0072 7.7124 7.8797 10.1453
x
8.0000 9.0000 10.0000 11.0000 12.0000 13.0000 14.0000 15.0000 16.0000 17.0000 18.0000 19.0000 20.0000 21.0000 22.0000 23.0000
Tabla 1:
Para comprender mejor el modelo, consideramos ahora su interpretacin grca. Consideremos la muestra aleatoria de 16 observaciones de se supone generada por el siguiente modelo
yi = 0 + 1 xi + ui = 1 + 0,3xi + ui
El graco 1 ensea todas las observaciones (yi , xi ) de la muestra y la recta de regresin poblacional
yi = 1 + 0,3xi .
El parmetro
0 = 1
representa la intercepta y
la
pendiente de la recta de regresin. El modelo descompone cada observacin partes. Una parte, la esperanza de
yi
en dos
yi ,
o sea
yi = 1 + 0,3xi ,
recta de regresin poblacional (los tringulos) y otra parte, el error de regresin que representa la distancia vertical entre los puntos y los tringulos.
ui ,
1.2. Estimacin
Trataremos ahora la importante cuestin de la estimacin de los parmetros del modelo de regresin. La idea es que nosotros, como investigadores, no conocemos ninguna caracterstica cualitativa (el signo) o cuantitativa de los parmetros del modelo. La nalidad del procedimiento de estimacin es la de utilizar una muestra de datos, que se suponen generados por el modelo de regresin, para obtener valores para los parmetros, o sea unas estimaciones.
dores de MCO de
0 , 1
Figura 1:
los residuos de regresin. Para entender el mtodo necesitamos algunas deniciones preliminares. Sean
0 , 1
dos estimadores de
0 , 1 .
yi
como
yi = 0 + 1 xi ,
ui = yi yi = yi 0 + 1 xi .
yi
y su valor ajustado
yi
y expresa la parte de
yi
variable explicativa
x.
de la suma de todos los residuos al cuadrado. La idea es que queremos escoger de manera que la parte de variabilidad de de todos los residuos al cuadrado, Formalmente minimizacin:
0 , 1
n i=1
u2 = i
n i=1 (yi
0 + 1 xi )2 ,
sea mnima.
0 , 1
n 0 ,1 i=1
m n
(yi 0 1 xi )2 Q
Para solucionar este problema hay que encontrar las condiciones del primer orden. Estas condiciones son las derivadas parciales de la funcin objetivo, dos estimadores igualadas a cero.
Q,
respecto a los
Q =0 0 Q =0 1
n n
n i=1
2(yi 0 1 xi ) = 0
2(yi 0 1 xi )xi = 0
i=1
yi
i=1 n i=1 i=1 n i=1
1 xi = 0
yi
=0 n n n n0 xi y 1 i=1 = 0 n n 0 1 x = 0 y 0 = y 1 x
(1.3)
i=1 n i=1 1 xi
en trminos de
1 .
1 .
De la segunda
obtenemos
n i=1 n
yi ( 1 x) 1 xi xi = 0 y
n
(yi y )xi
i=1 n i=1 i=1
1 (xi x)xi = 0
n
(yi y )(xi x) 1 1 =
(xi x)2 = 0 x)
(1.4)
La ltima igualdad se obtiene utilizando las propiedades del operador suma. Podemos observar que
n i=1
xi (xi x) =
n i=1
n i=1 (xi
x)(xi x) xi
implica
n i=1
x(xi x) = 0
que
es cierto porque
x(xi x) = x
n i=1
n x2 i=1 ()
= n()2 n()2 . x x
Una segunda manera a travs de la cual se puede derivar el mismo estimador se conoce como el mtodo de los momentos. La idea es muy sencilla. El supuesto S1 nos dice que la media de
S2 implican
es cero (Cov(x, u)
= 0)
o sea
E(xu) = 0
puesto que
E(u) = 0.
Entonces
0 , 1
n1
i=1 n
(yi 0 1 xi ) = 0 xi (yi 0 1 xi ) = 0 2n
obtenemos las mismas ecuaciones obtenidas
n1
i=1
Multiplicando las dos ecuaciones por
de la minimizacin de la suma de los residuos al cuadrado. Resulta claro entonces que las soluciones debern ser las mismas y los estimadores que encontraremos en este caso coincidirn con (1.3) y (1.4).
x
n (x )(yi ) x y i=1 i
1 =
n1
n (x )2 x i=1 i
n1
=
La interpretacin de
Cov(x, y) V ar(x) 1 , 0
de la que hemos hablado ante-
1 , 0
coincide a la de
representa el
representa el valor de
xi = 0.
Ejemplo 1.1 Utilizando datos para salario promedio horario (medidos en dlares
por hora) y aos de educacin para 526 individuos, contenidos en el archivo WAGE1 en la base de datos Wooldridge en GRETL hemos estimado con MCO la siguiente regresin:
0,54
Una implicacin clave de la estimacin del modelo es que la recta de regresin muestral
no coincide
la Tabla 1 obtenemos
yi = 0,3458 + 0,3544xi
que es diferente de la regresin poblacional debido a que las estimaciones de los parmetros no coinciden con sus contrapartidas tericas. El graco 2 muestra la recta de regresin poblacional (la lnea continua) vista antes y la nueva recta de regresin
Figura 2.
10
muestral (la lnea discontinua) estimada en este ejemplo. La razn que explica esta diferencia resultar clara ms adelante.
Propiedades algebraicas
P1
n i=1
ui = 0.
ui =
i=1 i=1 n
(yi 0 1 xi )
n
=
i=1
yi
i=1
n i=1
1 xi
= n n0 n1 x y = n n( 1 x) n1 x y y = 0.
Las primeras tres igualdades se obtienen a travs de las propiedades del operador suma y la cuarta substituyendo la formula MCO de
0 .
n i=1
P2
ui xi = 0.
sta es la segunda condicin del primer orden que hemos utilizado antes para derivar el estimador de mnimos cuadrados. Por esta razn esta condicin siempre se cumple.
P3
La media muestral de los valores ajustados es igual a la media muestral del los
valores originales : y = y. ui = yi yi
11
ui =
i=1 n i=1 n
yi
i=1
yi
yi =
i=1 i=1
yi
y = y
donde la tercera igualdad se obtiene a travs de la propiedad P1.
Propiedades estadsticas
Antes de ver las propiedades estadsticas de los estimadores necesitamos repasar algunos conceptos y resultados estadsticos clave. Sea de densidad normal con media
y varianza
x N (, 2 )
Si ahora restamos la media a
y=
Sean
x N (0, 1)
zi , i = 1, ..., k k
w=
i=1
o sea la suma de las
zi2 k
zi
es independiente de
entonces
y
w k
o sea una variable con distribucin
tk
con
tstudent
w1
w2
dos variables
a y b respectivamente.
El siguiente ratio
w1 /a Fa,b w2 /b
12
Figura 3
con
grados de libertad.
Vamos a estudiar ahora las propiedades estadsticas de los estimadores MCO. Bajo los supuestos hechos anteriormente valen las siguientes propiedades.
P4
1 .
1 = = = =
n i=1 (yi y )(xi x) n 2 i=1 (xi x) n i=1 (xi x)yi n 2 i=1 (xi x) n i=1 (xi x)(0 + 1 xi + ui ) n 2 i=1 (xi x) n n i=1 (xi x)0 + i=1 (xi x)1 xi n 2 i=1 (xi x)
n i=1 (xi
x)ui
13
Vamos a analizar los primeros dos trminos a la derecha del igual. El primero
x) x)2
= 0
porque
n i=1 (xi
x) = n x
n i=1
xi = n n. x x = = 1 xi
El segundo
n i=1 (xi
x)xi
= 1
donde la segunda igualdad se obtiene de
(xi x)(xi x) =
i=1 i=1 n
(xi x) x
i=1 n
= =
i=1 n
(xi x)
i=1 n n
(xi x)xi x(
i=1
xi
i=1
x)
=
i=1 n
=
Resumiendo,
1 = 1 +
(1.5)
es igual al parmetro
1 ui .
sultado es que para muestras aleatorias distintas la estimacin del parmetro obtenida con MCO ser distinta.
14
Ejemplo 1.2 Para entender mejor esta propiedad haremos el siguiente ejer-
yi = 1 + 0,3xi + ui . ui
utilizando una
N (0, 0,16).
variables dependiente
y.
regresin anterior. La gura 3 muestra, por cada una de las muestra (eje x), el valor estimado de
1 .
1
P5
E(1 ) = 1 .
Esta propiedad se puede demostrar utilizando el resultado anterior. Empezamos con Tomando la esperanza de utilizando la (1.5) se obtiene
E(1 ) = E 1 + = 1 + E = 1 + = 1
n i=1 (xi x)ui n 2 i=1 (xi x) n i=1 (xi x)ui n 2 i=1 (xi x)
x)E(ui ) x) 2
La segunda igualdad se obtiene aplicando las propiedades del valor esperando. La tercera se obtiene utilizando S2 y la ltima con el supuesto S1. Vamos ahora a demostrar la insesgadez de frmula del estimador obtenemos
0 .
= 0 + E = 0 + = 0
n i=1 n i=1
ui
n E(ui ) n
y la propiedad P1.
Ahora podemos establecer la siguiente propiedad relativa a la varianza de los estimadores MCO
P6
V ar(1 ) =
2 n (x )2 x i=1 i
V ar(0 ) = 2
1 n
x2 n (x )2 x i=1 i
Demostraremos slo la primera parte de la propiedad. La demostracin de la segunda parte la dejamos como ejercicio. Considerese la ecuacin (1.5). sta implica
1 1 =
Utilizando P5, tomando el cuadrado y el valor esperado de los elementos obtenemos la siguiente expresin para la varianza de
1
2
E 1 E(1 )
Sea
= E
ki =
(xi ) x . n (x )2 x i=1 i
E 1 E(1 )
= E
i=1
ki ui
Para entender mejor el valor esperado a la derecha del igual supongamos que
n = 2.
En este caso
E(
i=1
Las primeras tres igualdades se obtienen utilizando las propiedades del valor esperado. La cuarta se obtiene utilizando S3 u S4. En general, por un quiera
cual-
E
i=1
ki ui
2 i=1
= 2 =
n i=1 (xi
x) 2
(1.6)
Otra propiedad del estimador MCO es la siguiente, conocida como Teorema de GaussMarkov:
P7
1 .
n i=1 n i=1
ki =
(xi ) x . n (x )2 x i=1 i
1 = i =
n i=1
ki yi .
1 ,
le llamaremos
i
n i=1
como
wi yi .
yi
obtenemos
i =
n i=1
wi + 1
wi xi +
n
wi ui .
E(i )
= E
i=1 n
w i + E 1
i=1 n
w i xi + E
i=1
w i ui
=
i=1
wi + 1
i=1
w i xi
= 1 .
Para que se cumpla la propiedad de insesgadez de este nuevo estimador
n i=1
wi =
n i=1
wi xi = 1.
ar(1 )
= V ar
i=1 n
wi yi
=
i=1
2 wi V ar(yi )
17
= 2
i=1 n
2 wi
= =
2 i=1 n 2 i=1
wi
2 wi n 2 i=1
+2
2 wi
. n (x )2 x i=1 i
Entonces la varianza de
ser
ar(1 )
2 i=1
2 wi
+ 2 wi =
1
n i=1 (xi
x) 2
o sea
(1.7)
Esto implica que la varianza es mnima cuando que ser el estimador MCO
tiene
1 .
0 , 1
y en su
informacin. Este parmetro es particularmente importante porque, como hemos visto, de ste dependen las varianzas de los estimadores. Como ser claro en la siguiente seccin, obtener una estimacin de la varianza del trmino de error es bsico para poder hacer inferencia. Antes de estudiar el estimador de la varianza del error, vamos a insistir en la diferencia existente entre los errores el residuo de regresin es
ui
y los residuos
ui
ui = yi 0 + 1 xi = 0 + 1 xi + ui 0 + 1 xi = ui (0 0 ) (1 1 )xi
18
Es claro que
ui
ui
no coinciden. La relacin que hay entre residuo y error es que sus medias coinciden gracias a la propiedad de insesgadez de los estimadores MCO. Volvemos ahora a la estimacin de
n i=1
2.
Como
2 = E(u2 ) i
podramos utilizar
u2 i
los valores estimados de los errores o sea los residuos de regresin. Entonces, una posibilidad sera utilizar la frmula anterior con los residuos
n i=1
u2 i
. El problema es
que este estimador es sesgado. El estimador insesgado que utilizamos en este curso es el siguiente:
2 =
u2 i n2
n i=1
(1.8)
obtenida una estimacin para la varianza del error es muy sencillo estimar la varianza del estimador. Simplemente hay que substituir (1.8) en (1.6).
y,
o, en otras
ajusta
a los datos.
Empezamos deniendo la Suma Total de los Cuadrados (STC), la Suma Explicada de los Cuadrados (SEC) y la Suma de los Cuadrados de los Residuos (SCR) de la siguiente manera:
ST C
i=1 n
(yi y )2 (i y )2 y
i=1 n
SEC SCR
i=1
STC mide la variabilidad muestral de las SEC mide la varianza muestral de las
u2 i yi (ST C/(n 1)
es la varianza muestral).
yi
(sabemos de P3 que
yi = y )
y SCE mide la
19
variacin muestral de
ui
(sabemos de P1 que
u = 0).
ST C = SEC + SCR
o sea la suma total de los cuadrados es igual a la suma de los cuadrados de los residuos y la suma explicada. De su denicin
(yi y )2 =
i=1 i=1 n
(yi yi + yi y )2 (i + yi y )2 u
i=1 n n n
= =
i=1
u2 + i
i=1 n i=1
2i (i y ) + u y
i=1
(i y )2 y
= SCR +
2i (i y ) + SEC u y
Lo nico que necesitamos demostrar es que el segundo trmino de la expresin de arriba es cero.
2i (i y ) = u y
i=1 i=1 n
2i (i y ) u y 2i (0 + 1 xi y ) u 2i ( 1 x + 1 xi y ) u y 2i 1 (xi x) u
n i=1 n i=1
=
i=1 n
=
i=1 n
=
i=1
= 2 1 = 2 1 = 0
ui xi 21
ui x
i=1 n
ui xi 21 x
ui
i=1
ST C
obtenemos
1=
SEC SCR + ST C ST C
20
Denimos el manera:
R2 =
y se interpreta como
R2 =
0,16.
R2
salario
educ.
En el ejemplo anterior, hemos medido el salario en miles de dlares. Conocer la unidad de medida de las variables es necesario para poder interpretar correctamente los parmetros estimados. Vamos a estudiar ahora cmo cambian las estimaciones de nuestro modelo cuando cambiamos la escala de las variables dependiente y independiente.
y estimamos la nueva
1 = = c
n i=1 (xi x)(cyi n 2 i=1 (xi x) n i=1 (xi x)(yi n 2 i=1 (xi x)
c) y y)
= c1
mientras que el nuevo estimador de
ser
0 = c 1 x y
21
= c c1 x y = c 0
En este caso, con la nueva variable dependiente timadores obtenidos con
cy ,
c.
y estimamos la nueva
1 = = =
n x i=1 (cxi c)(yi y ) n 2 x i=1 (cxi c) n c i=1 (xi x)(yi y ) c n 2 2 c i=1 (xi x)
1 1 c
(1.9)
ser
0 = y 1 cx 1 x = y 1 c c = 0
En este caso, con la nueva variable dependiente, la estimacin de la pendiente se divide por la constante
c,
no vara.
Formas funcionales
Hasta ahora hemos considerados relaciones lineales entre variables, por ejemplo salario y educacin. Sin embargo, en muchos trabajos economtricos, encontraremos otros tipos de relaciones. En particular, encontraremos a menudo casos en que una o las dos variables aparecen en forma logartmica. En este apartado, estudiaremos la
22
interpretacin de los parmetros en el caso en que una o las dos variables del modelo de regresin sean especicadas en logaritmos.
Caso 1: log-nivel
Supongamos que nuestro modelo de regresin sea el siguiente
log(y) = 0 + 1 x + u
Si
u = 0
entonces
1 = y
1001
representa el cambio en
trminos porcentuales en
log(salarioi ) = 0 + 1 educi + ui
Utilizando los datos del Ejemplo 1 obtenemos las siguientes estimaciones
1 = 0,08
aumento en el salario horario de un 8 %. Observese la diferencia con el caso anterior donde las dos variables eran especicadas en niveles. En ese caso, cambio en unidades de dad (ao).
expresaba el
salario
educ
Caso 2: nivel-log
Supongamos que nuestro modelo de regresin ahora sea el siguiente
y = 0 + 1 log(x) + u
Si de
u = 0, y
entonces
1 =
1 /100
representa el cambio en
aumenta en un 1 %.
23
salaryi = 0 + 1 log(salesi ) + ui
donde y
salaryi
en miles de dlares
sales
MCO obtenemos
1 = 262,9
262,9/100 = 2,629
miles de dlares.
Caso 3: log-log
Supongamos que nuestro modelo de regresin ahora sea el siguiente
log(y) = 0 + 1 log(x) + u
Si
u = 0 entonces 1 =
si
aumenta en un 1 %.
log(salaryi ) = 0 + 1 log(salesi ) + ui
las estimaciones nos dan
1 = 0,25
0,25 %.
24
Dependiente
Independiente
Interpretacin
y y log(y) log(y)
x log(x) x log(x)
Tabla 2
y = 1 x y = (1 /100) %x %y = (1001 )x %y = 1 %x
1.3. Inferencia
Vamos a tratar ahora el tema de la inferencia. Bsicamente estudiaremos el contraste de una hiptesis estadstica, el contraste t, y los intervalos de conanza para un nico parmetro. Para poder desarrollar y comprender el anlisis inferencial necesitamos aadir el siguiente supuesto al modelo:
S5
Este supuesto implica otra propiedad del estimador MCO o sea que el estimador se distribuye normalmente con media el verdadero parmetro y varianza la obtenida anteriormente en la propiedad P6.
P8
i N (i , V ar(i )), i = 0, 1.
hemos visto antes, en la derivacin de la P4, que el estimador MCO es una combinacin lineal de las
ui
les independientes. Un resultado fundamental nos dice que tal combinacin es tambin una variable normal.
25
Adems de este nuevo supuesto, necesitamos tambin repasar algunos resultados estadsticos adicionales. Primero, como visto antes, si al estimador restamos su media y dividimos por su desviacin tpica obtenemos una variable normal estandardizada
i i N (0, 1) se(i )
donde
(1.10)
se(i ) =
V ar(i ) = [
n i=1 (xi
x)2 ]1/2 .
adelante)
n 2 i=1 ui 2
(n 2) 2 n2 2 n2
y la varianza
o sea el ratio entre el estimador de la varianza multiplicado por de trmino de error es una variable con distribucin Tercero, si substituimos
con
n2
grados de libertad.
con
([
n i=1 (xi
x)2 ]1/2 )
El numerador de este ratio es una variable normal estandardizada y el denominador es la raz cuadrada de una variable con distribucin libertad, o sea, la denicin de una variable
n2
tstudent
con
n2
grados de libertad.
i i tn2 se(i )
donde
(1.11)
se(i ) =
V ar(i ) = [
n i=1 (xi
x)2 ]1/2 .
1.3.1.
El primer instrumento de anlisis inferencial que vamos a estudiar es el contraste de hiptesis. El contraste de hiptesis sirve para
das hiptesis estadsticas sobre los parmetros del modelo. Para poder desarrollar el
26
hiptesis nula
y de
hiptesis alter-
nativa.
de los parmetros del modelo, que se asume ser cierta al principio del contraste. En este curso, especicaremos la hiptesis nula (H0 ) de la manera siguiente:
H0 : i = i0
Una hiptesis que contrastaremos a menudo es que la pendiente de la recta de regresin sea igual a cero
H0 : 1 = 0.
El contraste de esta hiptesis es un caso muy interesante porque trata de averiguar si entre la variable independiente y dependiente existe alguna relacin. En el ejemplo anterior de salario y educacin contrastar la hiptesis
H0 : 1 = 0
equivale a contras-
tar la armacin que la educacin no sea importante para explicar el salario. Si no podemos rechazar tal hiptesis tendramos que concluir que no hay ninguna relacin estadsticamente signicativa entre estas dos variables. La hiptesis alternativa es la hiptesis frente a la cual evaluamos la hiptesis nula, o sea la hiptesis que aceptamos si rechazamos la hiptesis nula. Consideraremos dos tipos distintos de hiptesis alternativas correspondientes a contrastes a una o dos colas. Un primer tipo de hiptesis alternativa (contraste a una sola cola) es el siguiente
H0 : i < i0
H0 : i > i0
H0 : 1 = i0 .
Como se ha dicho anteriormente, el contraste de hiptesis trata de averiguar si una determinada hiptesis nula se puede considerar compatible o no con lo datos. Una vez especicada la hiptesis nula y la alternativa, necesitamos una medida de discrepancia entre los datos y la hiptesis nula. O sea, necesitamos una cantidad que permita
27
juzgar si la hiptesis que estamos contrastando es compatible con lo que observamos en los datos. Esta medida toma el nombre de
que se utiliza es (1.11). Como hemos dicho antes, por denicin, la hiptesis nula se considera cierta al principio de la prueba de hiptesis. Esto signica que cuando consideramos nuestro estadstico de contraste tenemos que hacerlo que la hiptesis nula es cierta. En general, bajo la hiptesis nula estadstico de contraste ser
bajo
el supuesto el
H0 : i = i0
i i0 tn2 se(i )
nuestro estadstico de contraste ser
Por ejemplo, si
H0 : 1 = 0,
i tn2 se(i )
Es importante entender porqu este estadstico puede proporcionar informacin que nos permita decidir si la
H0
tstudent.
estimaciones de los parmetros del modelo, podemos calcular el valor del estadstico
de contraste bajo la hiptesis nula. Esto nos proporcionar un nmero, digamos tn2 .
Supongamos ahora que este nmero se encuentre muy alejado del valor promedio de la distribucin. Esto implica que si los datos fueran de verdad generados por el modelo de regresin con el valor del parmetro implicado por la hiptesis nula, sera improbable observar lo que de hecho observamos en los datos, o, en otras palabras, seria improbable obtener los valores obtenidos para las estimaciones de
se(i ).
Esto tendra que sugerir que la hiptesis nula es incompatible con nuestros datos y por esta razn debeamos rechazarla. El problema es: cunto el estadstico de contraste tiene que alejarse de su valor medio para poder rechazar la hiptesis nula? Para esto necesitamos especicar un
nivel
de signicatividad
la hiptesis nula cuando sta es cierta, o sea, la probabilidad de cometer un error de tipo I. Una vez establecido el nivel de signicatividad, podemos encontrar el valor
28
p(|t| >
t ) n2, 2
= ,
la probabilidad que la variable en valor absoluto tome valores mayores que el valor crtico es igual al nivel de signicatividad
Vamos ahora a ver en detalle como desarrollar el contraste de hiptesis. Consideraremos dos contrastes distintos: a una y dos colas.
H0 : i = i0
frente a la alternativa
H1 : i = i0 .
1. Calcular, utilizando las estimaciones obtenidas, el estadstico de contraste bajo la hiptesis nula
0 i i se(i )
= tn2 . .
Si
|tn2 | > t n2
2
rechazo la
H0 .
la hiptesis nula. La idea que est detrs de este criterio de rechazo es que si
|tn2 | > t n2
2
o sea el valor
tn2
esta-
r muy alejado del promedio de la distribucin y por tanto concluimos que la hiptesis nula es poco compatible con los datos.
Pode-
mos contrastar la hiptesis nula que los aos de educacin no tienen efecto alguno sobre el salario. Esta hiptesis se puede formular como
H0 : 1 = 0.
Para desarrollar
tstudent
con
n 2 = 526 2 = 524
digamos
= 0,05.
El valor crtico es
Entonces, rechazamos la
hiptesis nula al 5 %. Supongamos ahora que la hiptesis estadstica que nos interesa contrastar sea que un ao ms de educacin corresponde a un dlar por hora mas. Esta hiptesis se puede especicar como estadstico de contraste obtenemos
1 1 se(1 )
0,44 0,05
= 8,8
Otra vez rechazamos la hiptesis nula al 5 % porque el valor absoluto del estadstico de contraste es mayor que el valor crtico. Una propiedad muy importante del contraste de hiptesis es que si hemos rechazado una hiptesis a un nivel de signicatividad
La razn es que si
>
entonces
porque
t n2,
2
y innito.
H0 : i = i0
frente a la alternativa
H1 : i > i0 .
1. Calcular, utilizando las estimaciones obtenidas, el estadstico de contraste bajo la hiptesis nula
0 i i se(i )
= tn2 . .
Si
rechazo la
H0 .
hiptesis nula.
30
H0 : i = i0
frente a la alternativa
H1 : i <
i0 .
1. Calcular, utilizando las estimaciones obtenidas, el estadstico de contraste bajo la hiptesis nula
0 i i se(i )
= tn2 . .
Si
rechazo la
H0 .
hiptesis nula.
t n2,
2
t n2,
Valor-
A veces distintos niveles de conanza conducen a distintas decisiones sobre la hiptesis nula. El problema es que la eleccin del nivel de conanza es una decisin subjetiva del investigador ya que no existe un nivel informativo calcular el valor
correcto.
es el nivel de signicacin
mnimo al que se puede rechazar la hiptesis nula y se dene (en el contraste a dos colas) como valor-p
el valor-p indica el nivel de signicatividad mnimo al cual se puede rechazar la Por cada
H0 .
> valor-p
ty
31
1.3.2.
Intervalos de conanza
El segundo instrumento para la inferencia es el de los intervalos de conanza para un parmetro. En este caso, de manera diferente al contraste de hiptesis, donde tenemos que decidir sobre una hiptesis nula, la idea es de encontrar un intervalo tal que, con una determinada probabilidad, contenga el verdadero valor del parmetro. Utilizando lo que hemos visto antes sabemos que
tstudent)
el intervalo denido por menos y mas el valor crtico a nivel de signicatividad Formalmente
p t n2,
2
Vamos a ver ahora como de aqu podemos construir un intervalo de conanza para el parmetro
i .
= 1 = 1 = 1
1 el parmetro i estar incluido en el in [i t se(i ), i + t se(i )]. Esto es un intervalo de conanza para el n2, n2,
2 2
parmetro
i .
5 % para
1
y
t524,0,025 = 1,9645.
valo de conanza
32
y esto es consistente con el resultado del contraste de la hiptesis hemos visto antes.
H0 : 1 = 0
que
33
Ejercicios
(1) Queremos analizar el efecto del gasto en campaa electoral sobre el porcentaje
expendB ,
B (solo hay dos candidatos) en su campaa electoral (en miles de dlares). El resultado de la estimacin por mnimos cuadrados nos da la siguiente regresin
H0 : 1 = 0
utilizando es
0,01
(c) La suma de los cuadrados de los residuos (SCR) es 40891.1 Hallar la desviacin tpica de los residuos
price = 0 + 1 assess + u
donde
price
es el precio de la vivienda y
assess
es la valoracin de la vivienda y
1 = 1
0 = 0.
La ecuacin
16,27
es la desviacin tpica de
0,049
es la desviacin tpica de
1 .
34
H0 : 0 = 0.
H0 : 1 = 1. 1 . 0 .
(c) Encontrar un intervalo de conanza al 95 % para (d) Encontrar un intervalo de conanza al 95 % para
0 . x
y
R2
y.
(5) Demostrar que si un intervalo de conanza al 95 % para
no incluye el cero,
H0 : 1 = 0
al 5 % utilizando el
t. y i = 0 + 1 xi + u i
y que todos los supuestos vistos en este
(a) Estimar los parmetros del modelo con MCO (b) Estimar la varianza del error. (c) Encontrar
R2 . H0 : 1 = 0. H0 : 0 = 1.
35
xi
yi .
Por esto
yi = 0 + 1 xi + ui xi = 0 + 1 yi + vi
Si estimamos los parmetros de los dos modelos utilizando MCO es siempre cierto que
1 =
1 ? Si no en que casos? 1
36
37
(2.1)
i,
en nuestra muestra y
1.
yi
variable depen-
diente
2.
variable explicada.
son las
xij , j = 1, ..., k y
variables independientes
explicativas.
38
3.
ui
observables distintos a
xj
que afectan a
y.
4.
j , j = 0, ..., k k
En el caso de
el
y1
y=
y2 . . .
yn
un vector
(n 1)
x1
x11 x21
. . .
x12 x22
. . .
... ...
. . .
x1k
. . .
X=
x2 . . .
xn
1 . . .
x2k
1 xn1
xn2
. . . xnk
una matriz
(nk) con todas las observaciones en las las y las variables independientes
en las columnas
u1
u=
u2 . . .
un 0
un vector
(n 1)
de errores y
1 . . .
un vector
y los dems son los coecientes de las variables exgenas. Entonces podemos escribir el modelo como
y = X + u
39
(2.2)
Como en el capitulo anterior, aadimos al supuesto de linealidad del modelo los supuestos siguientes:
S1'
La esperanza de ui es zero: E(ui ) = 0 por cada i. Las variables dependientes son non aleatorias o jas en muestras repetidas. La varianza de ui es constante: V ar(ui ) = E(u2 ) = 2 por cada i. i
ui y uj son independientes por cada i y cada j con i = j .
S2'
S3'
S4'
S5'
El rango de X es k + 1.
Como el caso del modelo simple un supuesto alternativo a S2 que podemos hacer es el siguiente.
2.2. Estimacin
2.2.1. Estimador Mnimos Cuadrados Ordinarios (MCO)
Como en el modelo simple, el nico estimador que veremos en el modelo a
k -variables
es el estimador MCO. Para poder derivar el estimador necesitamos algunos resultados y deniciones preliminares. Sea de regresin como
un
estimador de
u = y X
y = X .
Como
antes, el estimador de MCO es el estimador que minimiza la suma de los residuos al cuadrado
uu=
n i=1
u2 . i
u u = (y X) (y X) = (y X) (y X) = y y + X X 2 X y
Se puede notar que
2 X y = X y + y X
porque
X y = y X .
La razn es que
40
y esto implica que los dos sern iguales. Entonces podemos formular el problema de minimizacin de la manera siguiente:
m n
y y + X X 2 X y
Como antes, el problema se soluciona tomando las condiciones del primer orden, o sea las derivadas parciales respecto a
caso anterior es que aqu tenemos que utilizar las reglas de derivaciones respecto a un vector y no un escalar. Las condiciones del primer orden son las siguientes
X X X y = 0.
Solucionando respecto al vector de estimadores obtenemos
= (X X)1 X y
Se puede demostrar que cada uno de los estimadores contenidos en el vector puede escribir como
(2.3)
se
j =
donde
rj
es el residuo de la regresin de
xj
Este resultado es muy til para poder entender la interpretacin de cada uno de los elementos en el vector
. Dado que rj j
es la parte de
xj
mide el efecto de
xj
sobre
tamos los efectos de las dems variables exgenas. Por eso, podemos interpretar como el efecto parcial de se mantienen jas.
xj
sobre
o sea el efecto de
xj
Ejemplo 2.1 En el modelo utilizado en el Ejemplo 1.1 para explicar el salario horario,
aadimos otro regresor: los aos trabajados en el actual puesto de trabajo. Utilizando el estimador que acabamos de ver obtenemos las siguientes estimaciones
La interpretacin de
1 = 0,097
incremento del salario de 9.7 %, mientras que un ao ms de experiencia laboral aumenta el salario en un 1 %.
El ejemplo anterior evidencia una caracteristica muy importante del modelo a kvariables. En general, si aadimos una variable al modelo las estimacines de los parmetros que ya eran incluidos cambian. Este resultado queda claro en el ejemplo que acabamos de ver, donde en el caso de un solo regresor aadiendo
1 = 0,8
mientras que
exper
cambia a
0,97.
dos modelos, el primero con una sola variable dependiente, segundo con dos variables independientes si
y = 0 + 1 xi1 + ui ,
y el
2 = 0
entonces el estimador de
en que
x1
x2
no estn correlacionadas.
n yr i=1 i i1 , n ri1 2 i=1
El estimador MCO de
en el segundo modelo es
i =
donde
ri1
es el
residuo de la regresin de
x1
sobre
x2 .
esto signica que la covarianza es cero y que el efecto de esto implica que modelos.
x2
sobre
x1
es cero. Pero
y los estimadores de
Para la varianza del error, el estimador insesgado que utilizaremos en este capitulo es parecido al anterior. La nica diferencia es que ahora hay que normalizar por el nmero de observaciones menos el nmero total de parmetros. As que en el modelo de
k -variables
2 =
uu nk1
(2.4)
42
siguientes
3 6 2 4
2 2 4 3
(X X)1 =
3 2 2 1
0 3
4 3
Xy =
2 y y = 80, n = 90
1. Calcular
(2.5)
= (X X)1 X y 5 3 2 =
3 2
6 2 4
2 4 3
4 2 3 1
11
12
(2.6)
2. Calcular
2.
2 =
uu nk1 y y Xy = nk1
43
Sabemos que
y y = 80.
X y = ( 11 7 12
2 3) 1
= 37
entonces
2 =
8037 86
= 0,5.
Propiedades algbricas
P1'
Propiedades estadsticas
Antes de ver las propiedades estadsticas de los estimadores, primero necesitamos repasar media y varianza para un vector de variables aleatorias. Sea un vector de
x = [x1 , ..., xk ]
E(x1 )
. . .
E(x) =
E(xk )
44
y su varianza
kk
donde en la diagonal
x,
E [(xi E(xi ))(xj E(xj ))], o sea las covarianzas entre las variables en x. Si x es un
vector de variables aleatoria normales, o sea si riante con valor esperado
y varianza
escribimos
x N (, )
Vamos a estudiar ahora las propiedades estadsticas de los estimadores MCO. Podemos ahora volver a escribir en forma matricial los supuestos S2' y S3'. El primero implica que
donde
de dinemsin
P2'
Los estimadores MCO son insesgados, E() = . = (X X)1 X y = (X X)1 X (X + u) = (X X)1 (X X) + (X X)1 X u = + (X X)1 X u
Tomando el valor esperado obtenemos
45
P3'
V ar() = 2 (X X)1
Utilizando la denicin de varianza de un vector de variables aleatorias
= (X X)1 X u
Entonces
P5'
M = (I X(X X)1 X ) MM = M.
46
P6'
E( ) = ME(u) = 0. u
Adems
E( u ) = E(Muu M) u = ME(uu )M = 2M
donde la ltima igualdad se obtiene gracias al hecho de que y simtrica.
es idempotente
P7'
E( ) = E(A X +
E(A X) = (A X = I ) y b) E(A u) = 0. La
Entonces
V ar() = A [V ar(u)]A = 2 A A.
A MA
cualquier vector de y
dimensin vamente
(k + 1).
es respecti-
V ar(c ) = c V ar()c
Adems
c V ar() V ar( ) c 0
47
V ar(j ) V ar(j )
j.
ST C
i=1 n
(yi y )2 = y y n2 y (i y )2 = y y n2 y y
i=1 n
SEC SCR
i=1
Segundo, como en el modelo simple
u u = (y X) (y X) = y y X y y X + X X = y y 2 X y + (X X)(X X)1 X y = yy Xy
(2.7)
donde para obtener la ltima igualdad hemos substituido la formula MCO de Entonces
yy = uu+ Xy y y n2 = u u + X y n2 y y
Lo nico que hay que observar ahora es que
y y = X y.
X y = X (X u) = X X X u = X X = yy
48
donde la tercera igualdad se obtiene con la propiedad P1' y la ltima por denicin de
y.
de la suma explicada y residual como en el modelo simple. Vamos ahora a ver la denicin de
R2 .
R2 =
SEC ST C X y n2 y = 2 y y n y X X n2 y = 2 y y n y R2
se interpreta como
Cmo interpretamos el
R2
R2 .
De
como
V ar(j ) =
donde
2 n 2 2 i=1 (xij x) (1 Rj )
(2.8)
2 Rj
es el
variables exgenas.
Ejercicio 2.2 (cont.) Utilizando los datos del ejemplo 2.2 calcular
R2 .
Sabemos
que
R2 =
Xy
es
n i=1
yi = 3.
Entonces el numey
rador es igual a
37 90(3/90)2 = 36,9.
El denominador es
80 90(3/90)2 = 79,9
R2 = 36,9/79,9 = 0,46.
R2
La idea es que como la suma total de cuadrados es constante, si aadimos variables independientes con una varianza muestral distinta de cero, la suma de los residuos al cuadrado tiene que disminuir y por esta razn el coeciente de determinacin tiene
49
R2
dad del ajuste para comparar modelos con un nmero diferente de regresores. O sea no podemos utilizar el coeciente de determinacin para eligir cuntos y cules regresores utilizar. Por esta razn, en el modelo de
k -variables
denimos el
R2 -corregido, R2
que es otra medida de bondad del ajuste del modelo. La idea es que corregimos el
de manera que si aadimos un regresor queremos que ste aumente slo si la nueva variable exgena es til para explicar la variable dependiente. Gracias a esta correccin
R2
nos permite comparar la bondad del ajuste en modelos con un nmero diferente
R2 = 1
n1 (1 R2 ) nk1
La correccin est en el denominador del segundo elemento a la derecha del igual. Cuando aadimos un regresor
n1 (1R2 ) y disminuir nk
R2
de eleccin entre modelos. Para poder hacer esto, dos condiciones deben cumplirse: el tamao de la muestra debe ser el mismo y la variables dependiente debe ser la misma. Hay que hacer una advertencia aqu. El hecho de encontrar un
R2
bajo no
signica necesariamente que no podamos conar en los resultados obtenidos. sta es una situacin que ocurre a menudo en los trabajos empricos. Ms importante que alcanzar una alta proporcin de variabilidad explicada es poder obtener resultados conables para los contrastes de hiptesis para los parmetros del modelo de inters econmico.
k -variables nece-
50
y aadir un supuesto, como hemos en el capitulo anterior, al modelo. El supuesto es que el trmino de error se distribuye normalmente
S6'
Del supuesto anterior deriva otra propiedad del estimador MCO, o sea
P8'
Los resultados mencionados antes son los siguientes. Sea aleatorias. (i) Si
x N (0, )
entonces
x 1 x 2 k
(ii) Si
x N (0, I)
x Ax 2 r
En particular si
x N (0, 2 I) x Ax 2 r 2
Aplicando (i) y (ii) a nuestros estimadores obtenemos dos resultados muy importantes y clave para entender el contraste de hiptesis: 1) Desde la proprieded P4' sabemos que bajo las hiptesis del modelo Entonces
N (, 2 (X X)1 ).
N (0, 2 (X X)1 )
y por una matrix
q (k + 1)
(con
q k + 1) R( ) N (0, R 2 (X X)1 R ).
Por el resultado (i) visto antes
(2.9)
u = Mu
u N (0, 2 I).
uu u Mu = 2 nk1 2 2
3) Si ahora substituimos en (2.9) el estimador de la varianza del trmino de error visto antes obtenemos
obtenemos
(2.10)
cada una
uu 2 = 2, 2 (n k 1)
como hemos visto en el capitulo anterior, el ratio entre dos grados de libertad es una variable con distribucin variable
F.
Fq,nk1
donde
nk1
52
de la hiptesis nula. Empezamos explicando cmo podemos expresar en trminos formales una hiptesis nula que implique un conjunto de restricciones lineales sobre los parmetros del modelo. Sea de dimensin
q (k + 1)
y sea
un vector
de la siguiente manera:
R = r
Supongamos por ejemplo que
k=3
1 + 2 = 1 3 = 1
Este se puede expresar como
0 1 1 0 0 0 0
1 1 2
1 1
R = r
donde
0 1 1 0 0 0 0 1 1 1
R =
r =
H0 : R = r
y la alternativa como
H0 : R = r
Como estadstico de contraste utilizaremos el estadstico (). Bajo la hiptesis nula el estadstico es
Fq,nk1
(2.11)
con
nk1
se conoce cono contraste de Wald para restricciones lineales de los parmetros. El criterio de rechazo de la hiptesis nula es como el del captulo anterior. Utilizando nuestra muestra de datos y las restricciones implicadas por la hiptesis nula calculamos el valor para el estadstico de contraste es el valor crtico para la distribucin
F. q
y
Si
F > Fq,nk1, ,
donde
Fq,nk1,
con
nk1
Si por lo contrario
F < Fq,nk1,
no
rechazamos la hiptesis. Otra vez la idea que est detrs del criterio de rechazo es la de establecer si bajo la hiptesis nula es probable o no observar lo que de hecho observamos en nuestra muestra de datos. Es muy importante entender el hecho de que cualquier decisin sobre la hiptesis nula es una decisin sobre todas las restricciones lineales contenidas en la hiptesis. O sea, si rechazamos la hiptesis nula rechazamos todas las restricciones conjuntamente.
H0 : 21 + 2 = 3
(2.12)
r. R = ( 0 2 1 0 ), = r = 3.
Entonces
11
R r = ( 0 2 1
7 0) 3 12
= 5
R(X X)1 R
3 6 2 4
2 2 4 3
R(X X)1 R
= (0 2 1
3 0) 2
4 2 3 1
54
= ( 4 10 0
2 5 ) 1
= 20
H0 :
En este caso
21 + 2 = 3 3 = 6 0 2 1 0 0 0 0 1
(2.13)
R =
3 r = 6
entonces
11
R r =
0 2 1 0 0 0 5 3
7 0 3 6 1 12
=
Adems
3 6
0 2
R(X X)1 R
0 2 1 0 0 0 0 20 5 5 4
3 1 2
2 4 1 0 0 0 2 4 3 4 3 4
0 1
55
( 5 3 )
20 5
5 4
5 3
= 7,8
5%
R2
y despus a estudiar estas dos formas alternativas para el contraste de hiptesis. Se considere el siguiente modelo
H0 :
1 = 0 2 = 1
(2.14)
Nos preguntamos cul es el modelo bajo esta hiptesis? Simplemente es el modelo donde las restricciones anteriores se cumplen. En este caso el modelo restringido es
yi = 0 + xi1 + 3 xi3 + ui
Cmo podemos estimar los parmetros de este modelo? Podemos escribir la ecuacin anterior como
yi xi1 = 0 + 3 xi3 + ui
yi = 0 + 3 xi3 + ui
Considerando
yi = yi xi1
3 =
x3 )
0 = y 3 x3 ,
56
Una vez obtenidas las estimaciones podemos calcular la suma de los residuos al cuadrado
SCRr =
n i=1
u2 ri
con
uri = yi 3 xi3
(el ndice
(2.15)
(2.16)
H0 .
En general
podemos contrastar una hiptesis nula cualquiera utilizando el estadstico (2.15). La clave es poder escribir el modelo restringido y calcular la suma de los residuos al cuadrado. Es importante saber que el estadstico (2.15) es equivalente al estadstico (2.11), en el sentido que los nmeros calculados en los dos casos coinciden. Otra forma alternativa para el contraste de hiptesis se basa en los coecientes de determinacin del modelo restringido y no restringido. Este tipo de estadstico de contraste slo se puede utilizar en el caso en que las variables dependientes coincidan en los dos modelos. Considerese (2.16). Si dividimos y multiplicamos por la suma total de cuadrados
y y n2 y
obtenemos
uu y yn2 y
= 1R2 y
ur ur y yn2 y
2 = 1Rr
2 Rr
(2.17)
(2.17) es la segunda forma alternativa para contraste de hiptesis. La expresin (2.17) pone en evidencia porque para poder utilizar este contraste necesitamos que la variable dependiente sea la misma en los dos modelos. Para llegar a esta expresin
57
y y n2 y
es la suma de cuadrados
signica que este estadistico no se puede utilizar para contrastar la hiptesis nula (2.14) ya que, bajo esta hiptesis, la variable dependiente es
yi = yi xi1 = yi .
siguientes estimaciones:
SCR = 111,345
2 Rr = 0,24934.
Si excluimos
exper
estimar obtenemos
SCRr = 120,769
R2 = 0,18581.
utilizando (2.16) y (2.17).
H0 : 2 = 0
F1,524 = 3,86.
contrastar que todos los coecientes del modelo no sean signicativos. Bajo esta restriccin el modelo es un modelo con solo constante y trmino de error. El
R2
de este modelo restringido es cero. Entonces podemos utilizar (2.17) con Asi obtenemos
2 Rr = 0.
que es mayor que el valor crtico al 5 % y por lo tanto rechazamos la hiptesis nula.
sobre los parmetros del modelo. En particular este contraste se puede utilizar para contrastar
H0 : i = i0 .
t.
Entonces en el modelo de
k -variables
cul
2 los dos porque existe una relacin que nos dice que tnk1
la hiptesis nula
H0 : i = i0
nk1 H0 )
si
F1,nk1 .
ser exactamente igual en los dos contraste. Ntese que en el caso de utilizamos el contraste anterior si no parmetros.
k -variables
n2
como en el captulo
nk1
59
Ejercicios
(1) Volvemos a considerar el modelo del ejercicio (2) en el precedente capitulo
price = 0 + 1 assess + u
donde
price
es el precio de la vivienda y
assess
es la valoracin de la vivienda y
1 = 1
0 = 0.
La ecuacin
16,27
es la desviacin tpica de
0,049
es la desviacin tpica de
1 .
0 = 0
1 = 1 ,
necesitamos la
la suma de los cuadrados de los residuos del modelo restringido (SCRr ). El resultado es
SCRr = 209448,99.
F(2,86) = 3,1).
Cul es el residuo
sqrf t
bdrms
R2
(c) Con MCO encontramos tar esto valores. (d) Contrastar al 5 % (e) Contrastar al 5 %
1 = 0,95
2 = 0,0048
2 = 11,83
. Interpre-
H0 : 1 = 0, 2 = 0, 3 = 0 H0 : 2 = 0, 3 = 0
60 (al 5 %
(al 5 %
F(3,84) = 2,71)
F(2,84) = 3,105).
H0 : 1 = 1, 2 = 0 el R2
es
0,7, contrastar
H0 ?.
Y = X + u
donde
es una matriz
80 4,
es un vector
4 1, Y
son vectores
80 1.
Supongamos que
3 6 2 4
2 2 4 3
(X X)1 =
3 2
4 3
(X Y )1 =
2 1
y adems
Y Y = 80. F
al
5%
la hiptesis nula
H0 :
sabiendo que el valor crtico al (b) Contrastar con test
1 + 2 = 1 3 = 1
es
5%
F(2,86) = 3,1.
al
5%
la hiptesis nula
H0 :
1 = 0 2 = 0 3 = 0 F(3,86) = 2,71.
Contrastar al 5 % la hiptesis
sabiendo que el valor crtico al (c) Del ejercicio 2.2 sabemos que nula en (b).
5%
es
R2 = 0,49.
Yi = 0 + 1 Xi + ui
61
Xi = 37,2
Xi2 = 147,18
Yi = 75,50
Yi2 = 597,03
Yi Xi = 295,95, N = 10.
a) Estimar
0 , 1
b) Calcular y interpretar el
R2
de la regresin.
Valore crticos :
t0,025,8 = 2,28, t0,025,702 = 1,96, F2,702 = 3,01, F3,702 = 2,62
(4) Considerar el siguiente modelo
yi = 0 + 1 xi1 + ui .
Supongamos de aadir otro regresor efecto sobre la varianza de
xi2
correlacionado con
xi1 .
Cual ser el
1 ?.
62
63
Captulo 3 Extensiones
3.1. Errores de Especicacin
El trmino
error de especicacin
decisin sobre cuales variables hay que incluir en el modelo. Veremos dos casos: el primero en que en que incluimos una variable irrelevante y el segundo en que omitimos una variable relevante.
yi = 0 + 1 xi1 + ui
pero aadimos la variable nuestro modelo como
x2
y especicamos
yi = 0 + 1 xi1 + 2 xi2 + ui
Cules son las consecuencias? No muchas. Simplemente obtendremos una estimacin de
que tendra que acercarse al cero, ya que su valor medio en muestras repetidas
ser igual a cero. Esto deriva del hecho que los estimadores siguen insesgados porque no hay ninguna violacin de los supuestos del modelo. Sin embargo, hay alguna
64
implicacin sobre la precisin de las estimaciones. Desde el primer captulo sabemos que la varianza de
es
V ar(1 ) =
donde y
2 n 2 2 i=1 (xi1 x1 ) (1 R1 ) x1
sobre
(3.1)
2 R1
x2 .
Si
x1
x2
estn correlacionadas,
2 R1 > 0
mayor que
en el caso en que el modelo fuese bien especicado. Entonces, aunque los estimadores siguen insesgados, la varianza de los estimadores ser mayor si las variables estn correlacionadas, o sea tendremos menor precisin de la estimacin.
yi = 0 + 1 xi1 + 2 xi2 + ui
y que cometemos un error: excluimos del modelo
x2
y consideramos el modelo
yi = 0 + 1 xi1 + ui
Podemos verlo formalmente. Se considere el estimador MCO de
en el modelo sin
x2 1 =
yi )
1 =
x1 )(1 xi1 + 2 xi2 + ui ) n 2 i=1 (xi 1 x1 ) n n (xi1 x1 )xi2 i=1 (xi1 x1 )xi1 = 1 n + 2 i=1 + n 2 2 i=1 (xi 1 x1 ) i=1 (xi 1 x1 ) n n (xi1 x1 )xi2 (xi1 x1 )ui = 1 + 2 i=1 + i=1 n n 2 2 i=1 (xi 1 x1 ) i=1 (xi 1 x1 )
n i=1 (xi1
65
E(1 ) = 1 + 2
(3.3)
o sea el estimador es sesgado y el sesgo depende de la correlacin muestral entre las dos variables independientes.
q<k
ur
ur ur = y y + X X
m n
s.a.
y y + X X 2 X y R = r
donde
Vamos a ver
ahora formalmente que el test de Wald visto antes coincide con la forma alternativa basada en la suma de los cuadrados del modelo restringido.
ur ur = u u + (R r) R(X X)1 (R r)
y
ur ur u u = (R r) R(X X)1 (R r)
que es el numerador del estadstico de contraste (2.9).
67
Ejercicios
(1) Supongamos que el verdadero modelo de regresin sea
yi = 0 + 1 xi1 + 2 xi2 + ui
y cometemos un error de especicacin y estimamos el modelo sin
x2
yi = 0 + 1 xi1 + ui
Demostrar que si la correlacin entre
es positivo si
2 > 0
y negativo si
68
Apndices
A.1 GRETL
GRETL (http://gretl.sourceforge.net/win32/) es un programa de econometra que se puede bajar gratis desde internet. Est instalado en las aulas de informtica 2122-23. Podis bajar el programa e instalarlo en vuestro ordenador privado. Funciona con Windows, Mac, y Linux. Est disponible en varios idiomas incluyendo el espaol. GRETL ya tiene instalada varias bases de datos. En la misma pgina podis bajar e instalar en GRETL otras bases de datos como Wooldridge, de la cual hemos utilizado algunos archivos en esta gua, o Stock y Watson. El programa es relativamente fcil de utilizar. En el programa hay una gua de usuario muy til que introduce el uso del programa. En esta mini-gua veremos algunos ejemplos sencillos de aplicaciones de los conceptos tericos que hemos visto.
Datos
La gura 4 muestra la pantalla principal de GRETL una vez abierto el programa. Para poder cargar una base de datos en GRETL tenemos que, como se ve en gura 5, seleccionar en el men
La gura 6 muestra la
pantalla con todas las bases de datos que hay disponibles en GRTL. Como ejemplo, seleccionamos
Wooldride, wage1
69
Figura 4
tulo 1. La gura 7 muestra una nueva pantalla con todas las variables contenidas en el chero y sus descripciones. Podemos observar como ahora (gura 8) se activan
Datos
tenemos varias opcciones que, entre otras cosas, nos permiten crear nuevas variables o hacer transformaciones de las variables existentes en el chero. En particular, la primera opcin es la de crear una variable denida como el logaritmo de la variable en negrita que hemos seleccionada en la pantalla principal.
70
Figura 5
71
Figura 6
72
Figura 7
73
Figura 8
74
Figura 9
MCO
Vamos a ver ahora como estimar un modelo de regresin con MCO. Si volvemos a la pantalla principal podemos observar que en el men de la parte baja de la pantalla tenemos un
regresin con MCO. Si seleccionamos este comando se abre otra pantalla (gura 10). En esta nueva pantalla tenemos que seleccionar la variable dependiente (en la parte alta) y las variables independiente (en la parte baja). En este ejemplo seleccionamos
75
wage
const
educ
como varia-
ok
nos proporciona la tabla de resultados que vemos en gura 11. En esta tabla tenemos: 1) las estimaciones en la columna rmetros en la columna la hiptesis nula
coefficient.
std. error
H0 : i = 0
en la columna
t-ratio
R2
o el
R2 .
En la gura 12 podemos ver los resultados de la estimacin si repetimos el procedimiento visto antes pero aadiendo otro regresor
exper.
nuevas estimaciones para ver como contrastar la hiptesis nula el men de la pantalla de los resultados hay una opcin que es
H0 : 1 + 2 = 0.
En
tests.
Si selecciona-
mos esta oppcion vemos (gura 13) que hay varias sub-opcciones entre las cuales hay
linear restrictions.
la que hay que escribir cual hiptesis nula queremos contrastar. Una vez declarada la hiptesis nula seleccionamos
ok
123,858)
y el valor-p correspondiente.
76
Figura 10
77
Figura 11
78
Figura 12
79
Figura 13
80
Figura 14
81
Figura 15
82
A.2 Exmenes
83
1. El siguiente modelo es una versin simplicada del modelo utilizado por Biddle
trade o
sleep
y
totwork
educ
age
706
sleep
segn el
R2 ?
d) Suponiendo que
(sleepi sleep)2 N k
= 445,3620 (k =
Sean
respectivamente.
e) Contrastar al 5 % la hiptesis nula de que cada uno de los coecientes sean separadamente iguales a cero. f ) Contrastar al 5 % la hiptesis nula de que un minuto mas trabajado corresponde a un minuto menos dormido. g) Contrastar al 5 % la hiptesis nula de que los coecientes juntamente.
1 , 2 , 3
84
educ
age
R2
age
educ
Yi = 0 + 1 Xi + ui
donde se conocen las siguientes cantidades:
Xi = 37,2
Xi2 = 147,18
Yi =
75,50
Yi2 = 597,03 0 , 1
Yi Xi = 295,95, N = 10.
a) Estimar
b) Calcular y interpretar el
R2
de la regresin.
Valore crticos :
t0,025,8 = 2,28, t0,025,702 = 1,96, F2,702 = 3,01, F3,702 = 2,62
85
price )
sqrft )
y del nmero de
bdrms )
price = 0 + 1 sqrf t + 2 bdrms + u
Se satisfacen todos los supuestos del modelo de regresin lineal que hemos estudiado en clase. Usando los datos se obtiene la siguiente ecuacin por MCO:
n = 88,
R2 = 0,631918
1 = 0,128436?
(ii) Qu porcentaje de la variacin en el precio de una casa se explica por la supercie y el nmero de habitaciones? (iii) La desviacin tpica de
H0 : 1 = 1.
(iv) Contrastar al 5 % hiptesis nula
H0 :
1 = 0 2 = 0
Ahora especicamos el precio de las casas y la supercie en logaritmos. Utilizando los datos se obtiene la siguiente ecuacin por MCO:
86
1 = 0,808254?
assess
lotsize
es el tamao del
log(assess)
log(lotsize)
log(price) log(assess) = 0 + u
la suma de los residuos al cuadrados es SCR=1.880. En el modelo (1) la SCR=1.822. Contrastar la hiptesis nula
H0 :
1 = 0 2 = 0 3 = 1 4 = 0
Valores crticos:
87
Consideremos el siguiente modelo para comparar el rendimiento de la educacin en escuelas de formacin profesional y en universidades.
log(wage) = + 1 jc + 2 univ + u
donde
(3.5)
wage
jc
univ
1 = 0,070
2 = 0,069?
log(wage)
(iii) Qu porcentaje de la variacin en el logaritmo del salario se explica por las variables independientes incluidas en el modelo?
: 2 = 0).
sean cero
exper
88
el trabajo
(3.6)
R2
0,109?Por
qu?
(vii) Contrastar al 5 % la hiptesis nula de que la experiencia no es importante para explicar el logaritmo del salario (H0
: 3 = 0).
H0 : 1 = 2
sis un ao adicional en una escuela de formacin profesional o en una universidad conducen al mismo aumento porcentual en el salario cuando son constantes todos los dems factores. Esto nos permite comparar el rendimiento de diferentes tipos de educacin. Sabiendo que
contrastar dicha
H0
al 5 %.
(ix) Sea
= 1 2
y sea
totcol = jc + univ .
de escribir como
(3.7)
H0 : 1 = 2
en este
Valores crticos:
89
Bibliograa
1. Greene, W. (1998), Anlisis Economtrico, Macmillan Publishing Company, New York.
4. Stock, J.H. y M.W. Watson (2003): Introduction to Econometrics. Pearson Education, International Edition
5. Wooldridge, J.M. (2006), Introduccin a la Econometra: un Enfoque Moderno. Paraninfo Thompson Learning, 2
Ed.
90