You are on page 1of 91

Gua de Estudio para la Asignatura de ECONOMETRA I

Prof. Luca Gambetti Universitat Autonoma de Barcelona

Julio 2009

Introduccin
El curso de Econometra I constituye uno de los dos cursos de ECONOMETRA del Programa Universitat Empresa y es un curso obligatorio del primer semestre del primer ao del Programa (tercero de carrera). El objetivo principal del curso es familiarizar al estudiante con los elementos bsicos del trabajo economtrico proporcionndole todos los conocimientos necesarios para poder desarrollar un anlisis cuantitativo de los modelos econmicos. Por otro lado, es tambin objetivo del curso familiarizar al estudiante con la utilizacin de software economtrico, como el programa GRETL, para la investigacin emprica. Por la naturaleza del los modelos estudiados, el curso requiere el conocimiento de determinados conceptos estadsticos y matemticos que, por ello, se revisan en la primera parte del curso. La presente gua de estudios tiene como objetivo fundamental ser un instrumento til al alumno en el aprendizaje del contenido temtico del curso. La idea es que pueda servir como material complementario a los apuntes y de profundizacin de algunos de los temas estudiados en clase. La gua contiene apuntes sobre todos los temas tericos tratados en el curso, adems de ejemplos, ejercicios, aplicaciones empricas con GRETL, exmenes pasados y referencias bibliogrcas.

Captulo 1 Modelo de Regresin Lineal Simple


1.1. El modelo
Sean

dos variables econmicas de inters. Queremos un modelo economtrico

que proporcione respuestas a preguntas como: (i) cules son los efectos sobre cambio en

de un

x? (ii) cuanto podemos explicar de y a travs de x? El modelo economtrico

que estudiaremos en este curso es el modelo de regresin lineal. En este captulo, en particular, nos concentraremos en el modelo "simple". El modelo de regresin lineal simple se describe a travs de la siguiente relacin

lineal
(1.1)

y = 0 + 1 x + u
Donde: 1.

y es

la variable que queremos explicar y recibe el nombre de o

variable depen-

diente
2.

variable explicada.
y
y recibe el nombre de

es la variable a travs de la cual queremos explicar

variable independiente, porque se determina fuera de nuestro modelo, o variable explicativa.


3.

u se denomina trmino de error, es una variable aleatoria y representa factores


non observables distintos a

que afectan a

y.

4.

0 , 1

son los parmetros del modelo. una muestra de la poblacin. Asumiendo que estos

Sea ahora

{(xi , yi ) : i = 1, ...n}

datos sean generados por el modelo de regresin (1.1) podemos asumir que por cada

i yi = 0 + 1 xi + ui
Al supuesto de linealidad del modelo aadimos los supuestos siguientes:
S1

(1.2)

La esperanza de ui es zero: E(ui ) = 0 por cada i. La variable independiente es no aleatoria o ja en muestras repetidas. La varianza de ui es constante: V ar(ui ) = 2
para todos

S2

S3

i.

S4

ui y uj son independientes por cada i y cada j con i = j .

El supuesto S3 se conoce tambin como supuesto de


S4 implica que la covarianza entre

homoscedasticidad. El supuesto
debe ser igual a cero o sea

ui

uj y

con

i = j

E(ui uj ) = 0.

Tomando el valor esperado de

obtenemos

E(yi ) = E(0 + 1 xi + ui ) = E(0 ) + E(1 xi ) + E(ui ) = 0 + 1 x + E(ui ) = 0 + 1 xi


donde la primera y segunda igualdad derivan de las propiedades del valor esperado y la tercera de S2. La media condicional de

es una recta que se conoce como

funcin

de regresin poblacional
El parmetro

y es tambin una funcin lineal de

x.

es el parmetro que a menudo mas interesa a los economistas

porque describe la relacin existente entre tro? Considerese un cambio supongamos que tonces

x.

Cmo interpretamos este parme-

de

en (1.1). Este ser

y = 1 x + u.

Ahora En-

se mantenga constante,

u = 0,

de manera que

y = 1 x.

1 =

y nos dice cunto vara x

si

x varia de x y u se mantiene constante. Si


3

x = 1,

o sea un cambio unitario en

x, 1 = y

representa la variacin de

y.

Queda sobre

claro ahora la implicacin del supuesto de linealidad del modelo: el efecto de

es lineal sobre

porque es simplemente

por el cambio en

x. Se considere ahora la

funcin de regresin poblacional. En este caso

1 nos dice de cunto vara en promedio y


provocada por un

si

vara de

x.

Podemos interpretar

como la variacin de

cambio unitario de promedia de

si todos los dems factores son constantes, o como la variacin

provocada por un cambio unitario de

x. La interpretacin de 0 y
cuando

es mas

problemtica. De hecho

nos dice cual es el valor promedio de

es cero.

Sin embargo para poder interpretar

0 , xi

debe poder tomar valor igual a cero. En

caso contrario no podemos interpretar este parmetro.

Obs. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

y
1.8987 7.0240 3.1294 5.3579 4.3279 6.1567 4.1183 3.5169 3.7885 6.7904 6.1492 6.4227 9.0072 7.7124 7.8797 10.1453

x
8.0000 9.0000 10.0000 11.0000 12.0000 13.0000 14.0000 15.0000 16.0000 17.0000 18.0000 19.0000 20.0000 21.0000 22.0000 23.0000

Tabla 1:

Para comprender mejor el modelo, consideramos ahora su interpretacin grca. Consideremos la muestra aleatoria de 16 observaciones de se supone generada por el siguiente modelo

y y x en la Tabla 1. Tal muestra

yi = 0 + 1 xi + ui = 1 + 0,3xi + ui
El graco 1 ensea todas las observaciones (yi , xi ) de la muestra y la recta de regresin poblacional

yi = 1 + 0,3xi .

El parmetro

0 = 1

representa la intercepta y

la

pendiente de la recta de regresin. El modelo descompone cada observacin partes. Una parte, la esperanza de

yi

en dos

yi ,

o sea

yi = 1 + 0,3xi ,

que est encima de la

recta de regresin poblacional (los tringulos) y otra parte, el error de regresin que representa la distancia vertical entre los puntos y los tringulos.

ui ,

1.2. Estimacin
Trataremos ahora la importante cuestin de la estimacin de los parmetros del modelo de regresin. La idea es que nosotros, como investigadores, no conocemos ninguna caracterstica cualitativa (el signo) o cuantitativa de los parmetros del modelo. La nalidad del procedimiento de estimacin es la de utilizar una muestra de datos, que se suponen generados por el modelo de regresin, para obtener valores para los parmetros, o sea unas estimaciones.

1.2.1. Estimador Mnimos Cuadrados Ordinarios (MCO)


En este curso el nico estimador que estudiaremos y utilizaremos es el estimador de
Mnimos Cuadrados Ordinarios. El criterio que nos permite obtener los estima-

dores de MCO de

0 , 1

es el de la minimizacin de la suma de los cuadrados de

Figura 1:

los residuos de regresin. Para entender el mtodo necesitamos algunas deniciones preliminares. Sean

0 , 1

dos estimadores de

0 , 1 .

Denimos el valor a justado de

yi

como

yi = 0 + 1 xi ,

y el residuo de regresin como

ui = yi yi = yi 0 + 1 xi .

El residuo de regresin para la observacin

es la diferencia entre el valor verdadero

yi

y su valor ajustado

yi

y expresa la parte de

yi

que no podemos explicar con nuestra

variable explicativa

x.

El mtodo de mnimos cuadrado se basa en la minimizacin

de la suma de todos los residuos al cuadrado. La idea es que queremos escoger de manera que la parte de variabilidad de de todos los residuos al cuadrado, Formalmente minimizacin:

0 , 1

que no podemos explicar, o sea la suma

n i=1

u2 = i

n i=1 (yi

0 + 1 xi )2 ,

sea mnima.

0 , 1

son los estimadores que solucionan el siguiente problema de

n 0 ,1 i=1

m n

(yi 0 1 xi )2 Q

Para solucionar este problema hay que encontrar las condiciones del primer orden. Estas condiciones son las derivadas parciales de la funcin objetivo, dos estimadores igualadas a cero.

Q,

respecto a los

Q =0 0 Q =0 1
n n

n i=1

2(yi 0 1 xi ) = 0

2(yi 0 1 xi )xi = 0

i=1

Desde la primera condicin obtenemos

yi
i=1 n i=1 i=1 n i=1

1 xi = 0

yi

=0 n n n n0 xi y 1 i=1 = 0 n n 0 1 x = 0 y 0 = y 1 x
(1.3)

i=1 n i=1 1 xi

que es una ecuacin para

en trminos de

1 .

Ahora podemos utilizar la segun-

da condicin de primer orden para encontrar una ecuacin para

1 .

De la segunda

obtenemos

n i=1 n

yi ( 1 x) 1 xi xi = 0 y
n

(yi y )xi
i=1 n i=1 i=1

1 (xi x)xi = 0
n

(yi y )(xi x) 1 1 =

(xi x)2 = 0 x)
(1.4)

i=1 n i=1 (yi y )(xi n 2 i=1 (xi x)

La ltima igualdad se obtiene utilizando las propiedades del operador suma. Podemos observar que

n i=1

xi (xi x) =
n i=1

n i=1 (xi

x)(xi x) xi

implica

n i=1

x(xi x) = 0

que

es cierto porque

x(xi x) = x

n i=1

n x2 i=1 ()

= n()2 n()2 . x x

Una segunda manera a travs de la cual se puede derivar el mismo estimador se conoce como el mtodo de los momentos. La idea es muy sencilla. El supuesto S1 nos dice que la media de

u es cero (E(u) = 0) mientras que el supuesto S1 y x


y

S2 implican

que la covarianza entre

es cero (Cov(x, u)

= 0)

o sea

E(xu) = 0

puesto que

E(u) = 0.

Entonces

E(y 0 1 x) = 0 E(x(y 0 1 x)) = 0


El mtodo de los momentos elige los estimadores

0 , 1

de manera que solucionen las

contrapartidas muestrales de las dos ecuaciones de arriba. O sea

n1
i=1 n

(yi 0 1 xi ) = 0 xi (yi 0 1 xi ) = 0 2n
obtenemos las mismas ecuaciones obtenidas

n1
i=1
Multiplicando las dos ecuaciones por

de la minimizacin de la suma de los residuos al cuadrado. Resulta claro entonces que las soluciones debern ser las mismas y los estimadores que encontraremos en este caso coincidirn con (1.3) y (1.4).

Podemos notar que varianza muestral de

es simplemente el ratio entre la covarianza muestral y la

x
n (x )(yi ) x y i=1 i

1 =

n1
n (x )2 x i=1 i

n1

=
La interpretacin de

Cov(x, y) V ar(x) 1 , 0
de la que hemos hablado ante-

1 , 0

coincide a la de

riormente, ahora en trminos de valores ajustados. Repetimos que cambio en cuando

representa el

producido por un cambio unitario en Considerese el siguiente ejemplo.

representa el valor de

xi = 0.

Ejemplo 1.1 Utilizando datos para salario promedio horario (medidos en dlares

por hora) y aos de educacin para 526 individuos, contenidos en el archivo WAGE1 en la base de datos Wooldridge en GRETL hemos estimado con MCO la siguiente regresin:

salarioi = 0,90 + 0,54educi


El valor estimado de la pendiente signica que un ao ms de educacin hace que el salario aumente en

0,54

dlares por hora. Cul ser el salario horario previsto para

un individuo con ocho aos de educacin? La respuesta es dlares por hora.

0,90 + 0,54(8) = 3,42

Una implicacin clave de la estimacin del modelo es que la recta de regresin muestral

no coincide

con la recta de regresin poblacional. Si aplicamos MCO a los datos en

la Tabla 1 obtenemos

yi = 0,3458 + 0,3544xi
que es diferente de la regresin poblacional debido a que las estimaciones de los parmetros no coinciden con sus contrapartidas tericas. El graco 2 muestra la recta de regresin poblacional (la lnea continua) vista antes y la nueva recta de regresin

Figura 2.

10

muestral (la lnea discontinua) estimada en este ejemplo. La razn que explica esta diferencia resultar clara ms adelante.

1.2.2. Propiedades de los estimadores


Describiremos ahora las propiedades de los estimadores de MCO. Primero estudiaremos las propiedades algbricas y despus las propiedades estadsticas de tales estimadores.

Propiedades algebraicas

P1

La suma de los residuos es cero,


n n

n i=1

ui = 0.

ui =
i=1 i=1 n

(yi 0 1 xi )
n

=
i=1

yi
i=1

n i=1

1 xi

= n n0 n1 x y = n n( 1 x) n1 x y y = 0.
Las primeras tres igualdades se obtienen a travs de las propiedades del operador suma y la cuarta substituyendo la formula MCO de

0 .
n i=1

P2

La covarianza muestral entre regresores y residuos es cero,

ui xi = 0.

sta es la segunda condicin del primer orden que hemos utilizado antes para derivar el estimador de mnimos cuadrados. Por esta razn esta condicin siempre se cumple.

P3

La media muestral de los valores ajustados es igual a la media muestral del los
valores originales : y = y. ui = yi yi
11

ui =
i=1 n i=1 n

yi
i=1

yi

yi =
i=1 i=1

yi

y = y
donde la tercera igualdad se obtiene a travs de la propiedad P1.

Propiedades estadsticas

Antes de ver las propiedades estadsticas de los estimadores necesitamos repasar algunos conceptos y resultados estadsticos clave. Sea de densidad normal con media

x una variable aleatoria con funcin

y varianza

x N (, 2 )
Si ahora restamos la media a

y dividimos por su desviacin tpica obtenemos la

variable normal estandardizada

y=
Sean

x N (0, 1)

zi , i = 1, ..., k k

variables normales estandardizadas independientes. Un resul-

tado muy importante es que

w=
i=1
o sea la suma de las

zi2 k

zi

al cuadrado es una variable con distribucin chi-cuadrado con

grados de libertad. Si adems

es independiente de

entonces

y
w k
o sea una variable con distribucin

tk
con

tstudent

grados de libertad. Ahora sean

w1

w2

dos variables

independientes con grados de libertad

a y b respectivamente.

El siguiente ratio

w1 /a Fa,b w2 /b
12

Figura 3

se distribuye con una distribucin

con

grados de libertad.

Vamos a estudiar ahora las propiedades estadsticas de los estimadores MCO. Bajo los supuestos hechos anteriormente valen las siguientes propiedades.

P4

Los estimadores 0 , 1 son variables aleatorias.


Veremos el caso de

1 .

Empezando con la frmula del estimador MCO tenemos

1 = = = =

n i=1 (yi y )(xi x) n 2 i=1 (xi x) n i=1 (xi x)yi n 2 i=1 (xi x) n i=1 (xi x)(0 + 1 xi + ui ) n 2 i=1 (xi x) n n i=1 (xi x)0 + i=1 (xi x)1 xi n 2 i=1 (xi x)

n i=1 (xi

x)ui

13

Vamos a analizar los primeros dos trminos a la derecha del igual. El primero

n i=1 (xi x)0 n 2 i=1 (xi x)

n i=1 (xi n i=1 (xi

x) x)2

= 0
porque

n i=1 (xi

x) = n x

n i=1

xi = n n. x x = = 1 xi

El segundo

n i=1 (xi x)1 xi n 2 i=1 (xi x)

n i=1 (xi

x)xi

n 2 i=1 (xi x) n 1 xi i=1 (xi x)2 n 2 i=1 (xi x)

= 1
donde la segunda igualdad se obtiene de

(xi x)(xi x) =
i=1 i=1 n

(xi x)xi (xi x)xi x


i=1 n

(xi x) x
i=1 n

= =
i=1 n

(xi x)
i=1 n n

(xi x)xi x(
i=1

xi
i=1

x)

=
i=1 n

(xi x)xi x(n n) x x (xi x)xi


i=1

=
Resumiendo,

1 = 1 +

n i=1 (xi x)ui n 2 i=1 (xi x)

(1.5)

La (1.5) nos dice que el estimador MCO

es igual al parmetro

1 ui .

ms otro Por esta

trmino que es una combinacin lineal de las variables aleatorias razn

es tambin una variable aleatoria. Una directa implicacin de este re-

sultado es que para muestras aleatorias distintas la estimacin del parmetro obtenida con MCO ser distinta.

14

Ejemplo 1.2 Para entender mejor esta propiedad haremos el siguiente ejer-

cicio. Consideremos el modelo que hemos tratado antes,

yi = 1 + 0,3xi + ui . ui
utilizando una

Generamos 100 muestras aleatorias de 16 observaciones de

N (0, 0,16).

Con cada una de estas muestras generamos 16 observaciones de la

variables dependiente

y.

Por cada muestra volvemos a estimar el modelo de

regresin anterior. La gura 3 muestra, por cada una de las muestra (eje x), el valor estimado de

1 .

Es evidente que cada una de las muestras proporciona

una diferente estimacin. La razn est en la propiedad que acabamos de ver:

1
P5

es una variable aleatoria.

Los estimadores MCO son insesgados: E(0 ) = 0 1 . 1

E(1 ) = 1 .

Esta propiedad se puede demostrar utilizando el resultado anterior. Empezamos con Tomando la esperanza de utilizando la (1.5) se obtiene

E(1 ) = E 1 + = 1 + E = 1 + = 1

n i=1 (xi x)ui n 2 i=1 (xi x) n i=1 (xi x)ui n 2 i=1 (xi x)

n i=1 (xi n i=1 (xi

x)E(ui ) x) 2

La segunda igualdad se obtiene aplicando las propiedades del valor esperando. La tercera se obtiene utilizando S2 y la ltima con el supuesto S1. Vamos ahora a demostrar la insesgadez de frmula del estimador obtenemos

0 .

Tomando el valor esperado en la

E(0 ) = E( 1 x) y = E(0 + 1 x + u 1 x) x = E[0 + (1 1 ) + u] x = 0 + E[(1 1 )] + E() u x = 0 + E[(1 1 )] + E() u


15

= 0 + E = 0 + = 0

n i=1 n i=1

ui

n E(ui ) n

La segunda igualdad se obtiene substituyendo piedad de insesgadez de

y la ltima utilizando la pro-

vista antes, la denicin de

y la propiedad P1.

Ahora podemos establecer la siguiente propiedad relativa a la varianza de los estimadores MCO

P6

V ar(1 ) =

2 n (x )2 x i=1 i

V ar(0 ) = 2

1 n

x2 n (x )2 x i=1 i

Demostraremos slo la primera parte de la propiedad. La demostracin de la segunda parte la dejamos como ejercicio. Considerese la ecuacin (1.5). sta implica

1 1 =

n i=1 (xi x)ui n 2 i=1 (xi x)

Utilizando P5, tomando el cuadrado y el valor esperado de los elementos obtenemos la siguiente expresin para la varianza de

1
2

E 1 E(1 )
Sea

= E

n i=1 (xi x)ui n 2 i=1 (xi x)

ki =

(xi ) x . n (x )2 x i=1 i

Podemos escribir la ecuacin de arriba como

E 1 E(1 )

= E
i=1

ki ui

Para entender mejor el valor esperado a la derecha del igual supongamos que

n = 2.

En este caso

E(
i=1

2 2 ki ui )2 = E k1 u2 + k2 u2 + 2k1 u1 k2 u2 2 1 2 2 = E(k1 u2 ) + E(k2 u2 ) + E(2k1 u1 k2 u2 ) 1 2 2 2 = k1 E(u2 ) + k2 E(u2 ) + 2k1 k2 E(u1 u2 ) 1 2 2 = k1 2 + k2 2 2 = 2 (k1 + k2 )


16

Las primeras tres igualdades se obtienen utilizando las propiedades del valor esperado. La cuarta se obtiene utilizando S3 u S4. En general, por un quiera

cual-

E
i=1

ki ui

2 i=1

2 ki n 2 i=1 (xi x) n 22 i=1 (xi x) ] 2

= 2 =

n i=1 (xi

x) 2

(1.6)

Otra propiedad del estimador MCO es la siguiente, conocida como Teorema de GaussMarkov:

P7

El estimador MCO es el estimador insesgado y lineal con varianza mnima.


Esta propiedad nos dice que no existe un estimador con la propiedad de insesgadez y linealidad con varianza menor que el estimador MCO. Haremos ahora una prueba sencilla de esta propiedad para Entonces, el estimador MCO es de

1 .
n i=1 n i=1

Denimos otra vez

ki =

(xi ) x . n (x )2 x i=1 i

1 = i =
n i=1

ki yi .

Denimos otro estimador lineal Si substituimos

1 ,

le llamaremos

i
n i=1

como

wi yi .

yi

obtenemos

i =

n i=1

wi + 1

wi xi +
n

wi ui .

Tomando el valor esperado

E(i )

= E
i=1 n

w i + E 1
i=1 n

w i xi + E
i=1

w i ui

=
i=1

wi + 1
i=1

w i xi

= 1 .
Para que se cumpla la propiedad de insesgadez de este nuevo estimador

n i=1

wi =

n i=1

wi xi = 1.

Vamos ahora a calcular la varianza de este nuevo estimador.

ar(1 )

= V ar
i=1 n

wi yi

=
i=1

2 wi V ar(yi )

17

= 2
i=1 n

2 wi

= =

2 i=1 n 2 i=1

wi
2 wi n 2 i=1

(xi x) + n 2 i=1 (xi x) (xi x) n 2 i=1 (xi x)


2

(xi x) n 2 i=1 (xi x) + 2 (

n 2 i=1 (xi x) n 2 2 i=1 (xi x) )

+2

2 wi

(xi x) n 2 i=1 (xi x)

(xi x) n 2 i=1 (xi x) 2 (


n (x )2 x i=1 i 2 n (xi )2 x i=1

el ltimo elemento a la derecha del igual es cero. El segundo

. n (x )2 x i=1 i

Entonces la varianza de

ser

ar(1 )

2 i=1

2 wi

(xi x) n 2 i=1 (xi x)

+ 2 wi =

1
n i=1 (xi

x) 2
o sea

(1.7)

Esto implica que la varianza es mnima cuando que ser el estimador MCO

(xi ) x n (xi )2 x i=1

tiene

1 .

1.2.3. Estimar la varianza del error


Hasta ahora hemos concentrado nuestra atencin en los parmetros estimacin. Sin embargo, tambin

0 , 1

y en su

es un parmetro del cual no tenemos ninguna

informacin. Este parmetro es particularmente importante porque, como hemos visto, de ste dependen las varianzas de los estimadores. Como ser claro en la siguiente seccin, obtener una estimacin de la varianza del trmino de error es bsico para poder hacer inferencia. Antes de estudiar el estimador de la varianza del error, vamos a insistir en la diferencia existente entre los errores el residuo de regresin es

ui

y los residuos

ui

de regresin. Hemos visto que

ui = yi 0 + 1 xi = 0 + 1 xi + ui 0 + 1 xi = ui (0 0 ) (1 1 )xi
18

Es claro que

ui

ui

no son iguales simplemente porque parmetros y estimadores

no coinciden. La relacin que hay entre residuo y error es que sus medias coinciden gracias a la propiedad de insesgadez de los estimadores MCO. Volvemos ahora a la estimacin de
n i=1

2.

Como

2 = E(u2 ) i

podramos utilizar

u2 i

. El problema es que los errores no son observados. Lo que observamos son

los valores estimados de los errores o sea los residuos de regresin. Entonces, una posibilidad sera utilizar la frmula anterior con los residuos
n i=1

u2 i

. El problema es

que este estimador es sesgado. El estimador insesgado que utilizamos en este curso es el siguiente:

2 =

u2 i n2

n i=1

(1.8)

La insesgadez se obtiene a travs de la normalizacin por

n 2 en lugar de n. Una vez

obtenida una estimacin para la varianza del error es muy sencillo estimar la varianza del estimador. Simplemente hay que substituir (1.8) en (1.6).

1.2.4. Bondad del ajuste


A menudo necesitamos una medida que nos proporcione informacin sobre la capacidad de la variable independiente

de explicar la variable dependiente

y,

o, en otras

palabras, sobre hasta que punto la recta de regresin MCO se

ajusta

a los datos.

Empezamos deniendo la Suma Total de los Cuadrados (STC), la Suma Explicada de los Cuadrados (SEC) y la Suma de los Cuadrados de los Residuos (SCR) de la siguiente manera:

ST C
i=1 n

(yi y )2 (i y )2 y
i=1 n

SEC SCR
i=1
STC mide la variabilidad muestral de las SEC mide la varianza muestral de las

u2 i yi (ST C/(n 1)
es la varianza muestral).

yi

(sabemos de P3 que

yi = y )

y SCE mide la

19

variacin muestral de

ui

(sabemos de P1 que

u = 0).

Ahora vamos a demostrar que

entre las tres cantidades existe la siguiente relacin

ST C = SEC + SCR
o sea la suma total de los cuadrados es igual a la suma de los cuadrados de los residuos y la suma explicada. De su denicin

(yi y )2 =
i=1 i=1 n

(yi yi + yi y )2 (i + yi y )2 u
i=1 n n n

= =
i=1

u2 + i
i=1 n i=1

2i (i y ) + u y
i=1

(i y )2 y

= SCR +

2i (i y ) + SEC u y

Lo nico que necesitamos demostrar es que el segundo trmino de la expresin de arriba es cero.

2i (i y ) = u y
i=1 i=1 n

2i (i y ) u y 2i (0 + 1 xi y ) u 2i ( 1 x + 1 xi y ) u y 2i 1 (xi x) u
n i=1 n i=1

=
i=1 n

=
i=1 n

=
i=1

= 2 1 = 2 1 = 0

ui xi 21

ui x
i=1 n

ui xi 21 x

ui
i=1

por las propiedades P1 y P2. Si dividimos todo por

ST C

obtenemos

1=

SEC SCR + ST C ST C
20

Denimos el manera:

R-cuadrado de la regresin, o coeciente de determinacin, de la siguiente SEC SCR =1 ST C ST C

R2 =
y se interpreta como

la fraccin de la variacin muestral de yi explicada por xi . El R2

siempre est entre cero y uno.

Ejemplo 1.1 (cont) En el modelo estimado en el ejemplo 1 encontramos que

R2 =

0,16.

Este valor para

R2

signica que el 16 % de la variabilidad de la variable

salario

es explicada por nuestra variable independiente

educ.

1.2.5. Cambio de escala y formas funcionales


Cambio de escala

En el ejemplo anterior, hemos medido el salario en miles de dlares. Conocer la unidad de medida de las variables es necesario para poder interpretar correctamente los parmetros estimados. Vamos a estudiar ahora cmo cambian las estimaciones de nuestro modelo cuando cambiamos la escala de las variables dependiente y independiente.

Caso 1: multiplicamos y por una constante c


Si multiplicamos la variable dependiente por una constante regresin, el estimador MCO de la pendiente ser

y estimamos la nueva

1 = = c

n i=1 (xi x)(cyi n 2 i=1 (xi x) n i=1 (xi x)(yi n 2 i=1 (xi x)

c) y y)

= c1
mientras que el nuevo estimador de

ser

0 = c 1 x y
21

= c c1 x y = c 0
En este caso, con la nueva variable dependiente timadores obtenidos con

cy ,

los dos estimadores sern los es-

multiplicados por la constante

c.

Caso 2: multiplicacin de x por una constante c


Si multiplicamos la variable dependiente por una constante regresin, el estimador MCO de la pendiente ser

y estimamos la nueva

1 = = =

n x i=1 (cxi c)(yi y ) n 2 x i=1 (cxi c) n c i=1 (xi x)(yi y ) c n 2 2 c i=1 (xi x)

1 1 c
(1.9)

mientras que el nuevo estimador de

ser

0 = y 1 cx 1 x = y 1 c c = 0
En este caso, con la nueva variable dependiente, la estimacin de la pendiente se divide por la constante

c,

mientras que la estimacin de

no vara.

Formas funcionales

Hasta ahora hemos considerados relaciones lineales entre variables, por ejemplo salario y educacin. Sin embargo, en muchos trabajos economtricos, encontraremos otros tipos de relaciones. En particular, encontraremos a menudo casos en que una o las dos variables aparecen en forma logartmica. En este apartado, estudiaremos la

22

interpretacin de los parmetros en el caso en que una o las dos variables del modelo de regresin sean especicadas en logaritmos.

Caso 1: log-nivel
Supongamos que nuestro modelo de regresin sea el siguiente

log(y) = 0 + 1 x + u
Si

u = 0

entonces

1 = y

log(y) . Esto signica que x


si

1001

representa el cambio en

trminos porcentuales en

aumenta en una unidad.

Ejemplo 3 Consideremos el siguiente modelo

log(salarioi ) = 0 + 1 educi + ui
Utilizando los datos del Ejemplo 1 obtenemos las siguientes estimaciones

log(salarioi ) = 0,58 + 0,08educi


donde el parmetro

1 = 0,08

nos dice que un ao ms de educacin determina un

aumento en el salario horario de un 8 %. Observese la diferencia con el caso anterior donde las dos variables eran especicadas en niveles. En ese caso, cambio en unidades de dad (ao).

expresaba el

salario

(miles de euros) cuando

educ

aumentaba en una uni-

Caso 2: nivel-log
Supongamos que nuestro modelo de regresin ahora sea el siguiente

y = 0 + 1 log(x) + u
Si de

u = 0, y

entonces

1 =

y . Esto signica que log(x)

1 /100

representa el cambio en

en trminos de su unidad de medida si

aumenta en un 1 %.

23

Ejemplo 4 Ahora utilizando el archivo CEOSALES1 de la bases de datos Wool-

dridge en GRETL estimamos la siguiente regresin

salaryi = 0 + 1 log(salesi ) + ui
donde y

salaryi

se reere al salario de un ejecutivo de la empresa

en miles de dlares

sales

las ventas de esta empresa en miliones de dlares. Utilizando el estimador

MCO obtenemos

salary i = 898,93 + 262,9 log(salesi )


donde el parmetro

1 = 262,9

nos dice que si la ventas aumentan en un 1 %, el

salario de un ejecutivo aumenta de

262,9/100 = 2,629

miles de dlares.

Caso 3: log-log
Supongamos que nuestro modelo de regresin ahora sea el siguiente

log(y) = 0 + 1 log(x) + u
Si

u = 0 entonces 1 =

log(y) . En este caso log(x)

tiene la interpretacin de elasticidad

y expresa de cunto vara en trminos porcentuales

si

aumenta en un 1 %.

Ejemplo 4 (cont.) Utilizando el mismo archivo del ejemplo anterior CEOSALES1

estimamos la siguiente regresin:

log(salaryi ) = 0 + 1 log(salesi ) + ui
las estimaciones nos dan

log(salaryi ) = 4,82 + 0,25 log(salesi )


donde el parmetro

1 = 0,25

ahora nos dice si la ventas aumentan en un 1 % el

salario de un ejecutivo aumenta de

0,25 %.
24

La tabla 2 resume la interpretacin en todos los diferentes casos.

Model nivel-nivel nivel-log log-nivel log-log

Dependiente

Independiente

Interpretacin

y y log(y) log(y)

x log(x) x log(x)
Tabla 2

y = 1 x y = (1 /100) %x %y = (1001 )x %y = 1 %x

1.3. Inferencia
Vamos a tratar ahora el tema de la inferencia. Bsicamente estudiaremos el contraste de una hiptesis estadstica, el contraste t, y los intervalos de conanza para un nico parmetro. Para poder desarrollar y comprender el anlisis inferencial necesitamos aadir el siguiente supuesto al modelo:

S5

El error se distribuye normalmente con media cero y varianza 2 , ui N (0, 2 )

Este supuesto implica otra propiedad del estimador MCO o sea que el estimador se distribuye normalmente con media el verdadero parmetro y varianza la obtenida anteriormente en la propiedad P6.

P8

i N (i , V ar(i )), i = 0, 1.
hemos visto antes, en la derivacin de la P4, que el estimador MCO es una combinacin lineal de las

ui

que, bajo el supuesto S5 son variables norma-

les independientes. Un resultado fundamental nos dice que tal combinacin es tambin una variable normal.

25

Adems de este nuevo supuesto, necesitamos tambin repasar algunos resultados estadsticos adicionales. Primero, como visto antes, si al estimador restamos su media y dividimos por su desviacin tpica obtenemos una variable normal estandardizada

i i N (0, 1) se(i )
donde

(1.10)

se(i ) =

V ar(i ) = [

n i=1 (xi

x)2 ]1/2 .

Segundo (que se demostrar mas

adelante)

n 2 i=1 ui 2

(n 2) 2 n2 2 n2
y la varianza

o sea el ratio entre el estimador de la varianza multiplicado por de trmino de error es una variable con distribucin Tercero, si substituimos

con

n2

grados de libertad.

con

en (1.10) obtenemos una variable con distribucin

tstudent i i = [ n (xi x)2 ]1/2 i=1 i i


([

n i=1 (xi

x)2 ]1/2 )

El numerador de este ratio es una variable normal estandardizada y el denominador es la raz cuadrada de una variable con distribucin libertad, o sea, la denicin de una variable

n2

dividido por sus grados de

tstudent

con

n2

grados de libertad.

Entonces, el segundo resultado importante es que

i i tn2 se(i )
donde

(1.11)

se(i ) =

V ar(i ) = [

n i=1 (xi

x)2 ]1/2 .

1.3.1.

Contraste de hipthesis, el contraste t


contrastar
o averiguar determina-

El primer instrumento de anlisis inferencial que vamos a estudiar es el contraste de hiptesis. El contraste de hiptesis sirve para

das hiptesis estadsticas sobre los parmetros del modelo. Para poder desarrollar el

26

contraste necesitamos antes aclarar el concepto de

hiptesis nula

y de

hiptesis alter-

nativa.

La hiptesis nula es una hiptesis estadstica, una armacin sobre algunos

de los parmetros del modelo, que se asume ser cierta al principio del contraste. En este curso, especicaremos la hiptesis nula (H0 ) de la manera siguiente:

H0 : i = i0
Una hiptesis que contrastaremos a menudo es que la pendiente de la recta de regresin sea igual a cero

H0 : 1 = 0.
El contraste de esta hiptesis es un caso muy interesante porque trata de averiguar si entre la variable independiente y dependiente existe alguna relacin. En el ejemplo anterior de salario y educacin contrastar la hiptesis

H0 : 1 = 0

equivale a contras-

tar la armacin que la educacin no sea importante para explicar el salario. Si no podemos rechazar tal hiptesis tendramos que concluir que no hay ninguna relacin estadsticamente signicativa entre estas dos variables. La hiptesis alternativa es la hiptesis frente a la cual evaluamos la hiptesis nula, o sea la hiptesis que aceptamos si rechazamos la hiptesis nula. Consideraremos dos tipos distintos de hiptesis alternativas correspondientes a contrastes a una o dos colas. Un primer tipo de hiptesis alternativa (contraste a una sola cola) es el siguiente

H0 : i < i0

H0 : i > i0

Un segundo tipo de hiptesis, correspondiente a contraste a dos colas, es

H0 : 1 = i0 .
Como se ha dicho anteriormente, el contraste de hiptesis trata de averiguar si una determinada hiptesis nula se puede considerar compatible o no con lo datos. Una vez especicada la hiptesis nula y la alternativa, necesitamos una medida de discrepancia entre los datos y la hiptesis nula. O sea, necesitamos una cantidad que permita

27

juzgar si la hiptesis que estamos contrastando es compatible con lo que observamos en los datos. Esta medida toma el nombre de

estadstico de contraste. El estadstico

que se utiliza es (1.11). Como hemos dicho antes, por denicin, la hiptesis nula se considera cierta al principio de la prueba de hiptesis. Esto signica que cuando consideramos nuestro estadstico de contraste tenemos que hacerlo que la hiptesis nula es cierta. En general, bajo la hiptesis nula estadstico de contraste ser

bajo

el supuesto el

H0 : i = i0

i i0 tn2 se(i )
nuestro estadstico de contraste ser

Por ejemplo, si

H0 : 1 = 0,

i tn2 se(i )
Es importante entender porqu este estadstico puede proporcionar informacin que nos permita decidir si la

H0

es compatible o no con los datos. Hemos visto que

este estadstico es una variable con distribucin

tstudent.

Una vez obtenidas las

estimaciones de los parmetros del modelo, podemos calcular el valor del estadstico

de contraste bajo la hiptesis nula. Esto nos proporcionar un nmero, digamos tn2 .
Supongamos ahora que este nmero se encuentre muy alejado del valor promedio de la distribucin. Esto implica que si los datos fueran de verdad generados por el modelo de regresin con el valor del parmetro implicado por la hiptesis nula, sera improbable observar lo que de hecho observamos en los datos, o, en otras palabras, seria improbable obtener los valores obtenidos para las estimaciones de

se(i ).

Esto tendra que sugerir que la hiptesis nula es incompatible con nuestros datos y por esta razn debeamos rechazarla. El problema es: cunto el estadstico de contraste tiene que alejarse de su valor medio para poder rechazar la hiptesis nula? Para esto necesitamos especicar un

nivel

de signicatividad

para el contraste. ste representa la probabilidad de rechazar

la hiptesis nula cuando sta es cierta, o sea, la probabilidad de cometer un error de tipo I. Una vez establecido el nivel de signicatividad, podemos encontrar el valor

28

critico de la distribucin asociado a

t correspondiente a ese nivel. Denimos el valor crtico t , n2,


2

como aquel valor tal que

p(|t| >

t ) n2, 2

= ,

o sea aquel valor tal que

la probabilidad que la variable en valor absoluto tome valores mayores que el valor crtico es igual al nivel de signicatividad

Vamos ahora a ver en detalle como desarrollar el contraste de hiptesis. Consideraremos dos contrastes distintos: a una y dos colas.

Contraste a dos colas

Supongamos de querer contrastar la

H0 : i = i0

frente a la alternativa

H1 : i = i0 .

El contraste de hiptesis se desarrollar a travs de los pasos siguientes:

1. Calcular, utilizando las estimaciones obtenidas, el estadstico de contraste bajo la hiptesis nula
0 i i se(i )

= tn2 . .

2. Establecer un nivel de signicatividad

3. Comparar el estadstico de contraste con el valor crtico para un nivel de signicatividad

Si

|tn2 | > t n2
2

rechazo la

H0 .

En caso contrario no rechazo

la hiptesis nula. La idea que est detrs de este criterio de rechazo es que si

|tn2 | > t n2
2

esto signica que

p(|tn2 | > tn2 ) < ,

o sea el valor

tn2

esta-

r muy alejado del promedio de la distribucin y por tanto concluimos que la hiptesis nula es poco compatible con los datos.

Ejemplo 1 (cont.) En el modelo estimado en el ejemplo 1 encontramos estos valores

para las desviaciones tpicas de los estimadores:

se(0 ) = 0,16, se(1 ) = 0,05.

Pode-

mos contrastar la hiptesis nula que los aos de educacin no tienen efecto alguno sobre el salario. Esta hiptesis se puede formular como

H0 : 1 = 0.

Para desarrollar

el contraste tenemos que calcular el valor de estadstico de contraste

1 0,54 = 0,05 se(1 ) = 10,8


29

y comparar el valor obtenido con el valor crtico de la distribucin

tstudent

con

n 2 = 526 2 = 524
digamos

grados de libertad a un determinado nivel de signicatividad,

= 0,05.

El valor crtico es

t 524,0,025 = 1,9645 < t.

Entonces, rechazamos la

hiptesis nula al 5 %. Supongamos ahora que la hiptesis estadstica que nos interesa contrastar sea que un ao ms de educacin corresponde a un dlar por hora mas. Esta hiptesis se puede especicar como estadstico de contraste obtenemos

H0 : 1 = 1. Si calculamos el nuevo valor del

1 1 se(1 )

0,44 0,05

= 8,8
Otra vez rechazamos la hiptesis nula al 5 % porque el valor absoluto del estadstico de contraste es mayor que el valor crtico. Una propiedad muy importante del contraste de hiptesis es que si hemos rechazado una hiptesis a un nivel de signicatividad

rechazaremos la misma hiptesis para

todos los niveles de signicatividad mayor que

La razn es que si

>

entonces

t < t n2, n2,


2 2

porque

representa el rea bajo la distribucin en el intervalo entre 2

t n2,
2

y innito.

Contraste a una cola

Supongamos de querer contrastar la

H0 : i = i0

frente a la alternativa

H1 : i > i0 .

El contraste de hiptesis se desarrollar a travs de los pasos siguientes:

1. Calcular, utilizando las estimaciones obtenidas, el estadstico de contraste bajo la hiptesis nula
0 i i se(i )

= tn2 . .

2. Establecer un nivel de signicatividad

3. Comparar el estadstico de contraste con el valor crtico para un nivel de signicatividad

Si

tn2 > t n2,

rechazo la

H0 .

En caso contrario no rechazo la

hiptesis nula.

30

Supongamos que queremos contrastar la

H0 : i = i0

frente a la alternativa

H1 : i <

i0 .

El contraste de hiptesis se desarrollar a travs de los pasos siguientes:

1. Calcular, utilizando las estimaciones obtenidas, el estadstico de contraste bajo la hiptesis nula
0 i i se(i )

= tn2 . .

2. Establecer un nivel de signicatividad

3. Comparar el estadstico de contraste con el valor crtico para un nivel de signicatividad

Si

tn2 < t n2,

rechazo la

H0 .

En caso contrario no rechazo la

hiptesis nula.

Notese que mientras en el contraste a dos colas el valor crtico de referencia es

t n2,
2

para un nivel de signicatividad , en el contraste a una cola ser tn2, o

t n2,

Valor-

A veces distintos niveles de conanza conducen a distintas decisiones sobre la hiptesis nula. El problema es que la eleccin del nivel de conanza es una decisin subjetiva del investigador ya que no existe un nivel informativo calcular el valor

correcto.

Para esta razn, a menudo, es

para el contraste. El valor

es el nivel de signicacin

mnimo al que se puede rechazar la hiptesis nula y se dene (en el contraste a dos colas) como valor-p

= p(|t| > |t|) t tome, en valor absoluto, valores mayores t.


Queda claro entonces porque

o sea, indica la probabilidad que la variable

que el valor obtenido para el estadstico de contraste

el valor-p indica el nivel de signicatividad mnimo al cual se puede rechazar la Por cada

H0 .

> valor-p

el valor crtico correspondiente es menor que

ty

por esta razn

rechazamos la hiptesis nula.

31

1.3.2.

Intervalos de conanza

El segundo instrumento para la inferencia es el de los intervalos de conanza para un parmetro. En este caso, de manera diferente al contraste de hiptesis, donde tenemos que decidir sobre una hiptesis nula, la idea es de encontrar un intervalo tal que, con una determinada probabilidad, contenga el verdadero valor del parmetro. Utilizando lo que hemos visto antes sabemos que

corresponde a la protome valores en

babilidad que el estadstico de contraste (una variable

tstudent)

el intervalo denido por menos y mas el valor crtico a nivel de signicatividad Formalmente

p t n2,
2

i i < < t = 1 n2, 2 se(i )


(1.12)

Vamos a ver ahora como de aqu podemos construir un intervalo de conanza para el parmetro

i .

Desarrollando la probabilidad de arriba obtenemos

p t se(i ) < i i < t se(i ) n2, n2,


2 2

= 1 = 1 = 1

p i t se(i ) < i < i t se(i ) n2, n2,


2 2

p i t se(i ) < i < i + t se(i ) n2, n2,


2 2

Esto nos dice que con probabilidad tervalo

1 el parmetro i estar incluido en el in [i t se(i ), i + t se(i )]. Esto es un intervalo de conanza para el n2, n2,
2 2

parmetro

i .

Ejemplo 1.1 (cont.) Es muy sencillo encontrar un intervalo de conanza al

5 % para

1
y

utilizando las estimaciones del Ejemplo 1. Sabemos que

1 = 0,54, se(1 ) = 0,05

t524,0,025 = 1,9645.

Aplicando la frmula vista arriba obtenemos el siguiente inter-

valo de conanza

[i t se(i ), i + t se(i )] = [0,54 (0,05)(1,96), 0,54 + n2, n2,


2 2

(0,05)(1,96)] = [0,44, 0,64].

Podemos notar que el intervalo no incluye el valor cero

32

y esto es consistente con el resultado del contraste de la hiptesis hemos visto antes.

H0 : 1 = 0

que

33

Ejercicios
(1) Queremos analizar el efecto del gasto en campaa electoral sobre el porcentaje

de votos. Disponemos de una base de datos de 173 observaciones que incluye:

voteA, el porcentaje de votos al candidato A, expendA, el gasto del candidato A


en su campaa electoral (en miles de dlares),

expendB ,

el gasto del candidato

B (solo hay dos candidatos) en su campaa electoral (en miles de dlares). El resultado de la estimacin por mnimos cuadrados nos da la siguiente regresin

voteAi = 43,1712 + 0,0236expendAi + ui R2 = 0,15614


(a) Cul es el efecto de un aumento de 1000 dlares en el gasto de A sobre el porcentaje de votos de A? (b) Contrastar al 5 % de signicacin la hiptesis nula

H0 : 1 = 0

utilizando es

como valor crtico 1.96 y sabiendo que la desviacin tpica de

0,01

(c) La suma de los cuadrados de los residuos (SCR) es 40891.1 Hallar la desviacin tpica de los residuos

ui . voteA explica nuestro modelo de regresin? y.

(d) Qu parte de la variabilidad de

(e) Calcular la varianza muestral de

(2) Este es un ejercicio relativo al contraste de la racionalidad en el clculo de los

precios de las viviendas. En el modelo de regresin simple

price = 0 + 1 assess + u
donde

price

es el precio de la vivienda y

assess

es la valoracin de la vivienda y

antes de la venta, la valoracin es racional si estimada es

1 = 1

0 = 0.

La ecuacin

price = 14,47 + 0, 976assess n = 88, SRC = 165644,51, R2 = 0, 820


donde (1.13)

16,27

es la desviacin tpica de

0,049

es la desviacin tpica de

1 .

34

(a) Contrastar la hiptesis (b) Contrastar

H0 : 0 = 0.

H0 : 1 = 1. 1 . 0 .

(c) Encontrar un intervalo de conanza al 95 % para (d) Encontrar un intervalo de conanza al 95 % para

(3) Demostrar la propiedad P6 para

0 . x
y

(4) Demostrar que

R2

equivale al cuadrado del coeciente de correlacin entre

y.
(5) Demostrar que si un intervalo de conanza al 95 % para

no incluye el cero,

esto implica que rechazamos la hiptesis nula contraste

H0 : 1 = 0

al 5 % utilizando el

t. y i = 0 + 1 xi + u i
y que todos los supuestos vistos en este

(6) Supongamos que

captulo sean satisfechos. Utilzando los datos de la tabla siguiente

y 6.3000 9.5000 7.4000 2.4000 0.9000

x 2.0000 4.0000 3.0000 1.0000 0

(a) Estimar los parmetros del modelo con MCO (b) Estimar la varianza del error. (c) Encontrar

R2 . H0 : 1 = 0. H0 : 0 = 1.

(d) Contrastar la hiptesis nula (e) Contrastar la hiptesis nula

35

(7) Estamos interesados en analizar la relacin entre dos variables

xi

yi .

Por esto

se proponen los dos modelos siguientes

yi = 0 + 1 xi + ui xi = 0 + 1 yi + vi
Si estimamos los parmetros de los dos modelos utilizando MCO es siempre cierto que

1 =

1 ? Si no en que casos? 1

36

Aplicaciones con GRETL


(1) Ejercicio 2.10 Wooldridge. (2) Ejercicio 2.11 Wooldridge.

(3) Ejercicio 2.12 Wooldridge.

37

Captulo 2 Modelo de Regresin Lineal con k-Variables


2.1. El modelo
En muchas aplicaciones es natural pensar que una variable econmica de inters pueda depender de ms de una variable exgena. Por esta razn, veremos ahora cmo generalizar el modelo estudiado en el capitulo anterior. Estudiaremos en esta seccin el modelo de regresin lineal con k-variables. A diferencia del modelo simple este modelo admite ms de una variable como regresor. El modelo de regresin lineal con k-variables puede expresarse a travs de la siguiente ecuacin

yi = 0 + 1 xi1 + 2 xi2 + ... + k xik + ui


donde

(2.1)

i,

como antes, se reere a la observacin

en nuestra muestra y

1.

yi

es la variable que queremos explicar y recibe el nombre de o

variable depen-

diente
2.

variable explicada.
son las

xij , j = 1, ..., k y

variables a travs de las cuales queremos explicar

y reciben, como antes, el nombre de

variables independientes

explicativas.

38

3.

ui

es el trmino de error, es una variables aleatoria y representa factores no

observables distintos a

xj

que afectan a

y.

4.

j , j = 0, ..., k k

son los parmetros del modelo.

En el caso de

variables es muy til escribir el modelo en forma matricial. Sea

el

nmero de observaciones en nuestra muestra aleatoria. Denimos

y1

y=

y2 . . .

yn

un vector

(n 1)

de todas las observaciones de la variable dependiente

x1

x11 x21
. . .

x12 x22
. . .

... ...
. . .

x1k
. . .

X=

x2 . . .

xn

1 . . .

x2k

1 xn1

xn2

. . . xnk

una matriz

(nk) con todas las observaciones en las las y las variables independientes

en las columnas

u1

u=

u2 . . .

un 0

un vector

(n 1)

de errores y

1 . . .

un vector

((k +1)1) donde el primer elemento es el coeciente del trmino constante

y los dems son los coecientes de las variables exgenas. Entonces podemos escribir el modelo como

y = X + u
39

(2.2)

Como en el capitulo anterior, aadimos al supuesto de linealidad del modelo los supuestos siguientes:
S1'

La esperanza de ui es zero: E(ui ) = 0 por cada i. Las variables dependientes son non aleatorias o jas en muestras repetidas. La varianza de ui es constante: V ar(ui ) = E(u2 ) = 2 por cada i. i
ui y uj son independientes por cada i y cada j con i = j .

S2'

S3'

S4'

S5'

El rango de X es k + 1.

Como el caso del modelo simple un supuesto alternativo a S2 que podemos hacer es el siguiente.

2.2. Estimacin
2.2.1. Estimador Mnimos Cuadrados Ordinarios (MCO)
Como en el modelo simple, el nico estimador que veremos en el modelo a

k -variables

es el estimador MCO. Para poder derivar el estimador necesitamos algunos resultados y deniciones preliminares. Sea de regresin como

un

estimador de

Denimos el vector de residuos

u = y X

y el vector de valores ajustados

y = X .

Como

antes, el estimador de MCO es el estimador que minimiza la suma de los residuos al cuadrado

uu=

n i=1

u2 . i

Antes de planear y solucionar el problema de minimizacin

es til desarrollar esta suma de la manera siguiente:

u u = (y X) (y X) = (y X) (y X) = y y + X X 2 X y
Se puede notar que

2 X y = X y + y X

porque

X y = y X .

La razn es que

el trmino a la derecha es el traspuesto del trmino a la izquierda que es un escalar

40

y esto implica que los dos sern iguales. Entonces podemos formular el problema de minimizacin de la manera siguiente:

m n

y y + X X 2 X y

Como antes, el problema se soluciona tomando las condiciones del primer orden, o sea las derivadas parciales respecto a

igualadas a cero. La nica diferencia con al

caso anterior es que aqu tenemos que utilizar las reglas de derivaciones respecto a un vector y no un escalar. Las condiciones del primer orden son las siguientes

X X X y = 0.
Solucionando respecto al vector de estimadores obtenemos

= (X X)1 X y
Se puede demostrar que cada uno de los estimadores contenidos en el vector puede escribir como

(2.3)

se

j =
donde

n i=1 yi rij n 2 i=1 rij

rj

es el residuo de la regresin de

xj

sobre las dems variables independientes.

Este resultado es muy til para poder entender la interpretacin de cada uno de los elementos en el vector

. Dado que rj j

es la parte de

xj

que no est relacionada con las

dems variables independientes,

mide el efecto de

xj

sobre

una vez que descon-

tamos los efectos de las dems variables exgenas. Por eso, podemos interpretar como el efecto parcial de se mantienen jas.

xj

sobre

o sea el efecto de

xj

cuando las dems variables

Ejemplo 2.1 En el modelo utilizado en el Ejemplo 1.1 para explicar el salario horario,

aadimos otro regresor: los aos trabajados en el actual puesto de trabajo. Utilizando el estimador que acabamos de ver obtenemos las siguientes estimaciones

log(salarioi ) = 0,216 + 0,097educ + 0,010exper.


41

La interpretacin de

1 = 0,097

es que ahora un ao ms de educacin produce un

incremento del salario de 9.7 %, mientras que un ao ms de experiencia laboral aumenta el salario en un 1 %.

El ejemplo anterior evidencia una caracteristica muy importante del modelo a kvariables. En general, si aadimos una variable al modelo las estimacines de los parmetros que ya eran incluidos cambian. Este resultado queda claro en el ejemplo que acabamos de ver, donde en el caso de un solo regresor aadiendo

1 = 0,8

mientras que

exper

cambia a

0,97.

Hay dos excepciones a este resultado. Se consideren

dos modelos, el primero con una sola variable dependiente, segundo con dos variables independientes si

y = 0 + 1 xi1 + ui ,

y el

y = 0 + 1 xi1 + 2 xi2 + ui . Es evidente que

2 = 0

entonces el estimador de

coincidir en los dos modelos. Un segundo caso

en que

coincide en los dos modelos es cuando

x1

x2

no estn correlacionadas.
n yr i=1 i i1 , n ri1 2 i=1

El estimador MCO de

en el segundo modelo es

i =

donde

ri1

es el

residuo de la regresin de

x1

sobre

x2 .

Si los dos regresores no estn correlacionados

esto signica que la covarianza es cero y que el efecto de esto implica que modelos.

x2

sobre

x1

es cero. Pero

ri1 = xi1 0 = xi1 x1

y los estimadores de

coinciden en los dos

Para la varianza del error, el estimador insesgado que utilizaremos en este capitulo es parecido al anterior. La nica diferencia es que ahora hay que normalizar por el nmero de observaciones menos el nmero total de parmetros. As que en el modelo de

k -variables

el estimador de la varianza del error es

2 =

uu nk1

(2.4)

42

Ejemplo 2.2 Se consideren los datos

siguientes

3 6 2 4

2 2 4 3

(X X)1 =

3 2 2 1

0 3

4 3

Xy =

2 y y = 80, n = 90
1. Calcular

(2.5)

Aplicando la formula vista antes

= (X X)1 X y 5 3 2 =
3 2

6 2 4

2 4 3

4 2 3 1

11

12
(2.6)

2. Calcular

2.

Aplicando la formula vista antes

2 =

uu nk1 y y Xy = nk1

1 Los datos son tomado desde Johnston and DiNardo (2001).

43

Sabemos que

y y = 80.

Slo nos falta calcular el segundo elemento

X y = ( 11 7 12

2 3) 1

= 37

entonces

2 =

8037 86

= 0,5.

2.2.2. Propiedades de los estimadores


Describiremos ahora las propiedades de los estimadores de MCO. Primero estudiaremos las propiedades algbricas y despus las propiedades estadsticas de tales estimadores.

Propiedades algbricas

Adems de P1 y P3 vale la siguiente propiedad

P1'

Xu=0 X u = X (y X) = X y X X = X y (X X)(X X)1 X y = 0

Propiedades estadsticas

Antes de ver las propiedades estadsticas de los estimadores, primero necesitamos repasar media y varianza para un vector de variables aleatorias. Sea un vector de

x = [x1 , ..., xk ]

variables aleatorias. Denimos su valor esperado

E(x1 )
. . .

E(x) =

E(xk )
44

y su varianza

V ar(x) = E [(x E(x))(x E(x)) ]


La varianza as denida es una matriz de dimensin principal hay los trminos tenidas en el vector

kk

donde en la diagonal

E [(xi E(xi ))2 ],

o sea las varianzas de las variables con-

x,

mientras que fuera de la diagonal principal hay los trminos

E [(xi E(xi ))(xj E(xj ))], o sea las covarianzas entre las variables en x. Si x es un
vector de variables aleatoria normales, o sea si riante con valor esperado

tiene distribucin normal multiva-

y varianza

escribimos

x N (, )
Vamos a estudiar ahora las propiedades estadsticas de los estimadores MCO. Podemos ahora volver a escribir en forma matricial los supuestos S2' y S3'. El primero implica que

E(u) = 0, el segundo que V ar(u) = 2 I n n.

donde

es una matriz identidad

de dinemsin

P2'

Los estimadores MCO son insesgados, E() = . = (X X)1 X y = (X X)1 X (X + u) = (X X)1 (X X) + (X X)1 X u = + (X X)1 X u
Tomando el valor esperado obtenemos

E() = E[ + E((X X)1 X u)] = + (X X)1 X E(u) =


donde la ltima igualdad se obtiene utilizando la propiedad P1'.

45

P3'

V ar() = 2 (X X)1
Utilizando la denicin de varianza de un vector de variables aleatorias

V ar() = E ( E())( E()) = E ( )( )


Desde la propiedad anterior sabemos que

= (X X)1 X u
Entonces

V ar() = E (X X)1 X uu X(X X)1 = (X X)1 X E(uu )X(X X)1 = 2 (X X)1


P4'

El estimador de la varianza del trmino de error visto antes es insesgado E( 2 ) =


2. El vector de residuos u es una transformacin lineal del vector trmino de error u.
De su denicin tenemos

P5'

u = y X = y X(X X)1 X y = (I X(X X)1 X )y = (I X(X X)1 X )(X + u) = (I X(X X)1 X )u = Mu


donde

M = (I X(X X)1 X ) MM = M.

es una matriz simtrica y idempotente, una

matriz tal que

46

P6'

El vector de residuos u tiene esperanza cero, E( ) = 0 y varianza E( u ) = u u 2 M.


Desde la propiedad de antes

E( ) = ME(u) = 0. u

Adems

E( u ) = E(Muu M) u = ME(uu )M = 2M
donde la ltima igualdad se obtiene gracias al hecho de que y simtrica.

es idempotente

P7'

Teorema de Gauss-Markov es el estimador lineal insesgado ptimo (ELIO) de .


Este teorema, como hemos visto antes, nos dice que no hay un estimador lineal y insesgado de teorema. Sea

con menor varianza. Vamos a ver ahora la demostracin de este

= A y otro estimador lineal de donde A es una matriz n(k+1) y


obtenemos

de elementos non aleatorios. Substituyendo la dinicin de

A (X + u) = A X + A u). A u) = E(A X) + E(A u).

Tomando el valor esperado

E( ) = E(A X +

Para que el estimador sea insesgado las iguientes

condiciones deben cumplirse: a) varianza del estimador ser

E(A X) = (A X = I ) y b) E(A u) = 0. La
Entonces

V ar() = A [V ar(u)]A = 2 A A.

V ar() V ar() = 2 [A A (X X)1 ] = 2 [A A A X(X X)1 X A] = 2 A [I X(X X)1 X ]A = 2 A MA


donde

A MA

es una matriz semidenida positiva. Sea La varianza de la combinacin lineal y

cualquier vector de y

dimensin vamente

(k + 1).

es respecti-

V ar(c ) = c V ar()c

V ar(c ) = c V ar( )c.

Adems

c V ar() V ar( ) c 0
47

por denicin de matrz semidenida positiva y en particular por cualquier

V ar(j ) V ar(j )

j.

2.2.3. Bondad del ajuste


Para poder estudiar la bondad del ajuste en el caso de

k -variables necesitamos algunos

resultados algbricos relativos a nuestro modelo. Primero, podemos observar que

ST C
i=1 n

(yi y )2 = y y n2 y (i y )2 = y y n2 y y
i=1 n

SEC SCR
i=1
Segundo, como en el modelo simple

u2 = u u i ST C = SEC + SCR. Para poder demostrar esto

empezamos por la denicin de SCR.

u u = (y X) (y X) = y y X y y X + X X = y y 2 X y + (X X)(X X)1 X y = yy Xy
(2.7)

donde para obtener la ltima igualdad hemos substituido la formula MCO de Entonces

yy = uu+ Xy y y n2 = u u + X y n2 y y
Lo nico que hay que observar ahora es que

y y = X y.

Esto es fcil de demostrar:

X y = X (X u) = X X X u = X X = yy
48

donde la tercera igualdad se obtiene con la propiedad P1' y la ltima por denicin de

y.

Hemos entonces establecido que la suma total de cuadrados es igual a la suma

de la suma explicada y residual como en el modelo simple. Vamos ahora a ver la denicin de

R2 .

De manera equivalente al modelo anterior denimos el coeciente

de determinacin mltiple como

R2 =

SEC ST C X y n2 y = 2 y y n y X X n2 y = 2 y y n y R2
se interpreta como

Cmo interpretamos el

R2

en este caso? Como anteriormente

la fraccin de la variacin muestral de yi explicada por todas las xi conjuntamente.


Existe una relacin muy importante entre la varianza de estimador MCO y hecho podemos escribir la varianza de cada uno del los

R2 .

De

como

V ar(j ) =
donde

2 n 2 2 i=1 (xij x) (1 Rj )

(2.8)

2 Rj

es el

R-cuadrado que se obtiene de la regresin de xj

sobre todas las dems

variables exgenas.

Ejercicio 2.2 (cont.) Utilizando los datos del ejemplo 2.2 calcular

R2 .

Sabemos

que

R2 =

X yn2 y . El primer elemento de y yn2 y

Xy

es

n i=1

yi = 3.

Entonces el numey

rador es igual a

37 90(3/90)2 = 36,9.

El denominador es

80 90(3/90)2 = 79,9

R2 = 36,9/79,9 = 0,46.

Se puede demostrar que el

R2

aumenta si aadimos variables exgenas al modelo.

La idea es que como la suma total de cuadrados es constante, si aadimos variables independientes con una varianza muestral distinta de cero, la suma de los residuos al cuadrado tiene que disminuir y por esta razn el coeciente de determinacin tiene

49

que aumentar. Esto implica que no podemos utilizar el

R2

como una medida de bon-

dad del ajuste para comparar modelos con un nmero diferente de regresores. O sea no podemos utilizar el coeciente de determinacin para eligir cuntos y cules regresores utilizar. Por esta razn, en el modelo de

k -variables

denimos el

R2 -corregido, R2

que es otra medida de bondad del ajuste del modelo. La idea es que corregimos el

de manera que si aadimos un regresor queremos que ste aumente slo si la nueva variable exgena es til para explicar la variable dependiente. Gracias a esta correccin

R2

nos permite comparar la bondad del ajuste en modelos con un nmero diferente

de regresores. Denimos el coeciente de determinacin corregido como

R2 = 1

n1 (1 R2 ) nk1

La correccin est en el denominador del segundo elemento a la derecha del igual. Cuando aadimos un regresor

k aumenta. Esto hace aumentar R2 . R2

n1 (1R2 ) y disminuir nk

R2

contrastando el efecto opuesto debido al aumento de A menudo la comparacin entre

de diferentes modelos se toma como criterio

de eleccin entre modelos. Para poder hacer esto, dos condiciones deben cumplirse: el tamao de la muestra debe ser el mismo y la variables dependiente debe ser la misma. Hay que hacer una advertencia aqu. El hecho de encontrar un

R2

bajo no

signica necesariamente que no podamos conar en los resultados obtenidos. sta es una situacin que ocurre a menudo en los trabajos empricos. Ms importante que alcanzar una alta proporcin de variabilidad explicada es poder obtener resultados conables para los contrastes de hiptesis para los parmetros del modelo de inters econmico.

2.3. Inferencia, el contraste F


Antes de empezar a estudiar el tema de la inferencia en el modelo de

k -variables nece-

sitamos repasar algunos resultados estadsticos preliminares para formas cuadrticas

50

y aadir un supuesto, como hemos en el capitulo anterior, al modelo. El supuesto es que el trmino de error se distribuye normalmente

S6'

El trmino de error se distribuye normalmente u N (0, 2 I)

Del supuesto anterior deriva otra propiedad del estimador MCO, o sea

P8'

tiene distribucin normal multivariante, N (, 2 (X X)1 ) x un vector k 1 de variables

Los resultados mencionados antes son los siguientes. Sea aleatorias. (i) Si

x N (0, )

entonces

x 1 x 2 k
(ii) Si

x N (0, I)

es una matriz simtrica y idempotente con rango

x Ax 2 r
En particular si

x N (0, 2 I) x Ax 2 r 2

Aplicando (i) y (ii) a nuestros estimadores obtenemos dos resultados muy importantes y clave para entender el contraste de hiptesis: 1) Desde la proprieded P4' sabemos que bajo las hiptesis del modelo Entonces

N (, 2 (X X)1 ).

N (0, 2 (X X)1 )
y por una matrix

cualquiera de rango mximo y dimensin

q (k + 1)

(con

q k + 1) R( ) N (0, R 2 (X X)1 R ).
Por el resultado (i) visto antes

(R( )) (R 2 (X X)1 R )1 (R( )) 2 q


51

(2.9)

2) Desde la proprieded P7' y desde el supuesto S5' sabemos que

u = Mu

u N (0, 2 I).

Entonces desde el resultado (ii)

uu u Mu = 2 nk1 2 2
3) Si ahora substituimos en (2.9) el estimador de la varianza del trmino de error visto antes obtenemos

(R( )) (R(X X)1 R )1 (R( ))


uu nk1
Si dividimos el numerador por

y multiplicamos y dividimos por

obtenemos

(R( )) (R(X X)1 R )1 (R( ))/q


2 u u 2 nk1
Podemos notar que esta expresin es el ratio entre dos variables dividida por sus grados de libertad. La primera es

(2.10)

cada una

(R( )) (R(X X)1 R )1 (R( ))/q 2


y la segunda es

uu 2 = 2, 2 (n k 1)
como hemos visto en el capitulo anterior, el ratio entre dos grados de libertad es una variable con distribucin variable

divididas por sus

F.

Entonces (2.10) es una

Fq,nk1

donde

son los grados de libertad del numerador y

nk1

los del denominador.

2.3.1. Contraste de hiptesis para restricciones lineales mltiples: el contraste de Wald


En este apartado explicaremos como hacer un contraste de hiptesis para restricciones lineales mltiples. Como en el modelo simple los ingredientes bsicos son una hiptesis nula y una alternativa, un estadstico de contraste y un criterio de rechazo

52

de la hiptesis nula. Empezamos explicando cmo podemos expresar en trminos formales una hiptesis nula que implique un conjunto de restricciones lineales sobre los parmetros del modelo. Sea de dimensin

una matriz de dimensin

q (k + 1)

y sea

un vector

q 1. Podemos expresar cualquier combinacin lineal de los parmetros

de la siguiente manera:

R = r
Supongamos por ejemplo que

k=3

y se considere el siguiente sistema de ecuaciones

lineales (restricciones lineales de los parmetros)

1 + 2 = 1 3 = 1
Este se puede expresar como

0 1 1 0 0 0 0

1 1 2

1 1

R = r

donde

0 1 1 0 0 0 0 1 1 1

R =

r =

Entonces especicaremos la hiptesis nula (H0 ) de la manera siguiente

H0 : R = r
y la alternativa como

H0 : R = r
Como estadstico de contraste utilizaremos el estadstico (). Bajo la hiptesis nula el estadstico es

(R r) (R(X X)1 R )1 (R r)/q


uu nk1
53

Fq,nk1

(2.11)

o sea una variable con distribucin

con

nk1

grados de libertad. (2.11)

se conoce cono contraste de Wald para restricciones lineales de los parmetros. El criterio de rechazo de la hiptesis nula es como el del captulo anterior. Utilizando nuestra muestra de datos y las restricciones implicadas por la hiptesis nula calculamos el valor para el estadstico de contraste es el valor crtico para la distribucin

F. q
y

Si

F > Fq,nk1, ,

donde

Fq,nk1,

con

nk1

grados de libertad, recha-

zamos la hiptesis nula al nivel de conanza

Si por lo contrario

F < Fq,nk1,

no

rechazamos la hiptesis. Otra vez la idea que est detrs del criterio de rechazo es la de establecer si bajo la hiptesis nula es probable o no observar lo que de hecho observamos en nuestra muestra de datos. Es muy importante entender el hecho de que cualquier decisin sobre la hiptesis nula es una decisin sobre todas las restricciones lineales contenidas en la hiptesis. O sea, si rechazamos la hiptesis nula rechazamos todas las restricciones conjuntamente.

Ejemplo 2.2 (cont) Utilizando los datos del ejercicio ()

1. Contrastar la siguiente hiptesis nula

H0 : 21 + 2 = 3

(2.12)

Primero necesitamos encontrar el estadstico de contraste 2.11. Empezamos deniendo

r. R = ( 0 2 1 0 ), = r = 3.

Entonces

11

R r = ( 0 2 1

7 0) 3 12

= 5

Podemos encontrar ahora

R(X X)1 R

3 6 2 4

2 2 4 3

R(X X)1 R

= (0 2 1

3 0) 2

4 2 3 1

54

= ( 4 10 0

2 5 ) 1

= 20

Juntando todas las piezas obtenemos

1 = (5) 20 (5) = 2,5 F 0,5


El valor crtico

5 % es F1,86 = 3,95, por lo tanto no rechazamos la hiptesis nula.

2. Contrastar la siguiente hiptesis nula

H0 :
En este caso

21 + 2 = 3 3 = 6 0 2 1 0 0 0 0 1

(2.13)

R =

3 r = 6
entonces

11

R r =

0 2 1 0 0 0 5 3

7 0 3 6 1 12

=
Adems

3 6

0 2

R(X X)1 R

0 2 1 0 0 0 0 20 5 5 4

3 1 2

2 4 1 0 0 0 2 4 3 4 3 4

0 1

55

Entonces el estadstico de contraste ser

( 5 3 )

20 5

5 4

5 3

= 7,8

que es mayor del valor crtico al hiptesis nula.

5%

o sea 3.1. Por lo tanto rechazamos la

2.3.2. Dos forma alternativa para contraste de hiptesis


Hay dos formas alternativas para el contraste de hiptesis. La primera se basa en la suma de los residuos al cuadrado en el modelo restringido. La segunda se basa en el

R2

del modelo restringido. Vamos primero a aclarar el concepto de modelo restringido

y despus a estudiar estas dos formas alternativas para el contraste de hiptesis. Se considere el siguiente modelo

yi = 0 + 1 xi1 + 2 xi2 + 3 xi3 + ui


y la siguiente hiptesis

H0 :

1 = 0 2 = 1

(2.14)

Nos preguntamos cul es el modelo bajo esta hiptesis? Simplemente es el modelo donde las restricciones anteriores se cumplen. En este caso el modelo restringido es

yi = 0 + xi1 + 3 xi3 + ui
Cmo podemos estimar los parmetros de este modelo? Podemos escribir la ecuacin anterior como

yi xi1 = 0 + 3 xi3 + ui
yi = 0 + 3 xi3 + ui
Considerando

yi = yi xi1

como nueva variable dependiente, podemos utilizar MCO

para estimar los parmetros del modelo. En particular obtenemos

3 =

n i=1 (yi y )(xi3 n 2 i=1 (xi3 x3 )

x3 )

0 = y 3 x3 ,

56

Una vez obtenidas las estimaciones podemos calcular la suma de los residuos al cuadrado

SCRr =

n i=1

u2 ri

con

uri = yi 3 xi3

(el ndice

se reere al modelo restringido).

Con estas deniciones podemos utilizar el siguiente estadstico de contraste

(SCRr SCR)/q Fq,nk1 SCR/(n k 1)


o, utilizando sus deniciones,

(2.15)

(ur ur u u)/q Fq,nk1 u u/(n k 1)


Otra vez si el estadstico es mayor que el valor crtico rechazamos la

(2.16)

H0 .

En general

podemos contrastar una hiptesis nula cualquiera utilizando el estadstico (2.15). La clave es poder escribir el modelo restringido y calcular la suma de los residuos al cuadrado. Es importante saber que el estadstico (2.15) es equivalente al estadstico (2.11), en el sentido que los nmeros calculados en los dos casos coinciden. Otra forma alternativa para el contraste de hiptesis se basa en los coecientes de determinacin del modelo restringido y no restringido. Este tipo de estadstico de contraste slo se puede utilizar en el caso en que las variables dependientes coincidan en los dos modelos. Considerese (2.16). Si dividimos y multiplicamos por la suma total de cuadrados

y y n2 y

obtenemos

uu ( ur ury2 y yn2 )/q (ur ur u u)/q y = y yn uu u u/(n k 1) /(n k 1) y yn2 y


Desde la denicin de coeciente de determinacin donde

uu y yn2 y

= 1R2 y

ur ur y yn2 y

2 = 1Rr

2 Rr

es el coeciente de determinacin en el modelo restringido. Entonces

2 (ur ur u u)/q (1 Rr 1 + R2 )/q = u u/(n k 1) (1 R2 )/(n k 1) 2 (R2 Rr )/q = Fq,nk1 (1 R2 )/(n k 1)

(2.17)

(2.17) es la segunda forma alternativa para contraste de hiptesis. La expresin (2.17) pone en evidencia porque para poder utilizar este contraste necesitamos que la variable dependiente sea la misma en los dos modelos. Para llegar a esta expresin

57

necesitamos poder interpretar

ur ur como uno menos el coeciente de determinay yn2 y

cin en el modelo restringido. Esto es el caso slo si totales o sea si

y y n2 y

es la suma de cuadrados

es la variable dependiente en el modelo restringido tambin. Esto

signica que este estadistico no se puede utilizar para contrastar la hiptesis nula (2.14) ya que, bajo esta hiptesis, la variable dependiente es

yi = yi xi1 = yi .

Ejemplo 2.1 (cont.). En el modelo utilizado anteriormente hemos obtenido las

siguientes estimaciones:

log(salarioi ) = 0,216 + 0,097educ + 0,010exper


com

SCR = 111,345

2 Rr = 0,24934.

Si excluimos

exper

del modelo y volvemos a

estimar obtenemos

log(salarioi ) = 0,583 + 0,082educ


y la suma de residuos al cuadrado es

SCRr = 120,769

R2 = 0,18581.
utilizando (2.16) y (2.17).

1. Contrastar al 5 % la hiptesis nula Utilizando (2.16) obtenemos

H0 : 2 = 0

(120,769 111,345)/1 = 43,92 111,345/519


y rechazamos la hiptesis nula porque este valor es mayor que el valor crtico al 5%

F1,524 = 3,86.

Utilizando (2.17) obtenemos

(0,24934 0,18581)/1 = 43,92 (1 0,24934)/519


2. Contrastar la hiptesis nula

H0 : 2 = 3 = 0. Contrastar esta hiptesis implica

contrastar que todos los coecientes del modelo no sean signicativos. Bajo esta restriccin el modelo es un modelo con solo constante y trmino de error. El

R2

de este modelo restringido es cero. Entonces podemos utilizar (2.17) con Asi obtenemos

2 Rr = 0.

R2 /q 0,24934/1 = = 172,39 2 )/(n k 1) (1 R (1 0,24934)/519


58

que es mayor que el valor crtico al 5 % y por lo tanto rechazamos la hiptesis nula.

2.3.3. La relacin entre contraste t y F


Hemos visto que con el estadstico

podemos contrastar cualquier restriccin lineal

sobre los parmetros del modelo. En particular este contraste se puede utilizar para contrastar

H0 : i = i0 .

En el captulo anterior hemos visto que para contrastar esta

hiptesis podamos utilizar el contraste

t.

Entonces en el modelo de

k -variables

cul

estadstico tenemos que utilizar? La respuesta es que podemos utilizar cualquiera de

2 los dos porque existe una relacin que nos dice que tnk1
la hiptesis nula

= F1,nk1 . Para contrastar t


con

H0 : i = i0

podemos emplear el estadstico

nk1 H0 )
si

grados de libertad o el estadstico

F1,nk1 .

El resultado (rechazar o no rechazar

ser exactamente igual en los dos contraste. Ntese que en el caso de utilizamos el contraste anterior si no parmetros.

k -variables

los grados de libertad no sern

n2

como en el captulo

nk1

o sea el nmero de observaciones menos el nmero total de

59

Ejercicios
(1) Volvemos a considerar el modelo del ejercicio (2) en el precedente capitulo

price = 0 + 1 assess + u
donde

price

es el precio de la vivienda y

assess

es la valoracin de la vivienda y

antes de la venta, la valoracin es racional si estimada es

1 = 1

0 = 0.

La ecuacin

price = 14,47 + 0, 976assess n = 88, SCR = 165644,51, R2 = 0, 820


donde (2.18)

16,27

es la desviacin tpica de

0,049

es la desviacin tpica de

1 .

(a) Para contrastar la hiptesis conjunta de

0 = 0

1 = 1 ,

necesitamos la

la suma de los cuadrados de los residuos del modelo restringido (SCRr ). El resultado es

SCRr = 209448,99.

Llevar a cabo el contraste al 5 % de la

hiptesis conjunta con un test F (al 5 % en este modelo restringido?

F(2,86) = 3,1).

Cul es el residuo

Ahora extendemos el modelo de la siguiente manera

price = 0 + 1 assess + 2 sqrf t + 3 bdrms + u


donde la variable

sqrf t

es el nmero de metros cuadrados de la casa y

bdrms

el nmero de habitaciones. El muestra de 88 casas es 0,829.

R2

de la estimacin de este modelo usando la

(c) Con MCO encontramos tar esto valores. (d) Contrastar al 5 % (e) Contrastar al 5 %

1 = 0,95

2 = 0,0048

2 = 11,83

. Interpre-

H0 : 1 = 0, 2 = 0, 3 = 0 H0 : 2 = 0, 3 = 0
60 (al 5 %

(al 5 %

F(3,84) = 2,71)

F(2,84) = 3,105).

(f ) Podemos, sabiendo que bajo la esta

H0 : 1 = 1, 2 = 0 el R2

es

0,7, contrastar

H0 ?.

(2) Considerar el siguiente modelo de regresin

Y = X + u
donde

es una matriz

80 4,

es un vector

4 1, Y

son vectores

80 1.

Supongamos que

3 6 2 4

2 2 4 3

(X X)1 =

3 2

4 3

(X Y )1 =

2 1

y adems

Y Y = 80. F
al

(a) Contrastar con test

5%

la hiptesis nula

H0 :
sabiendo que el valor crtico al (b) Contrastar con test

1 + 2 = 1 3 = 1
es

5%

F(2,86) = 3,1.

al

5%

la hiptesis nula

H0 :

1 = 0 2 = 0 3 = 0 F(3,86) = 2,71.
Contrastar al 5 % la hiptesis

sabiendo que el valor crtico al (c) Del ejercicio 2.2 sabemos que nula en (b).

5%

es

R2 = 0,49.

(3) Considerar el siguiente modelo de regresin lineal

Yi = 0 + 1 Xi + ui
61

donde se conocen las siguientes cantidades:

Xi = 37,2

Xi2 = 147,18

Yi = 75,50

Yi2 = 597,03

Yi Xi = 295,95, N = 10.

a) Estimar

0 , 1

utilizando el estimador de mnimos cuadrados.

b) Calcular y interpretar el

R2

de la regresin.

c) Contrastar al 5 % la hiptesis que la pendiente de la recta de regresin sea igual a cero.

Valore crticos :
t0,025,8 = 2,28, t0,025,702 = 1,96, F2,702 = 3,01, F3,702 = 2,62
(4) Considerar el siguiente modelo

yi = 0 + 1 xi1 + ui .
Supongamos de aadir otro regresor efecto sobre la varianza de

xi2

correlacionado con

xi1 .

Cual ser el

1 ?.

(5) Demostrar la propiedad P4'.

62

Aplicaciones con GRETL


(1) Ejercicio 4.12 Wooldridge. (2) Ejercicio 4.17 Wooldridge.

(3) Ejercicio 4.19 Wooldridge.

63

Captulo 3 Extensiones
3.1. Errores de Especicacin
El trmino

error de especicacin

se reere al caso en que cometemos un error en la

decisin sobre cuales variables hay que incluir en el modelo. Veremos dos casos: el primero en que en que incluimos una variable irrelevante y el segundo en que omitimos una variable relevante.

3.1.1. Inclusin de una variable irrelevante


Supongamos que nuestro modelo de regresin sea

yi = 0 + 1 xi1 + ui
pero aadimos la variable nuestro modelo como

x2

que no tiene ningn efecto sobre

y especicamos

yi = 0 + 1 xi1 + 2 xi2 + ui
Cules son las consecuencias? No muchas. Simplemente obtendremos una estimacin de

que tendra que acercarse al cero, ya que su valor medio en muestras repetidas

ser igual a cero. Esto deriva del hecho que los estimadores siguen insesgados porque no hay ninguna violacin de los supuestos del modelo. Sin embargo, hay alguna

64

implicacin sobre la precisin de las estimaciones. Desde el primer captulo sabemos que la varianza de

es

V ar(1 ) =
donde y

2 n 2 2 i=1 (xi1 x1 ) (1 R1 ) x1
sobre

(3.1)

2 R1

es el coeciente de determinacin de de la regresin de

x2 .

Si

x1

x2

estn correlacionadas,

2 R1 > 0

y esto implica una varianza para

mayor que

en el caso en que el modelo fuese bien especicado. Entonces, aunque los estimadores siguen insesgados, la varianza de los estimadores ser mayor si las variables estn correlacionadas, o sea tendremos menor precisin de la estimacin.

3.1.2. Omisin de una variable relevante


Las consecuencias de excluir variables relevantes son mas graves porque crea sesgo en los estimadores MCO. Supongamos ahora que el modelo de regresin correctamente especicado sea

yi = 0 + 1 xi1 + 2 xi2 + ui
y que cometemos un error: excluimos del modelo

x2

y consideramos el modelo

yi = 0 + 1 xi1 + ui
Podemos verlo formalmente. Se considere el estimador MCO de

en el modelo sin

x2 1 =

n i=1 (xi1 x1 )(yi n i=1 (xi1 x1 )

yi )

substituyendo i con el veradero modelo obtenemos

1 =

x1 )(1 xi1 + 2 xi2 + ui ) n 2 i=1 (xi 1 x1 ) n n (xi1 x1 )xi2 i=1 (xi1 x1 )xi1 = 1 n + 2 i=1 + n 2 2 i=1 (xi 1 x1 ) i=1 (xi 1 x1 ) n n (xi1 x1 )xi2 (xi1 x1 )ui = 1 + 2 i=1 + i=1 n n 2 2 i=1 (xi 1 x1 ) i=1 (xi 1 x1 )

n i=1 (xi1

n i=1 (xi1 x1 )ui n 2 i=1 (xi 1 x1 )


(3.2)

65

Si tomamos el valor esperado obtenemos

E(1 ) = 1 + 2

n i=1 (xi1 x1 )xi2 n 2 i=1 (xi 1 x1 )

(3.3)

o sea el estimador es sesgado y el sesgo depende de la correlacin muestral entre las dos variables independientes.

3.2. Estimacin Bajo Restricciones


A veces la teora econmica nos proporciona restricciones sobre los parmetros del modelo. Por ejemplo, podemos pensar en los rendimientos de escala en una funcin de produccin que queremos suponer constantes. En esta seccin estudiaremos como estimar el modelo de regresin bajo restricciones lineales sobre los parmetros, o sea estudiaremos el mtodo de Mnimos Cuadrados Restringidos. Empezamos estableciendo un conjunto de siguiente modelo

restricciones entre los parmetros del

yi = 0 + 1 xi1 + ... + k xik + ui


donde

q<k

y que estas restricciones se pueden expresar, como hemos visto ya en el

contraste de hiptesis, como estas restricciones. Sean

R = r. El objetivo es de estimar el modelo anterior bajo

ur

los residuos del modelo. Utilizando el mtodo de mnimos

cuadrados queremos encontrar el estimador que minimiza

ur ur = y y + X X

2 X y y que al mismo tiempo satisface R = r donde es el estimador de Mnimos


Cuadrados Restringido de

Formalmente escogemos el estimador que soluciona el

siguiente problema de minimizacin

m n

s.a.

y y + X X 2 X y R = r

Solucionando este problema obtenemos

= + (X X)1 R (R(X X)1 R )1 (r R)


66

donde

es el estimador MCO. Su varianza es

V ar( ) = 2 (X X)1 (X X)1 R (R(X X)1 R )1 R(X X)1


y se puede demostrar que esta varianza es menor que la varianza del

Vamos a ver

ahora formalmente que el test de Wald visto antes coincide con la forma alternativa basada en la suma de los cuadrados del modelo restringido.

ur = y X = y X X( ) = u X(X X)1 R (R(X X)1 R )1 (R r)


entonces

ur ur = u u + (R r) R(X X)1 (R r)
y

ur ur u u = (R r) R(X X)1 (R r)
que es el numerador del estadstico de contraste (2.9).

67

Ejercicios
(1) Supongamos que el verdadero modelo de regresin sea

yi = 0 + 1 xi1 + 2 xi2 + ui
y cometemos un error de especicacin y estimamos el modelo sin

x2

yi = 0 + 1 xi1 + ui
Demostrar que si la correlacin entre

x1 y x2 es positiva entonces el sesgo E(1 ) 2 < 0.

es positivo si

2 > 0

y negativo si

68

Apndices
A.1 GRETL
GRETL (http://gretl.sourceforge.net/win32/) es un programa de econometra que se puede bajar gratis desde internet. Est instalado en las aulas de informtica 2122-23. Podis bajar el programa e instalarlo en vuestro ordenador privado. Funciona con Windows, Mac, y Linux. Est disponible en varios idiomas incluyendo el espaol. GRETL ya tiene instalada varias bases de datos. En la misma pgina podis bajar e instalar en GRETL otras bases de datos como Wooldridge, de la cual hemos utilizado algunos archivos en esta gua, o Stock y Watson. El programa es relativamente fcil de utilizar. En el programa hay una gua de usuario muy til que introduce el uso del programa. En esta mini-gua veremos algunos ejemplos sencillos de aplicaciones de los conceptos tericos que hemos visto.

Datos
La gura 4 muestra la pantalla principal de GRETL una vez abierto el programa. Para poder cargar una base de datos en GRETL tenemos que, como se ve en gura 5, seleccionar en el men

File, Open data, Sample file.

La gura 6 muestra la

pantalla con todas las bases de datos que hay disponibles en GRTL. Como ejemplo, seleccionamos

Wooldride, wage1

que es el archivo que hemos utilizado en el cap-

69

Figura 4

tulo 1. La gura 7 muestra una nueva pantalla con todas las variables contenidas en el chero y sus descripciones. Podemos observar como ahora (gura 8) se activan

opcciones en el men que antes eran disponibles. Por ejemplo, seleccionando

Datos

tenemos varias opcciones que, entre otras cosas, nos permiten crear nuevas variables o hacer transformaciones de las variables existentes en el chero. En particular, la primera opcin es la de crear una variable denida como el logaritmo de la variable en negrita que hemos seleccionada en la pantalla principal.

70

Figura 5

71

Figura 6

72

Figura 7

73

Figura 8

74

Figura 9

MCO
Vamos a ver ahora como estimar un modelo de regresin con MCO. Si volvemos a la pantalla principal podemos observar que en el men de la parte baja de la pantalla tenemos un

sta es la instruccin que nos permite estimar un modelo de

regresin con MCO. Si seleccionamos este comando se abre otra pantalla (gura 10). En esta nueva pantalla tenemos que seleccionar la variable dependiente (en la parte alta) y las variables independiente (en la parte baja). En este ejemplo seleccionamos

75

wage

como variable dependiente y

const

(el trmino constante) y

educ

como varia-

bles independientes. Una vez seleccionado

ok

GRETL estima con MCO el modelo y

nos proporciona la tabla de resultados que vemos en gura 11. En esta tabla tenemos: 1) las estimaciones en la columna rmetros en la columna la hiptesis nula

coefficient.

2) las desviaciones tpicas de los pa-

std. error

. 3) El valor de los estadisticos de contraste para

H0 : i = 0

en la columna

t-ratio

y 4) los valores p en la ltima

columna. Adems GRETL nos proporcina otros resultados como el

R2

o el

R2 .

En la gura 12 podemos ver los resultados de la estimacin si repetimos el procedimiento visto antes pero aadiendo otro regresor

exper.

Utilizamos ahora estas

nuevas estimaciones para ver como contrastar la hiptesis nula el men de la pantalla de los resultados hay una opcin que es

H0 : 1 + 2 = 0.

En

tests.

Si selecciona-

mos esta oppcion vemos (gura 13) que hay varias sub-opcciones entre las cuales hay

linear restrictions.

Seleccionando tal opccion se abre otra pgina (gure 14) en

la que hay que escribir cual hiptesis nula queremos contrastar. Una vez declarada la hiptesis nula seleccionamos

ok

y obtenemos, gura 15, los resultados del contraste.

GRETL nos proporciona el valor del estadistico de contraste

(en este caso igual a

123,858)

y el valor-p correspondiente.

76

Figura 10

77

Figura 11

78

Figura 12

79

Figura 13

80

Figura 14

81

Figura 15

82

A.2 Exmenes

83

Examen Econometra (PUE) Diciembre 2007

1. El siguiente modelo es una versin simplicada del modelo utilizado por Biddle

y Hamermesh (1990) para estudiar el trabajar:

trade o

entre tiempo dedicado a dormir y a

sleep = 0 + 1 totwork + 2 educ + 3 age + u


donde na y

sleep
y

totwork

son el tiempo (en minutos) dormido y trabajado por sema-

educ

age

son respectivamente educacin y edad (en aos). Utilizando

706

observaciones se obtienen las siguientes estimaciones

sleep = 3638,25 0,148totwork 11,13educ + 2,20age R2 = 0,113


a) Se interpreten desde un punto de vista cuantitativo todos y cada uno de los coecientes estimados. b) Si alguien trabaja cinco horas mas por semana, de cuanto cambia modelo estimado? c) Que mide

sleep

segn el

R2 ?

Cual es la interpretacin de este valor en este caso concreto?

d) Suponiendo que

(sleepi sleep)2 N k

= 445,3620 (k =

nmero de variables), estimar

la desviacin tpica de los errores de regresin utilizando un estimador insesgado.

Sean

112,28, 0,017, 5,88, 1,45 las desviaciones tpicas de 0 , 1 , 2 , 3

respectivamente.

e) Contrastar al 5 % la hiptesis nula de que cada uno de los coecientes sean separadamente iguales a cero. f ) Contrastar al 5 % la hiptesis nula de que un minuto mas trabajado corresponde a un minuto menos dormido. g) Contrastar al 5 % la hiptesis nula de que los coecientes juntamente.

1 , 2 , 3

sean cero con-

84

Supongamos ahora que sacamos da

educ

age

de nuestro modelo. La estimacin nos

sleep = 3638,38 0,151totwork R2 = 0,103


h) El hecho de incluir y dormir? i) Podra ser

age y educ cambia substancialmente la relacin entre trabajar

R2

en este caso mayor del que hemos obtenido en la estimacin ante-

rior? Por que? l) Contrastar al 5 % la hiptesis nula de que a cero.

age

educ

sean conjuntamente iguales

2. Considere el siguiente modelo de regresin lineal

Yi = 0 + 1 Xi + ui
donde se conocen las siguientes cantidades:

Xi = 37,2

Xi2 = 147,18

Yi =

75,50

Yi2 = 597,03 0 , 1

Yi Xi = 295,95, N = 10.

a) Estimar

utilizando el estimador de mnimos cuadrados.

b) Calcular y interpretar el

R2

de la regresin.

c) Contrastar al 5 % la hiptesis que la pendiente de la recta de regresin sea igual a cero.

Valore crticos :
t0,025,8 = 2,28, t0,025,702 = 1,96, F2,702 = 3,01, F3,702 = 2,62

85

Examen Econometra (PUE) Septiembre 2008

La siguiente ecuacin describe el precio (

price )

de las viviendas medido en miles de

dlares en trminos de los pies cuadrados de construccin ( habitaciones (

sqrft )

y del nmero de

bdrms )
price = 0 + 1 sqrf t + 2 bdrms + u

Se satisfacen todos los supuestos del modelo de regresin lineal que hemos estudiado en clase. Usando los datos se obtiene la siguiente ecuacin por MCO:

price = 19,315 + 0,128436sqrf t + 15,1982bdrms + u,


(i) Cul es la interpretacin de

n = 88,

R2 = 0,631918

1 = 0,128436?

(ii) Qu porcentaje de la variacin en el precio de una casa se explica por la supercie y el nmero de habitaciones? (iii) La desviacin tpica de

es 0.0138245. Contrastar al 5 % hiptesis nula

H0 : 1 = 1.
(iv) Contrastar al 5 % hiptesis nula

H0 :

1 = 0 2 = 0

Ahora especicamos el precio de las casas y la supercie en logaritmos. Utilizando los datos se obtiene la siguiente ecuacin por MCO:

log(price) = 0,623398 + 0,808254log(sqrf t) + 0,0381107bdrms + u, n = 88, R2 = 0,561136


(v) Cul es el aumento estimado en el precio de una casa cuando se aade una habitacin adicional, manteniendo constantes los pies cuadrados?

86

(vi) Cul es ahora la interpretacin de

1 = 0,808254?

Aadimos ahora otras dos variables, y se considere el siguiente modelo

log(price) = 0 + 1 log(sqrf t) + 2 bdrms + 3 log(assess) + 4 log(lotsize) + u


donde

assess

es la tasacin de la casa antes de la venta y

lotsize

es el tamao del

solar. Usando los datos se obtiene la siguiente ecuacin por MCO:

log(price) = 0,263745 0,103239log(sqrf t) + 0,0338392bdrms + ... 1,04306log(assess) + +0,00743824log(lotsize) + u, n = 88, R2 = 0,772809


(vii) Contrastar al 5 % la hiptesis nula de que los coecientes de (3.4)

log(assess)

log(lotsize)

sean conjuntamente iguales a cero.

(viii) En el modelo siguiente

log(price) log(assess) = 0 + u
la suma de los residuos al cuadrados es SCR=1.880. En el modelo (1) la SCR=1.822. Contrastar la hiptesis nula

H0 :

1 = 0 2 = 0 3 = 1 4 = 0

Valores crticos:

t0,025,85 = 1,98, F2,85 = 3,1, F2,83 = 3,11, F4,83 = 2,48

87

Examen Econometra I (PUE) Diciembre 2008

Consideremos el siguiente modelo para comparar el rendimiento de la educacin en escuelas de formacin profesional y en universidades.

log(wage) = + 1 jc + 2 univ + u
donde

(3.5)

wage

es el salario por hora,

jc

es el nmero de aos como estudiante en una es el nmero de aos en una universidad.

escuela de formacin profesional y

univ

Utilizando los datos de Kane y Rouse (1995), obtenemos la siguiente estimacin:

log(wage) = 2,091 + 0,070jc + 0,069univ,

n = 6763, R2 = 0,109, SCR = 1432,93.

(i) Cual es la interpretacin de

1 = 0,070

2 = 0,069?

(ii) Cual es el valor predicho de

log(wage)

para un individuo con cuatro aos de

estudios universitarios y sin estudios en escuela de formacin profesional?

(iii) Qu porcentaje de la variacin en el logaritmo del salario se explica por las variables independientes incluidas en el modelo?

(iv) La desviacin tpica de

es 0.0024. Contrastar al 5 % la hiptesis nula de que

la educacin universitaria no es importantes para explicar el logaritmo del salario (H0

: 2 = 0).

(v) Contrastar al 5 % la hiptesis nula de que los coecientes conjuntamente.

sean cero

Ahora aadimos al modelo la variable

exper
88

que mide la experiencia acumulada en

el trabajo

log(wage) = + 1 jc + 2 univ + 3 exper + u.


Con los datos se obtiene la siguiente estimacin:

(3.6)

log(wage) = 1,472 + 0,0667jc + 0,0769univ + 0,0049exper n = 6763, SCR = 1250,54.


(vi) Puede ser

R2

en este caso menor que

0,109?Por

qu?

(vii) Contrastar al 5 % la hiptesis nula de que la experiencia no es importante para explicar el logaritmo del salario (H0

: 3 = 0).

(viii) La hiptesis nula

H0 : 1 = 2

es muy interesante porque bajo esta hipte-

sis un ao adicional en una escuela de formacin profesional o en una universidad conducen al mismo aumento porcentual en el salario cuando son constantes todos los dems factores. Esto nos permite comparar el rendimiento de diferentes tipos de educacin. Sabiendo que

(R(X X)1 R )1 = 3846

contrastar dicha

H0

al 5 %.

(ix) Sea

= 1 2

y sea

totcol = jc + univ .

Mostrar que el modelo (2) se pue-

de escribir como

log(wage) = + jc + 2 totcol + 3 exper + u


y explicar un procedimiento para contrastar la hiptesis nula modelo.

(3.7)

H0 : 1 = 2

en este

Valores crticos:

t0,025,6760 = 1,96, F2,6760 = 2,99, F1,6759 = 3,84284.

89

Bibliograa
1. Greene, W. (1998), Anlisis Economtrico, Macmillan Publishing Company, New York.

2. Gujarati, D. (2003), Econometra, Ed. McGraw-Hill 4.a edicin.

3. Johnston, J y DiNardo, J. (2001), Mtodos de Econometra, Ed. Vicens-Vives 3.a edicin.

4. Stock, J.H. y M.W. Watson (2003): Introduction to Econometrics. Pearson Education, International Edition

5. Wooldridge, J.M. (2006), Introduccin a la Econometra: un Enfoque Moderno. Paraninfo Thompson Learning, 2

Ed.

90

You might also like