You are on page 1of 27

Modelo de regresin lineal simple

1 Introduccin
Con frecuencia, nos encontramos en economa con modelos en los que el
comportamiento de una variable, Y, se puede explicar a travs de una variable X;
lo que representamos mediante

Y = f (X ) (1)
Si consideramos que la relacin f, que liga Y con X, es lineal, entonces (1)
se puede escribir as:

Yt = 1 + 2 X t (2)
Como quiera que las relaciones del tipo anterior raramente son exactas,
sino que ms bien son aproximaciones en las que se han omitido muchas variables
de importancia secundaria, debemos incluir un trmino de perturbacin aleatoria,
ut , que refleja todos los factores distintos de X -que influyen sobre la variable
endgena, pero que ninguno de ellos es relevante individualmente. Con ello, la
relacin quedara de la siguiente forma:

Modelo de regresin simple

Yt = 1 + 2 X t + ut (3)

La expresin anterior refleja una relacin lineal, y en ella slo figura una
nica variable explicativa, recibiendo el nombre de relacin lineal simple. El
calificativo de simple se debe a que solamente hay una variable explicativa.
Supongamos ahora que disponemos de T observaciones de la variable Y
( Y1 , Y2 , , YT ) y de las correspondientes observaciones de X ( X 1 , X 2 , , X T ). Si
hacemos extensiva (3) a la relacin entre observaciones, tendremos el siguiente
conjunto de T ecuaciones:

Y1 = 1 + 2 X 1 + u1
Y2 = 1 + 2 X 2 + u2
(4)

YT = 1 + 2 X T + uT
El sistema de ecuaciones (4) se puede escribir abreviadamente de la forma
siguiente:

Yt = 1 + 2 X t + ut t = 1, 2, , T (5)

I-1
El objetivo principal de la regresin es la determinacin o estimacin de
1 y 2 a partir de la informacin contenida en las observaciones de que
disponemos. Esta estimacin se puede llevar a cabo mediante diversos
procedimientos. A continuacin se analizan en detalle algunos de los mtodos
posibles.
Interesa, en primer lugar, realizar una aproximacin intuitiva a diferentes
criterios de ajuste. Para ello se utiliza la representacin grfica de las
observaciones ( X t , Yt ), con t = 1, 2,..., T. Si la relacin lineal de dependencia
entre Y y X fuera exacta, las observaciones se situaran a lo largo de una recta
(vase la figura 1). En ese caso, las estimaciones ms adecuadas de 1 y 2 de
hecho, los verdaderos valores seran, respectivamente, la ordenada en el origen
y la pendiente de dicha recta.

Figura 1

Pero si la dependencia entre Y y X es estocstica, entonces, en general, las


observaciones no se alinearn a lo largo de una recta, sino que formarn una nube
de puntos, como aparece en la figura 2. En ese caso, podemos contemplar las
estimaciones de 1 y 2 como la ordenada en el origen y la pendiente de una
recta prxima a los puntos. As, si designamos mediante 1 y 2 las estimaciones
de 1 y 2 , respectivamente, la ordenada de la recta para el valor X t vendr
dada por

Yt = 1 + 2 X t (6)

El problema que tenemos planteado es, pues, hallar unos estimadores 1 y


2 tales que la recta que pasa por los puntos ( X t , Yt ) se ajuste lo mejor posible a
los puntos ( X t , Yt ). Se denomina error o residuo a la diferencia entre el valor
observado de la variable endgena y el valor ajustado, es decir,

I-2
ut = Yt Yt = Yt 1 2 X t (7)
Teniendo en cuenta el concepto de residuo se analizan a continuacin
diversos criterios de ajuste.

Figura 2

Un primer criterio consistira en tomar como estimadores 1 y 2


aquellos valores que hagan la suma de todos los residuos tan prxima a cero como
sea posible. Con este criterio la expresin a minimizar sera la siguiente:

u
t =1
t (8)

El problema fundamental de este mtodo de estimacin radica en que los


residuos de distinto signo pueden compensarse. Tal situacin puede observarse
grficamente en la figura 3, en la que se representan tres observaciones alineadas,
( X 1 , Y1 ), ( X 2 , Y2 ) y ( X 3 , Y3 ), tales que

Y2 Y1 Y Y
= 3 1 .
X 2 X1 X 3 X1

Si se ajusta una recta que pase por los tres puntos, cada uno de los residuos
tomar el valor cero, de forma que
T

u
t =1
t =0

Dicho ajuste se podra considerar ptimo. Pero tambin es posible que

3
u = 0 haciendo girar en cualquier sentido la recta si dejamos fijo ( X 2 , Y2 ),
t =1 t

como muestra la figura 2, debido a que u3 = u1 . Este sencillo ejemplo nos


muestra que este criterio no es apropiado para la estimacin de 1 y 2 , debido a

I-3
que, para cualquier conjunto de observaciones, existen infinitas rectas que lo
satisfacen. Otra forma de evitar la compensacin de residuos positivos con
negativos consiste en tomar los valores absolutos de los residuos. En este caso se
minimizara la siguiente expresin:

u
t =1
t (9)

Figura 3

Desgraciadamente, aunque los estimadores as obtenidos tienen algunas


propiedades interesantes, su clculo es complicado, requiriendo la resolucin de
un problema de programacin lineal o la aplicacin de un procedimiento de
clculo iterativo. Un tercer mtodo consiste en minimizar la suma de los
cuadrados de los residuos, es decir,

T
S = ut2 (10)
t =1

Los estimadores obtenidos con arreglo al criterio expresado en (10) se


denominan mnimo-cuadrticos, y gozan de ciertas propiedades estadsticas
deseables, que se estudian posteriormente. Por otra parte, frente al primero de los
criterios examinados, al tomar los cuadrados de los residuos se evita la
compensacin de stos, mientras que, a diferencia del segundo de los criterios, los
estimadores mnimo-cuadrticos son sencillos de obtener. Es importante sealar
que, desde el momento en que tomamos los cuadrados de los residuos, estamos
penalizando ms que proporcionalmente a los residuos grandes frente a los
pequeos (si un residuo es el doble que otro, su cuadrado ser cuatro veces
mayor), lo que caracteriza tambin a la estimacin mnimo-cuadrtica frente a
otros posibles mtodos.

I-4
2. Obtencin de los estimadores mnimo-cuadrticos
A continuacin se expone el proceso para la obtencin por mnimos
cuadrados de los estimadores 1 y 2 . El objetivo es minimizar la suma de los
cuadrados de los residuos (S). Para ello, en primer lugar expresamos S en funcin
de los estimadores 1 y 2 :

T
S = (Yt 1 2 X t ) 2 (11)
t =1

Para minimizar S, derivamos parcialmente respecto a 1 y 2 :

S T
= 2 (Yt 1 2 X t )
1 t =1

S T
= 2 (Yt 1 2 X t )X t (12)
1 t =1

Los estimadores mnimo-cuadrticos se obtienen igualando las anteriores


derivadas a cero:
T
2 (Yt 1 2 X t ) = 0
t =1

T
2 (Yt 1 2 X t )X t = 0 (13)
t =1

Operando, se tiene que


T T

Y
t =1
t = 1T + 2 X t
t =1

T T T

Y X
t =1
t t = 1 X t + 2 X t2
t =1 t =1
(14)

Las ecuaciones (14) se denominan ecuaciones normales de la recta de


regresin. Resolviendo este sistema, segn puede verse en el recuadro adjunto, a
partir de (21) se obtiene de forma inmediata el estimador de 2 :

(Y Y )( X
t t X)
2 = t =1
T (15)
( X t X )2
t =1

I-5
Resolucin del sistema de ecuaciones (14)

Dividiendo la primera ecuacin normal en (14) por T se obtiene:

Y = 1 + 2 X (16)
donde
T T

Yt X t
Y = t =1
X= t =1

T T
De acuerdo con la anterior expresin se obtiene

1 = Y 2 X (17)

Sustituyendo 1 en la segunda ecuacin normal (14) se tienen que


T T T

Y X
t =1
t t = (Y 2 X ) X t + 2 X t2
t =1 t =1
(18)
X2 X X
T T T T


t =1
Yt X t Y
t =1
X t = 2
t =1
t
t =1
t

Por otra parte,
T T

(Y Y )( X
t =1
t t X ) = (Yt X t XYt YX t + YX )
t =1
T T T
= Yt X t Y X t X Yt + TYX =
t =1 t =1 t =1
T T
(19)
= Yt X t Y X t XTY + TYX
t =1 t =1
T T
= Yt X t Y X t
t =1 t =1
T T

(X
t =1
t X ) 2 = (X t2 2 XX t + X 2 )
t =1
T T T T T
= X t2 2 X X t + TX 2 = X t2 2 X X t + X X t (20)
t =1 t =1 t =1 t =1 t =1
T T
= X t2 X X t
t =1 t =1

Teniendo en cuenta (19) y (20), entonces (18) se puede expresar as:

( X X )2
T T


t =1
(Yt Y )( X t X ) = 2
t =1
t

(21)

I-6
A su vez 1 se obtiene a travs de la relacin (17). Es decir,

1 = Y 2 X (22)
Dividiendo numerador y denominador (15) por T se tiene que

(Y Y )( X
t =1
t t X)

T cov( X , Y )
2 = T
= (23)
var( X )
(X
t =1
t X) 2

T
De acuerdo con (23), la estimacin de 2 se obtiene dividiendo la
covarianza muestral de X e Y por la varianza muestral de X. Dado que la varianza
de X no puede ser negativa, el signo de 2 ser el mismo que el de la covarianza
muestral de X e Y.

3. Propiedades descriptivas en la regresin lineal simple


Las propiedades que se exponen a continuacin son propiedades derivadas
exclusivamente de la aplicacin del mtodo de estimacin por mnimos cuadrados
al modelo de regresin lineal simple, en el que se incluye como primer regresor el
trmino independiente.
1. La suma de los residuos mnimo-cuadrticos es igual a cero:

u
t =1
t =0 (24)

Demostracin.
Por definicin de residuo

ut = Yt Yt = Yt 1 2 X t t = 1, 2, ,T (25)
Si sumamos para las T observaciones, se obtiene:

T T T T T

ut = Yt Yt = Yt 1T 2 X t
t =1 t =1 t =1 t =1 t =1
(26)

Por otra parte, la primera ecuacin del sistema de ecuaciones normales


(14) es igual a

I-7
T T

Y
t =1
t = T 1 + 2 X t
t =1
(27)

Al comparar (26) y (27), se concluye que necesariamente debe cumplirse


(24). Obsrvese que, al cumplirse (24), se cumplir tambin que

T T

Y = Y
t =1
t
t =1
t (28)

y, al dividir por T, tenemos

Y = Y (29)
2. La recta de regresin pasa necesariamente por el punto ( Y , X ).

Demostracin.
En efecto, dividiendo por T la ecuacin (27) se obtiene:

Y = 1 + 2 X (30)
3. La suma de los productos cruzados entre la variable explicativa y los residuos
es igual a 0, es decir,

u X
t =1
t t =0 (31)

Demostracin.
En efecto,
T T

u X = (Y
t =1
t t
t =1
t 1 2 X t )X t = 0

Para llegar a (31) se ha tenido en cuenta la segunda ecuacin normal de


(13).
4. La suma de los productos cruzados entre los valores ajustados y los residuos es
igual a 0, es decir,

u Y = 0
t =1
t t (32)

Demostracin.
En efecto, si se tiene en cuenta (17) resulta que

I-8
T T T T

u Y = u (
t =1
t t
t =1
t 1 + 2 X t ) = 1 ut + 2 ut X t = 0
t =1 t =1

Para llegar a (32) se ha tenido en cuenta las propiedades descriptivas 1 y 3.

4 Medidas de la bondad del ajuste. Coeficiente de


determinacin
Una vez que se ha realizado el ajuste por mnimos cuadrados, conviene
disponer de algn indicador que permita medir el grado de ajuste entre el modelo
y los datos. En el caso de que se haya estimado varios modelos alternativos podra
utilizarse medidas de este tipo, a las que se denomina medidas de la bondad del
ajuste, para seleccionar el modelo ms adecuado.
Existen en la literatura economtrica numerosas medidas de la bondad del
ajuste. La ms conocida es el coeficiente de determinacin, al que se designa por
R2 o R cuadrado. Como se ver en otro momento, esta medida tienen algunas
limitaciones, aunque es vlida para comparar modelos de regresin lineal simple.
El coeficiente de determinacin se basa en la descomposicin de la
varianza de la variable endgena, a la que denominaremos varianza total. Vamos
a ver a continuacin como se obtiene esta descomposicin.
De acuerdo con (7)

Yt = Yt + ut (33)
Restando a ambos miembros Y , se tiene que

Yt Y = Yt Y + ut (34)
Si elevamos al cuadrado ambos miembros se obtiene que

(Y Y )
2 2
t = (Yt Y ) + ut (35)

es decir,

(Y Y ) = (Y Y ) ( )
2 2
t t + ut2 2ut Yt Y (36)

Sumando ambos miembros de la expresin anterior de 1 a T, se tiene

( ) ( )
T T T T

(Yt Y ) = Yt Y
2
+ ut2 2 ut Yt Y
2
(37)
t =1 t =1 t =1 t =1

Ahora bien, puede verse que el tercer trmino del segundo miembro de
(37) es

I-9
( )
T T T
2 ut Yt Y = 2 utYt 2Y ut = 0 (38)
t =1 t =1 t =1

de acuerdo con (31) y (24). Por lo tanto, (37) queda reducida a

( )
T T T

(Yt Y ) = Yt Y
2
+ ut2
2
(39)
t =1 t =1 t =1

Debe recalcarse que para se cumpla que (38) es igual a 0 es necesario


utilizar la relacin (24), que a su vez est asociada a la primera ecuacin normal
de la recta, es decir, a la ecuacin correspondiente al trmino independiente. Si en
modelo no hay trmino independiente, entonces en general no se cumplir la
descomposicin obtenida en (39).
Si en la expresin (39) dividimos ambos miembros por T, se obtiene que

( ) u
T T T

(Yt Y )
2 2
Yt Y 2
t
t =1
= t =1
+ t =1
(40)
T T T
Por lo tanto, la varianza total de la variable endgena se descompone en
dos partes: varianza explicada por la regresin o varianza de los valores
ajustados1 y varianza residual. Es decir,

Varianza total = varianza "explicada" + varianza residual


A partir de la descomposicin anterior, el coeficiente de determinacin se
define como la proporcin de la varianza total explicada por la regresin. Su
expresin es la siguiente:

(Y Y ) t
2

R2 = t =1
T (41)
(Y Y )
t =1
t
2

Alternativamente, y de forma equivalente, de acuerdo con (39) el


coeficiente de determinacin se puede definir como 1 menos la proporcin no
explicada por la regresin, es decir, como

1
El primer trmino del segundo miembro de (40) es la varianza de Yt , ya que, de acuerdo con

(29), se verifica que Y = Y

I-10
T

u 2
t
R2 = 1 T
t =1
(42)
(Yt Y )2
t =1

Los valores extremos del coeficiente de determinacin son: 0, cuando la


varianza explicada es nula, y 1,cuando la varianza residual es nula, es decir,
cuando el ajuste es perfecto

5 Hiptesis estadsticas del modelo

I Hiptesis sobre la forma funcional


Los elementos del modelo tienen la siguiente relacin entre s:

Yt = 1 + 2 X t + ut (43)
La relacin entre el regresando, los regresores y la perturbacin aleatoria
es lineal. El regresando y los regresores pueden ser cualquier funcin de la
variable endgena o de las variables predeterminadas, respectivamente, siempre
que entre regresando y regresores se mantenga una relacin lineal, es decir, el
modelo sea lineal en los parmetros. El carcter aditivo de la perturbacin
aleatoria garantiza su relacin lineal con el resto de los elementos.

II Hiptesis sobre la perturbacin aleatoria


La perturbacin aleatoria ut es una variable aleatoria no observable con las
siguientes propiedades:
a) La esperanza matemtica de la perturbacin aleatoria ut es cero.

E (ut ) = 0 t = 1, 2, , T (44)
Se adopta aqu el supuesto de que los efectos individuales de las variables
incluidas en el trmino de perturbacin tienden a compensarse por trmino medio.
En cualquier caso, aun suponiendo que los efectos individuales no se
compensasen exactamente y, por tanto, su valor esperado fuese distinto de cero,
dicho valor podra ser acumulado en el trmino constante del modelo de
regresin, con lo cual se podra mantener esta hiptesis sin ningn problema. Por
esta razn, si el modelo tiene trmino constante, es imposible deslindar a
posteriori la parte estrictamente correspondiente al coeficiente independiente del
modelo, de la parte proveniente de la media de la perturbacin aleatoria del
modelo. As, pues, sta seria una hiptesis no contrastable empricamente.
b) Las perturbaciones aleatorias son homoscedsticas

E (ut2 ) = 2 t = 1, 2, , T (45)

I-11
Esta hiptesis indica que todas las perturbaciones aleatorias tienen la
misma varianza. Es decir, la varianza de las perturbaciones aleatorias del modelo
es constante y, por tanto, independiente del tiempo o de los valores de las
variables predeterminadas. Dicha hiptesis es contrastable empricamente
mediante diversos contrastes estadsticos basados en los residuos mnimo-
cuadrticos. Asimismo, hay que sealar que, en determinadas situaciones, esta
hiptesis resulta poco plausible, sobre todo cuando se trabaja con datos de corte
transversal, es decir, con observaciones sobre diferentes unidades muestrales
referidas a un mismo momento del tiempo. Si no se cumple esta hiptesis, se dice
que las perturbaciones son heteroscedsticas.
c) Las perturbaciones aleatorias con distintos subndices son independientes
entre s.

E (ut us ) = 0 ts (46)
Es decir, las perturbaciones correspondientes a distintos momentos del
tiempo o a distintas unidades muestrales no estn correlacionadas entre si. Este
supuesto, al igual que el anterior, es contrastable a posteriori. La transgresin del
mismo se produce con bastante frecuencia en los modelos en los que se utilizan
datos de series temporales, es decir, observaciones realizadas a intervalos
regulares de tiempo.
d) La perturbacin aleatoria tiene una distribucin normal multivariante
Dado que la perturbacin aleatoria recoge un conjunto amplio de
variables, omitidas del modelo de regresin, que son independientes entre si y
tambin del conjunto de regresores, por el teorema central del limite se puede
suponer que el vector de perturbaciones aleatorias tiene una distribucin normal
multivariante.
Las cuatro hiptesis formuladas sobre las perturbaciones aleatorias se
pueden expresar de forma conjunta como

ut ~ NID(0, 2 ) (47)
donde NID indica que son normales e independientes.

III Hiptesis sobre el regresor X


a) Las observaciones de X son fijas en repetidas muestras
De acuerdo con esta hiptesis, los distintos regresores del modelo toman
los mismos valores para diversas muestras del regresando. ste es un supuesto
fuerte en el caso de las ciencias sociales, en el que es poco viable experimentar.
Los datos se obtienen por observacin, y no por experimentacin. Para que dicho
supuesto se cumpliera, los regresores deberan ser susceptibles de ser controlados
por parte del investigador. Es importante sealar que los resultados que se

I-12
obtienen utilizando este supuesto se mantendran prcticamente idnticos si
supusiramos que los regresores son estocsticos, siempre que introdujramos el
supuesto adicional de independencia entre los regresores y la perturbacin
aleatoria. Este supuesto alternativo se puede formular as:
a*) La variable X se distribuye independientemente de la perturbacin aleatoria
En desarrollos posteriores se adoptar el supuesto de que se cumple la
hiptesis a).
b) El regresor X no contiene errores de observacin o de medida
sta es una hiptesis que raramente se cumple en la prctica, ya que los
instrumentos de medicin en economa son escasamente fiables (pinsese en la
multitud de errores que es posible cometer en una recogida de informacin,
mediante encuesta, sobre los presupuestos familiares). Aunque es difcil encontrar
instrumentos para contrastar esta hiptesis, la naturaleza del problema y, sobre
todo, la procedencia de los datos utilizados pueden ofrecer evidencia favorable o
desfavorable a la hiptesis enunciada.

IV Hiptesis sobre los parmetros


1 y 2 son constantes
Si no se adopta esta hiptesis el modelo de regresin sera muy
complicado de manejar. En todo caso, puede ser aceptable postular que los
parmetros del modelo se mantienen estables en el tiempo (si no se trata de
perodos muy extensos) o en el espacio (si est relativamente acotado).

6 Propiedades probabilsticas del modelo

Aleatoriedad del modelo


Dado que ut es aleatoria, tambin la variable endgena Yt ser una
variable aleatoria por ser una funcin lineal de la perturbacin aleatoria, como se
deduce del modelo de regresin lineal (43).
Cuando realizamos una estimacin por mnimos cuadrados con datos
reales, estamos suponiendo que existe un mecanismo de generacin de datos - el
modelo de regresin - que ha determinado los valores observados de la variable
endgena. As, cuando realizamos una estimacin en un modelo de regresin
lineal simple, tal como el modelo (43), estamos suponiendo que los valores
observados por el investigador de la variable endgena (Y1,Y2,...,YT ) han sido
generados por dicha relacin que contiene unos parmetros ( 1 y 2 )
desconocidos para el investigador, una variable explicativa (X) con valores
conocidos y una perturbacin aleatoria u cuyos valores son desconocidos. El
investigador supone que los valores de la perturbacin aleatoria han sido

I-13
generados por una distribucin normal con media 0 y varianza 2 , tambin
desconocida.
As pues, el investigador no observa directamente el proceso de
generacin de datos, sino los resultados finales de este proceso, es decir, los
valores observados de Y: Y1,Y2,...,YT. Precisamente, aplicando el mtodo de
mnimos cuadrados (a estos datos y a los datos de la variable explicativa), lo que
se persigue es realizar estimaciones de los parmetros del modelo ( 1 , 2 y 2 ),
que son desconocidos para el investigador.
Con objeto de comprender mejor el proceso que acabamos de describir, es
conveniente invertir los papeles, generando el propio investigador los valores que
toma la variable endgena. Cuando se generan los datos de forma artificial, se
dice que se est realizando un experimento de Montecarlo. Este nombre proviene
del famoso casino de la Costa Azul debido a que en estos experimentos se
realizan extracciones de nmeros aleatorios, lo que en definitiva es anlogo al
resultado del lanzamiento de una bola en la ruleta de un casino.
En la realizacin de un experimento de Montecarlo se parte del supuesto
de que es conocido tanto el mecanismo de generacin de datos, como los valores
de los parmetros2.

Aleatoriedad de los estimadores


Los estimadores 1 y 2 son tambin variables aleatorias puesto que son
funcin de las variables aleatorias Yt . En efecto,
T T T

( X t X )(Yt Y ) ( X t X )Yt ( X t X )Y
2 = t =1
T
= t =1
T
t =1

(X
t =1
t X )2 (X
t =1
t X )2

(X t X )Yt
= t =1
T (48)
(X
t =1
t X) 2

En el desarrollo anterior se ha tenido en cuenta que

2
En Econometra Aplicada (pginas 60 a 66) puede verse como se generan nmeros aleatorios
uniformes y normales mediante rutinas informticas. Por otra parte, en las pginas 149 a 153 (caso
3.11) se realiza un experimento de Montecarlo con una hipottica funcin de consumo.

I-14
T T
T
(X
t =1
t X )Y = Y ( X t X ) = Y X t TX = Y [ TX TX ] = 0
t =1
t =1

Denominando

(X t X )
T
= ct
(X
t =1
t X) 2

entonces el estimador 2 se puede expresar de la siguiente forma:

T
2 = ct Yt (49)
t =1

Si se adopta el supuesto III a), que implica que la variable X t es no


aleatoria, entonces de la expresin anterior se deduce que 2 es una combinacin
lineal de la variable Yt .

Los coeficientes ct tienen las siguientes propiedades:

c
t =1
t =0 (50)

c X
t =1
t t =1 (51)

En efecto,

T T

T (Xt X ) X t TX
TX TX
c t = t =1
T
= T
t =1
= T
=0
t =1
(X
t =1
t X) 2
(X
t =1
t X) 2
(X
t =1
t X) 2

T T T

T (X t X )Xt (X t X )( X t X ) (X t X )2
c X t t = t =1
T
= t =1
T
= t =1
T
=1
t =1
(X
t =1
t X) 2
(X
t =1
t X) 2
(X t =1
t X) 2

Vamos a expresar a ahora el estimador 2 en funcin de las


perturbaciones aleatorias. Teniendo en cuenta (49) y (43) resulta que

T
2 = ct ( 1 + 2 X t + ut )
t =1

I-15
T T T T
= 1 ct + 2 ct X t + ct ut = 2 + ct ut (52)
t =1 t =1 t =1 t =1

Para llegar al resultado final se ha tenido en cuenta (50) y (51).


Anlogamente,

1 = Y 2 X = 1 + 2 X + u 2 X = 1 + u X ( 2 2 )

1 T T
= 1 +
T t =1
ut X ct ut
t =1
(53)

EJEMPLO 1 Estimacin de la funcin de consumo con series simuladas


Con el mismo modelo que el caso 3.11 de Econometra Aplicada, en un
experimento de Montecarlo al que denominaremos Exp. 1, hemos generado 10 series de
consumo (CONS) a partir de la relacin:

CONSt = 2 + 0,85 RENDISt + ut (54)


donde RENDIS es la renta disponible y la perturbacin u se distribuye con media 0 y
desviacin tpica 1. (La nica variacin con respecto al caso 3.11 es que en dicho caso la
desviacin tpica de la perturbacin es 1,2.)
Aplicando mnimos cuadrados utilizando cada una de las muestras
generadas de consumo y de la muestra dada de la variable RENDIS (Vase cuadro 3.11
de Econometra Aplicada ), se han estimado (vase cuadro 1) los parmetros 1 y 2 del
modelo:

CONSt = 1 + 2 RENDISt + ut (55)

I-16
CUADRO 1 Resultados Exp. 1
Desviacin tpica de las perturbaciones: Constante ( = 1)
Desviacin tpica de la muestra de RENDIS: Constante ( SRENDIS = 2.905)
Nm. Desviaciones Desviaciones
muestra tpicas tericas tpicas estimadas
1 2 R2
1 2 1 2

1 2.993 0.803 2.3509 0.1019 0.6285 1.4774 0.0684 0.945


2 -0.408 0.977 2.3509 0.1019 0.7238 1.7014 0.0788 0.951
3 0.759 0.941 2.3509 0.1019 1.1150 2.6210 0.1214 0.883
4 4.077 0.766 2.3509 0.1019 1.0440 2.4541 0.1136 0.853
5 1.062 0.887 2.3509 0.1019 0.6496 1.5271 0.0707 0.951
6 2.197 0.832 2.3509 0.1019 1.3934 3.2755 0.1517 0.790
7 -1.359 0.973 2.3509 0.1019 1.1117 2.6134 0.1210 0.890
8 1.594 0.853 2.3509 0.1019 1.1466 2.6954 0.1248 0.854
9 2.917 0.807 2.3509 0.1019 0.9516 2.2369 0.1036 0.884
10 4.194 0.741 2.3509 0.1019 0.9270 2.1790 0.1009 0.871
Media 1.803 0.858

26

24

22
CONS1

20

18

16

14
16 18 20 22 24 26
RENDIS

Figura 4. Recta de regresin terica (trazo continuo) y estimada en la muestra 1 del Exp. 1
(trazo discontinuo)

En la figura 4, adems de la nube de puntos, se han representado la recta de


regresin terica (en trazo continuo) y la recta de regresin estimada con los datos de la
muestra 1. Como puede verse, la recta ajustada est muy prxima a la recta terica.

Insesgadez de los coeficientes


Una propiedad deseable en un estimador es que sea insesgado, es decir,
que su media terica coincida con el parmetro que trata de estimar. Veamos

I-17
concretamente, y de forma analtica, si se verifica esta propiedad en los
estimadores 1 y 2 . Tomando esperanza matemtica en (52) y (53), y teniendo
en cuenta la hiptesis 2a), se obtiene que

T
T
E ( 2 ) = E 2 + ct ut = E ( 2 ) + ct E (ut ) = 2 (56)
t =1 t =1

1 T T
1 T T
E ( 1 ) = E 1 + ut X ct ut = E ( 1 ) + E (ut ) X ct E (ut ) =1 (57)
T t =1 t =1 T t =1 t =1

Por lo tanto, 1 y 2 son estimadores insesgados de los parmetros


1 y 2 respectivamente.
Cuando se est trabajando con series reales no se conocen los valores de
los parmetros; por ello, no se puede calcular la diferencia entre estimacin y
parmetro correspondiente a una muestra en concreto. Sin embargo, si el
estimador es insesgado sabemos que si estimramos el modelo con un gran
nmero de muestras, entonces la media de las estimaciones obtenidas estara muy
prxima a los parmetros que se trata de estimar.
Si un estimador no cumple esta propiedad, se dice que es un estimador
sesgado. La diferencia entre el valor esperado del estimador y el estimador se
denomina sesgo.

EJEMPLO 1 (continuacin) Estimacin de la funcin de consumo con series


simuladas
Como en un experimento de Montecarlo se conocen los parmetros, se pueden
calcular los sesgos que se han cometido en la estimacin. As, los sesgos cometidos en la
estimacin con la muestra 1, segn muestra el cuadro 1, son los siguientes:

Sesgo ordenada: 1 1 = 2, 000 2,993 = 0,993

Sesgo pendiente: 2 2 = 0,850 0,803 = 0, 047


Los resultados anteriores estn determinados en parte por el azar, es decir, por la
extraccin concreta de las perturbaciones aleatorias. Ahora bien, si hacemos varias
extracciones y obtenemos la media de todas las estimaciones obtenidas, entonces los
sesgos sern en general menores que en una muestra en concreto. As, la media de las 10
estimaciones realizadas, segn puede verse en el cuadro 1 son las siguientes:
10

1j

1 = j =1
= 1,803
10

I-18
10

2j

2 = j =1
= 0,858
10
Los sesgos que se obtienen para estos valores medios son los siguientes:

Sesgo ordenada: 1 1 = 2, 000 1,803 = 0,197

Sesgo pendiente: 2 2 = 0,850 0,858 = 0, 008


Examinando los resultados del cuadro 2, en relacin a estos sesgos medios, puede
observarse que nicamente en la muestra 8 se obtiene un sesgo menor para la pendiente
(0,003), mientras que en la muestra 6 el sesgo de la estimacin de la ordenada es igual en
valor absoluto al correspondiente sesgo medio.

Precisin de los coeficientes


Otra propiedad deseable de un estimador es que sea preciso, es decir, que
la funcin de densidad se encuentre lo ms concentrada posible en torno al valor
medio. Una medida de esta precisin la suministra la varianza (o la desviacin
tpica) del estimador.

La varianza del estimador 2 es la siguiente

2
E ( 2 2 ) 2 = 2 = T (58)
( X t X )2
2

t =1

La demostracin de (58) puede verse en el recuadro adjunto.

Denominando S x2 a la varianza muestral de X, es decir,

(X t X )2
S x2 = t =1
(59)
T
la varianza de 2 se puede expresar del siguiente modo

2
E ( 2 2 ) 2 = 2 = (60)
2
TS x2

I-19
Demostracin de (58)
De acuerdo con (52) se tiene que
T
2 2 = ct ut
t =1

Elevando al cuadrado ambos miembros de la expresin anterior, y aplicando el


operador esperanza se obtiene
2
T
E ( 2 2 ) 2 = E ct ut
t =1

T T
= E ct2ut2 + ct ct ut ut = ct2 E (ut2 ) + ct ct E (ut ut )
t =1 t t t =1 t t

Teniendo en cuenta las hiptesis II b) y II c) se obtiene


T

T (X t X )2
2
= 2
c 2
t = 2 t =1
2
= T
T 2
t =1
( X t X ) (X t X )2
t =1 t =1

De forma anloga se obtiene la varianza del estimador 1 :


1 X 2 2 X2
E ( 1 1 ) 2 = 2 =2 + T = 1 + 2 (61)
T 2 T Sx

1
(Xt X )
t =1


Por otra parte, puede demostrarse que los estimadores mnimo cuadrticos,
son estimadores ptimos, es decir, son los que tiene menor varianza dentro de la
clase de estimadores lineales e insesgados. Por ello, suele decirse de los
estimadores mnimo-cuadrticos que son ELIO (Estimadores Lineales Insesgados
y ptimos).
De acuerdo con (60) y (61) las desviaciones tpicas de los estimadores
vendrn dadas por


= (62)
2
T Sx

I-20
1 X2
= 1 + (63)
1
T S x2

Como puede verse en (62), la desviacin tpica de 2 es directamente


proporcional a la desviacin tpica de las perturbaciones e inversamente
proporcional a la raz cuadrada del tamao de la muestra y a la desviacin tpica
muestral de la variable explicativa. En la expresin (63), depende la desviacin
tpica de 1 depende de esos mismos factores y, adems, de la media de la
variable explicativa.

Al ser desconocida la varianza de las perturbaciones ( 2 ), las varianzas de los


estimadores de los coeficientes de regresin son tambin desconocidas. Por ello es
necesario estimarla. El estimador insesgado de la varianza de las perturbaciones
en el modelo de regresin lineal simple viene dado por

u 2
t
2 = t =1
(64)
T 2
A la desviacin tpica estimada de la perturbacin ( ) se le suele conocer
tambin con la denominacin de error tpico de regresin.
Si en las varianzas tericas de los estimadores (expresiones (60) y (61)) se
sustituye la varianza de las perturbaciones por el estimador (64), se obtienen las
varianzas estimadas de los estimadores:

2
2 = (65)
2
TS x2

2 X2
2 = 1 + (66)
1
T S x2
Anlogamente, las desviaciones tpicas estimadas de los estimadores
vendrn dadas por


= (67)
2
T Sx

1 X2
= 1 + (68)
1
T S x2

I-21
EJEMPLO (continuacin) Estimacin de la funcin de consumo con series simuladas
En el cuadro 1 se recogen tambin los resultados obtenidos en las 10 muestras
del Exp. 1 para , y .
1 2

Con objeto de ver la influencia que tienen y SRENDIS en las desviaciones de los
estimadores, hemos realizado los experimentos 2 y 3.
En el experimento 2 se utiliza el mismo modelo que en el experimento 1 pero la
varianza de la perturbaciones utilizada ha sido distinta en cada una de las muestras. En
concreto, en las 5 muestras generadas, segn puede verse en el cuadro 2, se han asignado
a de forma sucesiva los valores 1, 2 3, 4 y 5. Como puede observarse, excepto en el
caso de que =1, los estimadores obtenidos estn muy alejados de los valores de los
parmetros. Se comprueba tambin que segn va creciendo , lo va haciendo tambin su
estimador, aunque, como es previsible, de una forma menos uniforme que el parmetro.
En la figura 5 se ha representado la recta de regresin verdadera y la
correspondiente a estimacin con la muestra 5, donde =5. Como puede comprobarse
estn muy alejadas entre s ambas rectas.
En el experimento 3 se utiliza el mismo modelo que en el experimento 1 y
tambin la misma la varianza de la perturbaciones. Sin embargo hemos utilizado 5
muestras distintas de la variable X. Las 5 muestras se caracterizan por tener la misma
media (21,4), pero una desviacin tpica muestral de X variable, con valores que oscilan,
segn puede verse en el cuadro 3, entre 2,905 de la muestra 1 (igual que en el
experimento 1) y 0,290 de la muestra 5. Como puede observarse, las desviaciones tpicas
de los estimadores crecen de forma drstica a medida que disminuye la desviacin tpica
muestral de la variable explicativa.

CUADRO 2 Resultados Exp. 2


Desviacin tpica de las perturbaciones: Variable
Desviacin tpica de la muestra de RENDIS: Constante ( SRENDIS = 2.905)
Desviaciones Desviaciones
tpicas tericas tpicas estimadas
Nm
1 2 R2
muestra

1 2 1 2

1 -0.037 0.931 1 2.3509 0.1019 1.4352 3.3738 0.1562 0.816

2 6.749 0.660 2 4.7018 0.2177 1.3755 3.2335 0.1497 0.708

3 -4.152 1.200 3 7.0527 0.3266 2.3284 5.4735 0.2534 0.737

4 -19.640 1.828 4 9.4036 0.4354 4.2124 9.9022 0.4585 0.665

5 8.654 0.674 5 11.7545 0.5443 6.3668 14.9667 0.6930 0.106

Media -1.685 1.059

I-22
34

31

28

25
CONS5

22

19

16

13

10

7
16 18 20 22 24 26
RENDIS

Figura 5. Recta de regresin terica (trazo continuo) y estimada en la muestra 5 del


Exp. 2 (trazo discontinuo)
En la figura 6 se ha representado la recta de regresin verdadera y la
correspondiente a estimacin con la muestra 5, donde SRENDIS =0,290. Como puede
comprobarse en este caso tambin estn muy alejadas entre s ambas rectas.

CUADRO 3 Renta disponible (RENDIS) utilizada en el Exp. 3


t RENDIS1 RENDIS2 RENDIS3 RENDIS4 RENDIS5
1 17.00 19.20 20.52 20.85 20.96
2 18.00 19.70 20.72 20.97 21.06
3 19.00 20.20 20.92 21.10 21.16
4 20.00 20.70 21.12 21.22 21.26
5 20.00 20.70 21.12 21.22 21.26
6 22.00 21.70 21.52 21.47 21.46
7 23.00 22.20 21.72 21.60 21.56
8 24.00 22.70 21.92 21.72 21.66
9 25.00 23.20 22.12 21.85 21.76
10 26.00 23.70 22.32 21.97 21.86
Media 21.400 21.400 21.400 21.400 21.400
Desviacin tpica 2.905 1.452 0.581 0.363 0.290

I-23
CUADRO 4 Resultados Exp. 3
Desviacin tpica de las perturbaciones: Constante ( = 1)
Desviacin tpica de la muestra de RENDIS: Variable
Desviaciones Desviaciones
tpicas tericas tpicas tericas
Nm
muestra
1 2 S RENDIS R2
1 2 1 2


1 2.213 0.867 2.905 2.3509 0.1019 0.8966 2.1077 0.0996 0.9080

2 4.077 0.768 1.452 4.6714 0.2178 1.2788 5.9714 0.2784 0.4874

3 -1.499 1.014 0.581 11.6519 0.5443 0.8597 10.0170 0.4679 0.3700

4 -25.180 2.141 0.363 18.6453 0.8712 0.9092 16.9454 0.7917 0.4780

5 -19.886 1.849 0.290 23.3376 1.0904 1.1782 27.4482 1.2825 0.2060

Media -8.055 1.328

34
31
28
25
CONS5

22
19
16
13
10
7
16 18 20 22 24 26
RENDIS5

Figura 6. Recta de regresin terica (trazo continuo) y estimada en la


muestra 5 del Exp. 3 (trazo discontinuo)

I-24
7 Principios generales del Contraste de hiptesis
El contraste de hiptesis permite realizar inferencias acerca de parmetros
poblacionales utilizando datos provenientes de una muestra. Para realizar
contrastes de hiptesis en estadstica, en general, hay que realizar los siguientes
pasos:
1) Establecer una hiptesis nula y una hiptesis alternativa relativas a los
parmetros de la poblacin.
2) Construir un estadstico para contrastar las hiptesis formuladas.
3) Definir una regla de decisin para determinar si la hiptesis nula debe
ser, o no, rechazada en funcin del valor que tome el estadstico construido.

Formulacin de la hiptesis nula y de la hiptesis alternativa


En la regresin lineal simple vamos a realizar contrates individuales sobre
los coeficientes del modelo de regresin. La formulacin de la hiptesis nula se
realiza mediante una igualdad, que reviste la siguiente forma:

H 0 : i = i* (69)
donde i* es un valor prefijado por el investigador.

Para formular la hiptesis alternativa se utilizan, segn los casos, los


operadores "desigualdad", "mayor que" o "menor que". Por tanto, las tres
alternativas de hiptesis alternativas que consideraremos son las siguientes:

a ) H 0 : i i* b) H 0 : i > i* c) H 0 : i < i* (70)


El caso a) dar lugar a un contraste de 2 colas, mientras que en los casos
b) y c) el contraste correspondiente ser de una sola cola.

Construccin del estadstico de contraste


Para realizar el contraste se trata de buscar un estadstico que tenga una
distribucin conocida. La distribucin del estadstico depender en buena medida
de los supuestos que se establezcan en el modelo.
De acuerdo con la hiptesis del modelo de regresin lineal simple II d), la
perturbacin ut sigue una distribucin normal. Dado que 1 y 2 se obtienen
como combinacin lineal de ut , seguirn a su vez una distribucin normal, es
decir,


2 N 2 , (71)
T Sx

I-25
1 X2
1 N 1 , 1 + (72)
T S x2

o alternativamente, si tipificamos, tendremos que

2 2
N (0,1) (73)

T Sx

1 1
N (0,1) (74)
1 X2
1+
T S x2

Supongamos que deseamos realizar un contraste sobre el coeficiente 2 .


En concreto, supongamos que deseamos contrastar la siguiente hiptesis nula
((69) frente a la hiptesis alternativa a) de (70)).
Si es cierta la H 0 , se verificar que

2 2*
N (0,1) (75)

T Sx
El problema que se nos plantea es que no se puede calcular el estadstico
anterior porque no se conoce cuando trabajamos con datos reales. Cuando se
sustituye por su estimador , entonces el estadstico anterior se distribuye
como una t con T-k grados de libertad, es decir,

2 2*
tT k (76)

T Sx
La dispersin de una t de Student es mayor que en una N(0,1), aunque la
dispersin va disminuyendo a medida que aumentan los grados de libertad,
verificndose que:

tn
n
N (0,1) (77)
As pues, cuando el nmero de grados de libertad de una t de Student
tiende hacia infinito converge hacia una distribucin N(0,1). En el contexto del
contraste de hiptesis, si crece el tamao de la muestra, tambin lo harn los
grados de libertad. Esto implica que para tamaos grandes (por ejemplo, para
muestras con un tamao superior a 60) se puede utilizar, de forma prcticamente

I-26
equivalente, la distribucin normal para contrastar hiptesis, an cuando no se
conozca la varianza poblacional.
Conviene recordar que una t con n grados de libertad tiene la siguiente
relacin con una F de 1 grado de libertad en el numerador y n grados de libertad
en el denominador:
t n = F1,n (78)
Una variable F toma siempre valores positivos, mientras que una variable
t, que tiene una funcin de densidad simtrica, puede tomar valores positivos y
negativos. Obsrvese que a cada valor de una F le corresponden dos valores (uno
positivo y otro negativo) en una t. La distribucin del estadstico utilizado en el
contraste incorpora la H0, es decir, se construye bajo el cumplimiento de la
hiptesis nula.

Regla de decisin para el contraste3

3
Vase pgina 157 y siguientes de Econometra Aplicada

I-27

You might also like