You are on page 1of 5

5.1.

Introduccin. o

En lo que antecede hemos dado por supuesto que el modelo lineal que se estima es el correcto, es decir, que la variable aleatoria Y efectivamente se genera de la siguiente manera: Y = 0 X0 + 1 X1 + . . . + p1 Xp1 + . (5.1)

En la prctica, sin embargo, no tenemos un conocimiento preciso del mea canismo que genera las Y s. Tenemos, todo lo ms, una lista de variables a susceptibles de formar parte de la ecuacin (6.1) en condicin de regresores. o o De ordinario, por ello, incurriremos en errores en la especicacin, que o pueden ser de dos naturalezas: 1. Incluir en (6.1) regresores irrelevantes. 2. Omitir en (6.1) regresores que hubieran debido ser incluidos. Estudiamos en lo que sigue el efecto de estos dos tipos de mala especicacin. o
ww w.

at

em

at

ic a1

.c

om

5.2.

Inclusin de regresores irrelevantes. o


Y = X + (5.2)

Supongamos que

pese a lo cual decidimos estimar el modelo Y = X + Z + (5.3)

Qu ocurre con los estimadores de los parmetros ? e a Al estimar el modelo sobreparametrizado (6.3) obtendr amos: = X X X Z Z X Z Z
1

X Y Z

(5.4)

at

em

En el caso particular de columnas Z ortogonales a las columnas en X, los estimadores de proporcionados por (6.3) son idnticos a los que se obtene dr de (6.2). En efecto, si existe tal ortogonalidad, la matriz inversa en an (6.4) es una matriz diagonal por bloques y = (X X)1 X Y . Fuera de este caso particular, los estimadores de procedentes de (6.4) son diferentes a los que se obtendr de estimar (6.2). a Sin embargo, (6.4) proporciona estimadores insesgados, sean cuales fueren los regresores irrelevantes aadidos1 . En efecto, sustituyendo (6.2) en (6.4) n tenemos:
w.

= =

ww

X X X Z Z X Z Z

at

ic
1

a1

X Z
1

.c

om

X Z X Z .

(5.5) (5.6)

X X X Z + Z X Z Z 0

Al tomar valor medio en la ecuacin anterior obtenemos: o E[] = , E[ ] = 0. (5.7) (5.8)

De la misma ecuacin (6.6) obtenemos que la matriz de covarianzas del vector o ) es: ( =
1

X X X Z Z X Z Z

(5.9)

De los que lo unico que supondremos es que no introducen combinaciones lineales exactas que hagan inestimables los parmetros. a

El bloque superior izquierdo de (6.9) es la matriz de covarianzas de los obtenidos en el modelo sobreparametrizado. Debemos comparar dicho bloque con 2 (X X)1 , matriz de covarianzas de los obtenidos al estimar el modelo (6.2). Haciendo uso del Teorema A.3, pg. 230, vemos que el bloque que nos a 2 interesa de (6.9) es multiplicado por (X X)1 + (X X)1 X Z[Z Z Z X(X X)1 X Z]1 Z X(X X)1 . Por simple inspeccin vemos que el segundo sumando es una matriz denida o 2 no negativa , y por tanto la expresin anterior tendr en su diagonal princio a pal elementos no menores que los de la diagonal principal de (X X)1 . En consecuencia, la inclusin de regresores irrelevantes no disminuye, y en geneo ral incrementa, las varianzas de los estimadores de los parmetros relevantes. a No afecta sin embargo a su insesgadez. De cuanto antecede se deduce que Y X Z (5.10)
.c om

es un vector aleatorio de media cero. Denominando,

SSE = Y (I L(L L)1 L )Y = (I L(L L)1 L )

ww

w.

un desarrollo enteramente similar al realizado en el Teorema 7.1, pg. 72, a muestra que en el modelo sobreparametrizado

at

em

at

ic

L =

X Z , ,

a1

(5.11)

es, bajo los supuestos habituales ms normalidad, una forma cuadrtica con a a distribucin 2 2 (p+q) , en que p y q son respectivamente los rangos de X y o N Z. En consecuencia, 2 =
2

SSE N (p + q)

(5.12)

Llamemos G a dicho segundo sumando. Para mostrar que es denida no negativa, basta ver que para cualquier a se verica a Ga 0. Pero a Ga = b (Z Z Z X(X X)1 XZ)1 b con b = Z X(X X)1 a; ya slo tenemos que comprobar que (Z Z Z X(X X)1 XZ)1 o es denida no negativa, o equivalentemente que (Z Z Z X(X X)1 XZ) lo es. Esto ultimo es inmediato: (Z Z Z X(X X)1 XZ) = Z (I X(X X)1 X)Z, y d Z (I X(X X)1 X)Z d puede escribirse como e (I X(X X)1 X)e con e = Z d . La matriz de la forma cuadrtica en e es la conocida matriz de coproyeccin, denida no negativa por a o ser idempotente (con valores propios cero o uno).

es un estimador insesgado de 2 . El unico efecto adverso de la inclusin de los o q regresores irrelevantes ha sido la prdida de otros tantos grados de libertad. e

5.3.

Omisin de regresores relevantes. o

. Sea X = (X1 . X2 ) una matriz de diseo particionada en sendos bloques . n . de p y r columnas. Sea = ( 1 . 2 ) el correspondiente vector de p + r . parmetros. Consideremos el caso en que el modelo correcto es a Y = X + = X 1 1 + X2 2 + , (5.13)

pese a lo cual estimamos el modelo escaso Y = X1 1 + . (5.14)

Estimar (6.14) es lo mismo que estimar (6.13) junto con las restricciones h : 2 = 0, expresables as :
om .c

(h) El estimador 1 obtenido en el modelo escaso (6.14) es, en general, sesgado. El sesgo puede obtenerse haciendo uso de (5.11). Tenemos as que
ww

w.

En consecuencia, podemos deducir cuanto necesitamos saber haciendo uso de los resultados en la Seccin 5.3. Las siguientes conclusiones son as o inmediatas:

(h) 1 0

at

1 2

y en consecuencia E[1 1 ] = (X X)1 A [A(X X)1 A ]1


(h)

em

at

(X X)1 A [A(X X)1 A ]1 (A 0),

ic

0 0 0 I

1 2

0 0

a1

(5.15)

0 2

(5.16)
(p1)

en que [M](pq) designa el bloque superior izquierdo con p las y q columnas de la matriz M. La ecuacin (6.16) muestra que el sesgo o introducido depende de la magnitud de los parmetros asociados a los a regresores omitidos.

La ecuacin (6.16) muestra tambin que hay un caso particular en que o e (h) es insesgado para 1 ; cuando las columnas de X1 y las de X2 son 1 ortogonales, X1 X2 = 0, la matrix (X X)1 es diagonal por bloques, y (X X)1 A =
X1 X1 0 0 X 2 X2 1

0 0 0 I

(5.17)

tiene sus primeras p las de ceros. Ello hace que el bloque considerado en (6.16) est formado por ceros. e El estimador de la varianza de la perturbacin o 2 = SSE (Y X1 1 ) (Y X1 1 ) = N p N p
(h) (h)

(5.18)

no es insesgado. En efecto, puede verse que no es de aplicacin a (6.18) o el Teorema 3.3, pg. 23. a

5.4.

Consecuencias de orden prctico a

Los resultados de las dos Secciones anteriores pueden ayudarnos a tomar decisiones a la hora de especicar un modelo. Hemos visto que sobreparametrizar no introduce sesgos: tan slo incrementa la varianza de los estimadores o y resta grados de libertad. Errar por exceso tendr por ello en general a consecuencias menos graves, y tanto menos importantes cuanto mayor sea el tamao muestral. La prdida de un grado de libertad adicional originada n e por la inclusin de un parmetro es menos importante cuando los grados de o a libertad restantes (N p) siguen siendo muchos. La sla circunstancia en que la inclusin de un regresor innecesario puede o o perjudicar gravemente la estimacin se presenta cuando la muestra es muy o pequea o el parmetro adicional es aproximadamente combinacin lineal de n a o los ya presentes. A esta ultima cuestin volveremos en el Cap o tulo 10. Omitir regresores relevantes tiene consecuencias en general ms graves y a (h) en el modelo que no se atenan al crecer el tamao muestral: el sesgo de 1 u n escaso (6.14) no decrece hacia cero al crecer N. En este cap tulo hemos rastreado las consecuencias de dos posibles errores de especicacin puros: falta o sobra de regresores. En la prctica los dos o a tipos de errores se pueden presentar conjuntamente y sus efectos se combinan. Conocidos los problemas de una mala especicacin se plantea el proo blema de cmo lograr una buena. Esta cuestin se trata en el Cap o o tulo 13. Algunas tcnicas de anlisis grco de residuos que pueden ser de ayuda en e a a la especicacin de modelos se consideran en la Seccin 14.2.1. o o
ww w.

at

em

at

ic

a1

.c

om

You might also like