Professional Documents
Culture Documents
SEMESTRE 2010 - I
Curso : Econometría II
Este modelo establece una relación lineal entre un conjunto de k-1 variables explicativas (o
exógenas) y una variable a explicar (endógena). Consideremos:
En ocasiones nos encontramos con estimadores que son sesgados pero de menor varianza
que un estimador insesgado; para estos casos definimos el Error Cuadrático Medio (ECM):
ECM ( βˆ ) = E [( βˆ − β ) 2 ] = Var ( βˆ ) + [ Sesgo ( βˆ )] 2
Para las estimaciones de σ2u por MCO se encuentra que: σˆ u2 = SR /(n − k ) = û t û /(n − k )
Y cumple con: E(σˆ u2 ) = σ u2 y Var (σˆ u2 ) = 2σˆ u2 /(n − k )
Teorema de Gauss – Markov
El estimador MCO es el estimador lineal óptimo en el sentido de que cualquier otro estimador
lineal e insesgado tiene una matriz de covarianzas mayor que la del estimador MCO.
El estimador de parámetros por Máxima Verosimilitud del modelo lineal coincide con el de
MCO, esto es: βˆ MV = ( X t X ) − 1 X t Y
Debido a esto su esperanza y su varianza son las mismas que en el caso de MCO.
La bondad de ajuste nos indica cuán bien explicado esta el comportamiento de la variable
endógena por nuestro modelo.
O también: R 2 = 1 − SR = 1 − û t û Y t Y − βˆ t X t Y
= 1−
ST Y Y − nY
t 2
Y t Y − nY 2
El valor del R2 esta acotado entre 0 y 1 sólo si existe término independiente. Si no existe
intercepto, el R2 puede ser negativo y no estará acotado por abajo.
Debido a que el R2 mide la bondad de ajuste puede ser utilizado para comparar el grado
explicativo de dos modelos.
2L 2k 2L KLog(2π )
AIC = − + Y SC = − +
n n n n
Contraste de Normalidad
Dado que algunas de las propiedades del estimador MCO dependen del supuesto de
normalidad del término de error de l modelo, utilizaremos el criterio de Jarque-Bera (JB) para
contrastar dicha hipótesis:
( Asimetría ) 2 (Kurtosis − 3 ) 2
JB = n + ∼ χ2(2)
6 24
PRUEBAS DE HIPÓTESIS
Las pruebas de hipótesis en el modelo lineal se basan en el supuesto de distribución normal del
vector de residuos u ∼ Nn(0n , σ2uI), lo que a su vez implica que el vector de estimaciones se
distribuya como βˆ ∼ Nk(β , σ2u(XtX)-1).
Además, por propiedad, los estimadores MCO de β y σ2u son independientes entre sí.
Para probar: H0 : β = β0
H1 : β ≠ β0
Fc =
[ ]−1
( βˆ − β ) t σˆ u2 ( X t X ) −1 ( βˆ − β )
∼ F(k, n – k)
k
Si Fc > F , se rechaza H0, de lo contrario se acepta
Pruebas específicas de inferencia
Fc =
[
(R βˆ − r ) t σˆ u2 R ( X t X ) −1 R t ]
−1
(R βˆ − r )
∼ F(q, n – k)
q
Consideremos H0 : βi = β 0i
Además, dado que βˆ ∼ Nk(β, σ2u(XtX)-1), entonces βˆ i ∼ Nk(βi, σ2uaii). Con esto:
( βˆ i − β i0 ) 2 βˆi − β i0
Fc = ∼ F(1, n- k) ó también: Fc = ∼ t(n – k)
σˆ u2 a ii σˆ u2 a ii
b) Contraste de hipótesis acerca de todos los coeficientes del modelo distintos del
intercepto
Se considera H0 : β2 = β02
El vector β 2 es de dimensión (k-1), la forma de la matriz R será R = [0k-1 Ik-1], además
0
( βˆ 20 − β 20 ) t ( X 2t QX 2 )( βˆ 20 − β 20 ) /( k − 1)
Fc = ∼ F(k – 1, n – k)
û t û /( n − k )
Donde Q = In – (1/n)1n1tn
βˆ 2t ( X 2t QX 2 ) βˆ 2 /( k − 1)
Fc = ∼ F(k –1 , n – k)
û t û /( n − k )
Pero la significancia global mediante el valor del R2 sólo es justificado cuando el modelo
incluya término independiente.
βˆ 2t ( X 2t M 1 X 2 )βˆ 2 / s
Fc = ∼ F(s , n – k)
û t û /( n − k )
Donde M1 = In – X1(Xt1X1)-1Xt1
En una forma más general podemos suponer que no necesariamente β2 = 0k-1 ; en tal
sentido tendremos que en general R βˆ 2 – r = βˆ 2 - βˆ 20 y el estadístico será:
( βˆ 2 − β 20 ) t ( X 2t M 1 X 2 )( βˆ 2 − β 20 ) / s
Fc = ∼ F(s , n – k)
û t û /( n − k )
Sea SRS (Suma Residual Sin Restringir) la suma residual del modelo en consideración
estimado por MCO, es decir SRS = û t û . Sea la hipótesis nula H0 : β2 = 0s , donde β2 es un
subvector de s variables. Sea SRR (Suma Residual Restringida) la suma residual del modelo
estimado excluyendo las variables del subvector β2 , realizamos el contraste con:
Fc =
[SRR − ( SR 1 + SR 2 )] / k ∼ F(k , n –2k)
( SR 1 + SR 2 ) /( n − 2k )
Donde:
SRR : Suma de cuadrados residuales para la muestra completa
SR1 : Suma de cuadrados residuales para la muestras de 1 a t
SR2 : Suma de cuadrados residuales para la muestra de t+1 hasta n
Contraste de Estabilidad
CUSUM
CUSUMQ
Si el modelo presenta un residuo bien comportado y los parámetros son estables, entonces
puede utilizarse para realizar predicciones.
Supongamos que queremos predecir la evolución de la variable endógena a lo largo de un
número H de periodos futuros, con lo que Ytf = (YT+1, YT+2,... , YT+H), tendremos:
Ytf = Xfβ + uf
Definimos el error de predicción como: eT(p) = Yf - ETYf
Donde se cumple que: E(eT(H)) = 0T
Y Var(eT(H)) = σ2u [IT + Xf(XtTXT)-1Xtf]
∑ ê
t = T +1
2
t
EMA =
H
c) Coeficiente de desigualdad de Theil (U de Theil)
1 T +H
∑ ( Yt − Ŷt ) 2
H t =T +1
U=
1 T +H 2 1 T +H 2
∑ t H t=∑T +1Yt
H t =T +1
Ŷ +
UNIVERSIDAD NACIONAL DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERIA ECONÓMICA
SEMESTRE 2010 - I
Curso : Econometría II
Son 4:
i) E(ui) = 0
ii) Var(ui) = σ2 (constante), para todo i
iii) Cov(ui , uj) = 0, para todo i ≠ j
iv) Cov(xi , ui) = 0
De las condiciones i) y ii) obtuvimos que: E(uut) = σ2uI . Cuando se cumplen estas condiciones
se dice que los errores son esféricos.
Para tratar estos problemas intentaremos analizar los efectos que tiene sobre el estimador
MCO la siguiente condición: E(uut) = σ2u Σ , donde Σ ≠ In .
Entonces al considerar el modelo Y = Xβ + u , y que Var(u) = E(uut) = σ2u Σ , donde Σ ≠ In se
puede llegar a demostrar que:
Se busca transformar el modelo en otro cuyos coeficientes fuesen los mismos que en el modelo
original pero cuyo término de error tuviera una matriz de covarianzas escalar. Si ello fuese
posible podemos aplicar MCO en el modelo transformado.
Partamos de Y = Xβ + u → (PY) = (PX)β + (Pu)
Si hacemos Y* = PY, X* = PX, u* = Pu , entonces Y* = X*β + u*
La matriz de covarianzas del nuevo término de error será: Var(u*) = Var(Pu) = σ2u PΣPt
Buscaremos ahora una matriz P que pueda hacer que PΣPt = I , para esto descomponemos la
matriz Σ: Σ = VVt → V-1Σ(V-1)t = I con lo que resulta que P = V-1
Con esto, las transformaciones anteriores serán realmente: Y* = V-1Y, X* = V-1X, u* = V-1u
Y ahora se cumplirá que: Var(u*) = σ2u V-1Σ(V-1)t = σ2u I
Basados en el estimador MCO, podemos encontrar el estimador de MCG:
βMCG = (X*tX*)-1X*tY* ⇒ βˆMCG = ( X t Σ −1 X ) −1 X t Σ −1 Y
Adicionalmente, el estimador de MCG cumplirá con que:
E( βˆ MCG) = 0 y que Var( βˆ MCG) = σ2u (XtΣ-1X)-1
t
ûMCG Σ −1ûMCG
Finalmente se puede calcular el estimador: σˆ 2
=
n−k
MCG
HETEROSCEDASTICIDAD
Aquí se presentan 2 casos, el primero esta relacionado con su eficiencia mientras que el
segundo con su eficiencia estadística.
La estructura de covarianzas bajo el problema de heteroscedasticidad es:
σ 12 0 L 0
0 σ 2
L 0
Var (u) = E(uu ) =
t 2
M M O M
0 0 L σ n2
Si los parámetros σ21 , σ22 , ..., σ2n son conocidos, esta matriz puede descomponerse en:
σ 12 0 L 0 σ 1 0 L 0 σ 1 0 L 0
0 σ 2
L 0 0 σ2 L 0 0 σ2 L 0
2
= = VV t
M M O M M M O M M M O M
0 0 L σ n2 0 0 L σ n 0 0 L σn
1/ σ 1 0 L 0
0 1 / σ2 L 0
Con esto: V −1 =
M M O M
0 0 L 1/ σ n
Lo que hemos conseguido es estandarizar los errores. Dado que la esperanza de los errores es
cero, el denominador de los elementos en u* puede interpretarse como la desviación con
respecto a ala media, y al dividirlo entre la desviación estándar obtenemos los errores
estandarizados. Por ello se distribuirán normalmente con media 0 y varianza 1. Esto sería el
beneficio de esta transformación. El costo es que las demás variables del modelo también han
sido divididas por dicha desviación estándar con lo cual su interpretación es distinta a la
original.
Causas de la Heteroscedasticidad
Contrastes de Heteroscedasticidad
AUTOCORRELACION
La tercera condición de Gauss – Markov implica que el término de error para cada observación
se determina independientemente de los valores que pueda arrojar el resto de las
observaciones de la muestra. Específicamente, la independencia de las perturbaciones implica
que su covarianza es cero (Cov(ui , uj) = 0, para todo i ≠ j). Cuando esta condición no se
cumple se dice que el error presenta autocorrelación.
Los problemas asociados a la presencia de autocorrelación son similares a las que se
presentan ante errores heteroscedásticos. Los estimadores MCO se mantienen insesgados
pero dejan de ser eficientes. Pero como alternativa a la estimación MCO, la estimación por
MCG arroja estimadores más eficientes en el sentido de presentar menor varianza.
Causas de la Autocorrelación
Si aún consideramos que los errores son homoscedásticos, podemos considerar que la matriz
de varianzas y covarianzas tiene la siguiente forma:
1 ρ ρ2 ρ3 L ρ n −1
ρ 1 ρ ρ2 L ρ n− 2
Cov (u) = σ u Σ = σ u ρ 2
2 2
ρ 1 ρ L ρ n−3
M M M M O M
ρ n −1 ρ n−2 ρ n −3 ρ n−4 L 1
βˆMCG = ( X t Σ −1 X ) −1 X t Σ −1 Y
Detección de Autocorrelación
Existen pruebas que nos sugieren la forma de la autocorrelación y otros que nos dirán
simplemente si hay o no autocorrelación.
a) Test de Durbin Watson (d)
Verifica la autocorrelación de primer orden: ut = ρut-1 + εt (εt es un ruido blanco)
Se considera H0 : No existe Autocorrelación
H1 : Existe Autocorrelación
∑ n2 (û t − û t −1 ) 2
El estadístico propuesto es: d =
∑ n2 û 2t
Donde û t son los residuos MCO obtenidos de Y = X βˆ MCO + û
∑uu
n
t −k
= 1 t
Donde: rk
∑u
n 2
1 t
i=1
Alternativamente, Ljung – Box presentan un refinamiento del estadístico Q:
p
ri2 ∼ χ2 (p)
Q ′ = n(n + 2 )∑
i =1 ( n − i)
Veamos por ejemplo el siguiente resultado obtenido a través del análisis con el programa
Econometric Views:
Al restar las ecuaciones (1) – (2): (Yt - ρYt-1 ) = α - ρα + (Xttβ - ρXtt-1 β) + (ut - ρut-1 )
Donde se ha conseguido que el término de error sea un ruido blanco (εt ∼ N(0,σ2ε ))
UNIVERSIDAD NACIONAL DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERIA ECONÓMICA
SEMESTRE 2010 - I
Curso : Econometría II
PROBLEMAS DE DATOS
Es frecuente que los datos disponibles para estimar un modelo de regresión no se adapten
exactamente a la teoría en que se basa el modelo. Suelen surgir problemas como:
1) Multicolinealidad: Las variables medidas están tan correlacionadas unas con otras que
no es posible analizar con precisión los efectos individuales de cada una de ellas.
2) Datos incompletos: Algunos datos no son recogidos.
3) Datos agrupados: La información contenida en los datos originales no son conocidos
ya que los datos disponibles se han obtenido a partir de medias de los datos originales
o con algún otro método de agregación.
4) Errores de medida: Los datos medidos no corresponden a los datos del modelo, bien
porque la medición ha sido imprecisa, o bien porque las variables del modelo, por su
naturaleza, no son medibles.
Si sucede que Rango(X) = n < k, entonces matriz X no puede tener rango completo con lo que
el determinante de la matriz XtX es cero por lo que (XtX)-1 es indeterminado y βˆMCO .
La multicolinealidad se refiere solo a las relaciones lineales entre las variables independientes y
no a cualquier otro tipo de relación, si xi = x2j, entonces no existirá multicolinealidad en el
modelo. El problema de la multicolinealidad esta definido por el alto grado de intercorrelación
entre las variables explicativas. Entonces se trata de un problema de grado y no teórico como
el caso de la heteroscedasticidad o la autocorrelación.
Todo modelo econométrico tenderá a presentar este problema, solo que en algunos casos la
severidad del problemas es será mayor. En este sentido, el grado se refiere a la severidad de la
correlación entre las variables explicativas.
IMPLICANCIAS DE LA MULTICOLINEALIDAD
En este caso no es posible hallar una solución única para los coeficientes de la
regresión individual, dado que existirán infinitas soluciones al sistema de ecuaciones
normales. Pero cualquiera de los vectores que soluciona el sistema genera la misma
suma residual con lo que cualquiera de ellos provocará la misma medida de bondad de
ajuste (R2). Sin embargo, si se puede obtener una solución única para combinaciones
lineales de estos coeficientes.
DETECCION DE LA MULTICOLINEALIDAD