You are on page 1of 40

MANUAL DE ECONOMETRIA

Profesor: Medardo Aguirre Gonzlez


2

INDICE

PRUEBAS DE NORMALIDAD 03
MODELO LINEAL SIMPLE
Estimadores mnimos cuadrticos ordinarios 04
Pruebas para correlacin de Pearson 06
Problema de prediccin 07
MODELO LINEAL MLTIPLE
Formulacin matricial 08
Supuestos bsicos 08
Coeficiente de determinacin 09
Prueba F-Global 09
Test de razn de verosimilitud 10
Pruebas t para los parmetros individuales 12
Coeficientes beta 13
Pronsticos 14
Puntos influyentes 16
Error cuadrtico medio 17
Modelos con trmino de interaccin 19
Prueba de una hiptesis lineal 21
Variables dicotmicas 23
MULTICOLINEALIDAD
Diagnstico de la multicolinealidad 24
Correlaciones parciales 25
HETEROCEDASTICIDAD
Test de heterocedasticidad 26
Mtodo de los mnimos cuadrados ponderados 28
AUTOCORRELACIN
Autocorrelacin residual de orden 1 30
Mtodo de Cochrane-Orcutt 31
Test de Durbin-Watson 33
Otros test de autocorrelacin 34
3

PRUEBAS DE NORMALIDAD

Sea X ~ f X , tal que X , 2 V X

Sesgo de X
3 2
m


a3 X 33 en que: X X X X
S m3 S2
n n 1

Curtosis de X
4
m

a 4 X 44 en que: X X
S m4
n

Test de Sesgo: H 0 : a3 X 0

a3 X
Zn
6 ~ N 0,1
n

Test de Curtosis: H 0 : a4 X 3

a4 X 3
Zn
24 ~ N 0,1
n

Test de Jarque-Bera: H 0 : X ~ N ,
2

JB
n 2
a X
a 4 X 3 2 2
3 2
6 4
4

MODELO LINEAL SIMPLE


Y 0 1 X Y 0 1 X Y Y

Supuestos Bsicos:

(1) X fija (determinstica)


(2) ( i ) 0 , 1 i n

(3) V ( i ) 2 , 1 i n (residuos homocedsticos)

(4) E ( i j ) 0 , 1 i j n (residuos no-autocorrelacionados)

(5) Supuesto de Normalidad: i N (0, 2 ) , 1 i n

Estimadores Mnimo Cuadrticos Ordinarios

XY n X Y
1
1


X X Y Y
X X 1
X 2
2

X 2

n

0 Y 1 X



V ( 0 ) 2
X 2

E( 0 ) 0
n ( X X ) 2

2
V ( 1 )
E ( 1 ) 1
(X X ) 2


X
Cov ( 0 , 1 ) 2

(X X ) 2
5

Estimadores para las varianzas y covarianza

S 2
2
Estimador insesgado de 2
E ( S 2 ) 2
n2

S 2 S 2
X 2

S 2
X 2


0
n(X X ) 1
n X 2 ( X ) 2
2

S 2 S 2
S 2

1
(X X ) X 2 n ( X ) 2
1 2


X X
S S 2
S 2

X X

X 2 n X
0 1
2
1 2
6

TEST PARA: H0 : r ( X ,Y ) 0

(1) Test de Fisher

n3 1 r
Zc ln ~ N 0,1
2 1 r

(2) Prueba F

Fc
n 2 r 2 ~ F(1,n 2 )
1 r2

(3) Prueba t

Teorema:
F ~ F(1,n 2 ) F ~ t ( n2)

n2 r
tc ~ t ( n2)
1 r2

(4) Criterio

Para = 0.05 y n 20
t 2
2

n2 r 2
Se rechaza H 0 para 2 r
1 r2 n

RELACIN ENTRE R 2 Y r ( X ,Y )

XY n X Y
1
r ( X ,Y )
X X Y Y
X X Y Y 1
X 2 1
Y 2
2 2

X 2

n
Y 2

n

Teorema:

R 2 r 2 ( X ,Y )
7

PROBLEMA DE PREDICCION

Y 0 1 X , Y 0 1 X , Y es la estimacin de E Y para X dada.

Hay dos clases de prediccin:

(1) Prediccin de E Y / X 0 : Prediccin Media


(2) Prediccin de Y para X 0 : Prediccin Individual

Intervalo de la Prediccin Media

Y0 0 1 X 0 estimacin puntual de E Y / X 0 0 1 X 0


1
Y0 N E Y / X 0 , y o , y2 2
X 0 X 2

X X
2
n
0

Sea
1
S y20 S2
X 0 X 2 es un estimador de 2
n X X
2 y 0

n 1 S y2 0
2n 2
2

Y0 E Y / X 0
Por lo tanto t c t n2
S y 0


Por lo tanto Y0 t n 2 S y 0
2

Intervalo de la Prediccin Individual


V Y0 Y0 E Y0 Y0 2 1
2 1
X X
0
2

X X
2
n

S 2
1
S 1 2 X X 0
2


X X
y 0 y 0 2
n

Observacin:

Los intervalos de confianza para predecir asumen su amplitud ms pequea cuando


X 0 X y aumentan a medida que X 0 se aleja de X .
8

MODELO LINEAL MLTIPLE

Yi 0 1 X 1i ki X ki i , 1 i n
Yi 0 1 X 1i ki X ki i Yi Yi in

Formulacin matricial

Y X1 ... Xk Y
Y1 X 11 ... X k1 Y
1
1

Yn X 1n ... X kn Yn n

Y1 1 X 11 X k1 0 1


Y 1 X X kn k n
n 1n

Y X
Resumidamente
Y X Y Y

X t X X t Y
1
Estimadores Mnimo Cuadrticos Ordinarios :

Varianza de los estimadores :


V 2 2 X t X 1

t
Estimador de 2 : S2 es un estimador insesgado y consistente de 2
n k 1

Supuestos Bsicos:

(1) X 1 , , X k fijas (determinsticas)

(2)
X 1 , , X k no correlacionadas X i , X j 0 1 i j n
(3) ( i ) 0 , 1 i n

(4) V ( i ) 2 , 1 i n (residuos homocedsticos)

(5) E ( i j ) 0 , 1 i j n (residuos no-autocorrelacionados)

(6) Supuesto de Normalidad: i N (0, 2 ) , 1 i n

COEFICIENTE DE DETERMINACIN

Y Y
2
SCT : Varianza total de Y
9

SCE Y Y 2 : Varianza de Y no explicada por el modelo


2

SCM Y Y
2
: Varianza de Y explicada por el modelo

SCT SCM SCE

SCM SCE SCE / n k 1


R2 1 , O R 2 1 R 2 Ajustado:
2
R Aj 1
SCT SCT SCT / n 1

MODELO DE REGRESION SIN INTERCEPTO

Y 0 1 X 1 .... k X k Y 1 X 1 .... k X k

Si se elimina el intercepto de un modelo de regresin mltiple, entonces no hay garanta de que


i 0

1 i n con esto, no podemos asegurar que los EMCO 1 , ...., k
sean
insesgados.

Adems, es posible que R 2 asuma valores fuera del rango [0,1], de hecho puede ocurrir que

R2 0 .

PRUEBA F GLOBAL

SCE 2
(n k 1) S 2 SCE
2n k 1 no-central: (2n k 1)
2 2
(2n k 1)

i N (0, 2 ) Yi N ( X i , 2 )

(n 1) S Y2 SCT
SCT (Y Y ) 2 (2n 1) no-central: (2n 1) (2n 1)
2 2

SCM
SCM SCT SCE (k
2
) no-central: (k
2
)
2
10

Teorema:

X 1 ( n1 )
2
, X 2 (2n2 ) ; X1, X 2 v.a.i.

Entonces:

X 1 / n1
F( n1 , n2 )
X 2 / n2

SCM / k
H 0: 1 0 Fc F( k , n k 1)
SCE /( n k 1)

RELACION ENTRE Fc y R2

R2 / k
Fc
(1 R 2 ) /( n k 1)

TEST DE RAZON DE VEROSIMILITUD

Consideremos de nuevo la hiptesis: H0 : c q

Sean: Y X el modelo no restringido y Y Z * el modelo restringido bajo


H0
Sean: ln f 1 , , n la funcin de log-verosimilitud para el modelo no restringido y
ln f , , n* la funcin de log-verosimilitud para el modelo restringido bajo H 0 .
*
1

Entonces:
2 ln f 1 , n ln f 1* , n* ~ 2 J

Observacin: Si N 0, 2 I n , entonces;


f 1 , , n 2 2
n / 2
Exp
1
t
2
2

ln 2 2 ln 2 2
n 1 t n 1
ln f 1 , , n Y X t Y X
2 2 2
2 2 2

Anlogamente:

ln f 1* , , n* ln 2 *
n
2
2

2
1
*
2
t n
Y Z Y Z ln 2 *
2
2 1
2 ' 2
* t *
11

Test de Razn de Verosimilitud

Sea: Y 0 1 X 1 k X k y 1 , , n residuos estimados.

ln f 1 , , n funcin de log-verosimilitud.

H 0 : Hiptesis lineal sobre los parmetros 0 , , k

Supuesto: J-ecuaciones linealmente independientes

Sean 1 , , n los residuos estimados con el modelo restringido bajo H 0 .


* *

ln f 1* , , n* funcin de log-verosimilitud.

Entonces:


2 ln f 1 , n ln f 1* , nn ~ 2
J

EJEMPLO

Si i ~ N 0, 2 1 i n


f 1 , , n 2 2 n / 2
e i
2 / 2 2

ln f 1 , , n
n

ln 2 2
1
i
2
S2 i
estimador insesgado para
2 2 2 n k 1
2

n k 1
n
1
n


ln f 1 , , n ln 2 S 2 2 i
2 ln 2 S2
2 2 S 2 2

As:

n k 1 n n k* 1

ln f 1 , , n ln f 1* , , n* n
2

ln 2S2
2
ln 2S2*
2 2

n S * k k*
2

2
2 2


*

ln 2S * ln 2S n k 1 n k 1 ln 2
n 1
2 S

2

n S 2* J S2
2 ln 2 n ln 2 J
*
Luego,
2
2 S S
12

PRUEBAS T PARA LOS PARMETROS INDIVIDUALES

H 0 : 0 0* ; H 0 : j *j


0
N 0 , 20

j
N j , 2 j

0 0 j j
N (0 , 1) y N (0 , 1)

0 j

Adems:
n k 1 S2 ~ (2n k 1)
2

Teorema:

X1 ~ N (0,1) , X2 ~ (2p ) , X1 , X 2 v. a.i

Entonces:

X1
X2 ~ t( p)
p


0*
H0 : 0 *
0
tc 0 ~ t ( n k 1)
S
0

j *j
H0 : j *j tc ~ t ( n k 1)
S
j
13

COEFICIENTES BETA

Y 0 1 X 1 .......... k X k

Y Y
Y
*

SY

X Xi
X i* i
S xi

X X1 X Xk
Y * 1* X 1* ....... k* X k* * 1* 1 ..... k* k
S X1 S Xk



Y Y * X1 * Xk * 1 * 1
1 ..... k 1 X 1 ..... k Xk
SY S X1 SXk S X1 SXk

S S S S
Y Y 1* Y X 1 .... k* Y X k 1* Y X 1 .... k* Y X k
S X1 S Xk S X1 S Xk

SY S
0 Y 1* X 1 .... k* Y X k
S X1 S XK
SY S X1
1 1* 1* 1
S X1 SY
. .
. .
. .
SY S Xk
k k* k* k
S Xk SY
14

PRONSTICOS

Yi 0 1 X 1i ... k X ki i 1 i n Y X


Y i 0 1 X 1i ... k X ki 1 i n

Suponiendo que queremos estimar el valor de Y para particulares valores de X 1 ,..., X k , a decir:
X 10 ,..., X k0

Sea Y 0 0 1 X 10 ... k X k0


1 0

X10 1

Si
X . y .
0
. .

. .
Xk
0
k
Entonces:



Y 0 X 0t ,

~

N ,V 2
X t
X 1



Y0 ~ N Y 0 , V Y 0



Y 0 X 0t X 0t X 0t Y0

15

Tal que: Y0 0 1 X 10 ... k X k0 Y0 X 0t

Varianza de la prediccin media



1
V Y 0 V X 0t X 0t V X 0 2 X 0t X t X X0



1
Estimador para V Y 0 : V Y 0 S2 X 0t X t X X0

16

Intervalo de Confianza:

Y 0 t S2 X 0t X t X
1
X0 t valor en tabla t
n k 1
2
2

Varianza de la prediccin individual


V Y 0

2
1 X t
0 X t
X 1
X0

Estimador para V Y 0 :




V Y 0 S2 1 X 0t X t X

1
X0
Intervalo de Confianza:

Y 0 t S 1 X 0t X t X
1
X0 t valor en tabla t
n k 1
2
2

EVALUACIN DE PRONSTICOS

Error Cuadrtico Medio


2


Y i Yi


ECM Y
ECM Y
n

Coeficiente de desigualdad de Theil

2

Y i Yi
U n 0 U 1
2
Y i

Y i
2

n n


Ntese que Y i Yi ; 1 i n

U 0 ajuste perfecto y si U 1 el ajuste es muy malo.


17

PUNTOS INFLUYENTES (OUTLIERS)

(1) Residuos Studentizados

i
j : EMCO para j cuando se extrae la i-sima observacin.

i i i i
j : Y j 0 1 X 1 j ... k X k j

i
j
Residual Studentizado: *j 2
S i

S2 i estimador de la varianza del error cuando se extrae del modelo la i-sima observacin.

*j 1,96 residuo atpico.

Si hay ms de un 5% de puntos atpicos se puede cuestionar el supuesto de normalidad.

(2) DF Betas

i
j
DF Beta j
S i
j
DF Betas j 1,96 Punto influyente en la estimacin de j
j

2
Criterio general: DF Betas
n
18

ERROR CUADRTICO MEDIO


Estimador de Estimador insesgado de solo si E


2

V E E Sesgo E

2

ECM : E

2 2

ECM E E E E


2

2

E E 2 E E E

2 2

E E 2 E E E E E

2

V 0 E

2

ECM V sesgo

Sea Y 0 1 X 1 2 X 2 y X 1 , X 2 la correlacin de Pearson entre X 1 y X 2 .




Consideremos H 0 : 2 0 , t 2 2
S
2

1 EMCO para 1 ; es un estimador insesgado.

Suponiendo que se extrae del modelo la variable X 2 .

Y 0 1 X 1

*
Sea el EMCO para
1
1

*
1 es un estimador sesgado para 1

*
Pero: V V
1 1

*
Qu estimador se prefiere o ?
1 1
19

Un criterio podra ser el que tenga menos error cuadrtico medio:

*
1
ECM



1 2
1 2 X , X t 2 1
2
ECM 1

20

MODELO CON TRMINOS DE INTERACCIN

Se quiere incorporar al modelo el hecho que el comportamiento marginal de Y con respecto a X s


depende del nivel de otra variable X t (y recprocamente, el comportamiento marginal de Y con
respecto a X t depende del nivel de X s . Una forma de lograr este efecto es incorporar como
variable exgena del modelo el producto X s X t .

Y 0 1 X 1 ... s X s ... t X t ... X s X t ... k X k

Y Y
As: s X t t X s
X s X t

EJEMPLOS

1) Se hizo un estudio para analizar la influencia del precio ( X 1 ) y los gastos en publicidad (
X 2 ) en las ventas de cierto modelo de automvil de una determinada marca ( Y ). Con datos de
30 concesionarios se estim el siguiente modelo:

Y 116 .16 1.31X 1 11 .24 X 2
(11 .5) ( 9.6) ( 4.7)
R 0.96
2
Fc 10.96

1.1- Cmo reformulara el modelo para recoger la posible interaccin entre precio y gasto en
publicidad?

Solucin:
Y 0 1 X 1 2 X 2 X 1 X 2

X1X 2 : Trmino de interaccin.

Y Y
1 X 2 2 X 1
X 1 X 2

1.2- Cmo verificara en este nuevo modelo la hiptesis de que las ventas no estn influidas
por los gastos en publicidad?

Solucin:
H0 : 2 0
21

2) Se desea especificar un modelo del comportamiento del gasto de las familias en un


determinado grupo de bienes, hacindolo depender de los ingresos y el tamao familiar. El modelo
debe recoger que la elasticidad demanda-venta no es constante, sino que depende del tamao de
la familia y que, a su vez, la elasticidad demanda-tamao familiar es funcin del nivel de ingreso.

2.1- Especifique el modelo

Y gasto familiar en un grupo de bienes, X 1 ingresos y X 2 tamao familiar.


En un modelo log-log
ln Y 0 1 ln X 1 2 ln X 2

Las elasticidades demanda-renta y demanda-tamao son constantes. Para que las elasticidades
demanda-renta y demanda-tamao dependan respectivamente del tamao familiar y del nivel de
ingreso, es necesario incorporar al modelo los correspondientes trminos de interaccin.

ln Y 0 1 ln X 1 2 ln X 2 1 ln X 1 X 2 2 ln X 2 X 1

1 Y 1 1 X 1 Y
As se tiene: 1 1 X 2 1 1 X 2
Y X 1 X1 X1 Y X 1

YX1 1 1 X 2

Anlogamente:

1 Y 1 1 X 2 Y
2 2 X1 2 2 X1
Y X 2 X 2 X2 Y X 2

YX 2 2 2 X 1

2.2- Si desea, adems, que la elasticidad-renta dependa del nivel de renta. Especifique el
modelo.

ln Y 0 1 ln X 1 2 ln X 2 1 ln X 1 X 2 2 ln X 2 X 1 3 X 1

As:

1 Y 1 1 X 1 Y
1 1 X 2 3 1 1 X 2 3 X 1
Y X 1 X1 X1 Y X 1

YX1 1 1 X 2 3 X 1
22

PRUEBA DE UNA HIPTESIS LINEAL

Prueba de la hiptesis: H 0 : C q

Y 0 1 X 1 k X k

H 0 : C q

C10C11 C1k 0

C20C21 C2k B1
C


C C C
m0 m1 mk k
C10 0 C11 1 C1k k q1
C 20 0 C 21 1 C 2 k k q 2

C m 0 0 C m1 1 C mk k q m

Para: Y X se tiene

ANOVA
Fuente Grados de libertad
SCM k
SCE n k 1
SCT n 1

Supongamos que las m - ecuaciones de H 0 son linealmente independientes. Entonces, se puede


expresar como combinacin lineal de m de las los restantes k 1 m

Se obtiene as, bajo H 0 el modelo:


Y Z '
Para este modelo se tiene:

Y 0 1 Z1 k m Z k m '

ANOVA
Fuente Grados de libertad
SCM C q k m
23

SCE C q n k 1 m
SCT n 1
24

Claramente: SCE C q SCE

SCE C q SCE 2 ( m )

SCE 2 ( n k 1)

Se propone entonces para probar la hiptesis: H 0 : C q

la estadstica:


SCM ( ) SCM (C q) / m SCE (C q) SCE ( ) / m R 2

RC2 / m
FC
SCE ( ) / n k 1 SCE ( ) / n k 1 1 R / n k 1 F
2

m , n k 1

EJEMPLO:

Consideremos una funcin de produccin tipo Coob-Douglas:

Q AK L
Q es homognea de grado
Q (K , L) A(K ) (L) AK L
Q( K , L)

<1 ; rendimientos de escala decrecientes


=1 ; rendimientos de escala constantes
>1 ; rendimientos de escala crecientes

Se requiere probar la hiptesis:


H0 : 1
Consideremos el modelo:

ln(Q ) ln( A) ln( K ) ln( L )


SCE 2 ( n3)

Apliquemos: H 0 : 1 1
ln(Q) ln( A) ln( K ) (1 ) ln L
ln( A) ln( L) ln( K ) ln(L)
K
ln( AL) ln
L
SCE C q 2 ( n 2)

FC
SCE (C q) SCE ( ) / 1 F
1, n 3
SCE ( ) / n 3
25

VARIABLES DICOTMICAS

Y 0 1 X 1 k X k Y , X1 , , X k Continuas

1
Si tenemos Q AK L 2 podemos

1. Generar modelos separados

a) ln Q 0 1 ln K 2 ln L Suponiendo empresas en A
b) ln Q 0 1 ln K 2 ln L Suponiendo empresas en Ac
2. Utilizar variables dicotmicas

0 en otro caso
D w
1 si w A
Las variables dicotmicas pueden ser incorporadas de dos maneras:

1. Aditiva: Provoca efecto sobre el intercepto, es decir sobre el nivel

ln Q 0 1 ln K 2 ln L D

Si D 0 ln Q 0 1 ln K 2 ln L

Si D 1 ln Q 0 1 ln K 2 ln L

2. Multiplicativa: Provoca efecto sobre la pendiente.

ln Q 0 1 ln K 2 ln L D ln L

Si D 0 ln Q 0 1 ln K 2 ln L

Si D 1 ln Q 0 1 ln K 2 ln L

INTERPRETACIN DE LOS PARMETROS ASOCIADOS A VARIABLES DICOTMICAS

El nico caso en que se puede dar una interpretacin al parmetro asociado a una variable
dicotmica es en un modelo del tipo:

ln Y 0 1 D 2 X
26

1 si w A
D w
0 si w Ac
e 1 % : Cambio relativo en la media de Y para D=1 c/r a D=0.
1
27

MULTICOLINEALIDAD

1. Efectos de la multicolinealidad

Consideremos el modelo: Yi 0 1 X 1i 2 X 2i i 1 i n

Entonces:


V 1
S 2
X 1i X 1 1 rX21X 2
i


V 2
S 2
X 2i X 2 1 rX21X 2
i


COV 1 , 2 S 2 rX 1 X 2
1 r X
2
X1 X 2 1i X1
2
X 2i X2
2

i i

Ntese que: r 2
X1 X 2
1 V 1 V 2

De aqu, se puede observar que una alta correlacin entre las variables exgenas del modelo,
implica un crecimiento en la varianza (error de estimacin) de los EMCO asociados a dichas
variables.

El efecto, entonces, de un problema de multicolinealidad es el incremento en el error de estimacin


de los EMCO, aunque tericamente stos pueden seguir siendo eficientes (lo que ocurre es que
aumenta la cota de Cramer-Rao para los estimadores insesgados de los parmetros).

2. Diagnstico de la multicolinealidad

i) R2 alto y pruebas t no significativas.

X i , X j
ii) significativamente alta para algn 1 i j k .

iii) R2 alto y correlaciones parciales bajas.

iv) ndice de Tolerancia: TOL j 0.10 implica multicolinealidad grave.

v) Factor de Inflacin de la Varianza: FIV j 10 implica multicolinealidad grave.

vi) ndice de condicin: IC > 30 implica multicolinealidad grave, 10 IC 30 implica


multicolinealidad moderada.
28

2.1.ndice de Tolerancia: TOL j 1 R j


2

R 2j : X j 0 1 X 1 j 1 X j 1 j 1 X j 1 k X k

1 1
2.2.Factor de Inflacin de la Varianza: FIV j
1 Rj
2
TOL j
Se considera sntoma de multicolinealidad grave:

R 2j 0.9 FIV j 10 TOL j 0.10 1 j k

2.3. ndice de Condicin:

K

mximo valor propio de X t X
1

IC K
mnimo valor propio de X X t 1

Multicolinealidad grave : IC 30
Multicolinealidad moderada : 10 IC 30

2.4. Correlaciones parciales:

Rk2 : Y 0 1 X 1 k 1 X k 1 k X k
Rk21 : Y 0 1 X 1 k 1 X k 1
Rk2 Rk21 SCM 0 , , k SCM 0 , , k 1
2
t k
r 2

SCE 0 , , k 1
YX k / X 1 X k 1
1 Rk21 t 2k n k 1

2
En que t k es la estadstica pivote para la prueba de hiptesis 0 : k 0
29

TEST DE HETEROCEDASTICIDAD

En principio se considerar que i es un estimador de i

1. TEST DE CORRELACIN POR RANGOS DE SPEARMAN

Yi 0 1 X 1i k X ki i

H o rs i , X ji 0 1 j k , rs correlacin por rangos de spearman

Si se rechaza H o entonces hay indicios de heterocedasticidad y la variable exgena X j sera la


causa.

2. TEST DE PARK

Yi 0 1 X 1i k X ki i V i i2

H 0 : i2 2 X ji ei


ln i2 ln 2 ln X ji i

ln i2 ln X ji i

Si no se rechaza H o , entonces hay indicios de heterocedasticidad y la causa sera una relacin


funcional de tipo exponencial entre i y X ji .
2

Para tomar la decisin se analiza la hiptesis


H0 : 0 t
S

Si es significativo no se rechaza H o

3. TEST DE GLEJSER

Yi 0 1 X 1i k X ki i V i i2

H 0 : i X ji i 1 j k

H0 : i X ji i 1 j k
30

Si alguna de estas hiptesis no se rechaza entonces significa que hay indicios de


heterocedasticidad.

Para probar estas hiptesis se regresiona

i X ji i

i X ji i

y se prueba la hiptesis H 0 : 0


t
S

Si es significativo entonces no se rechaza H o .

4. TEST GENERAL DE WHITE

Yi 0 1 X 1i k X ki i V i i2

k
i2 0 i X j i st X s i X t i i R2
j 1 s t

i2 i2

H o : 1 0 1 i k , st 0 1 s, t k Hiptesis de homocedasticidad

c2 n R2 (2g )

Tal que ( g ) : Nmero de regresores (sin considerar el trmino constante)


31

MTODO DE LOS MNIMOS CUADRADOS PONDERADOS

El mtodo de los mnimos cuadrados ponderados es capaz de producir estimadores que sean
eficientes.

Si se considera

Yi 0 X oi 1 X i i Donde X oi 1 para cada i

Suponer que las varianzas homocedsticas i son conocidas. Divdase a ambos lados por i y
2

se obtiene

Yi X X
0 oi 1 i i
i i i i

Lo que se puede escribir como Yi 1 X oi 2 X i i en donde las variables con asterisco o


* * * * * *

variables transformadas son las variables divididas por i .

Cul es el propsito de transformar el modelo original?

2

var *
i E
* 2
i E i
i

1

E i2 puesto que 2 es conocida
i2
1

2 i2 puesto que E i2 i2
i
=1

Es decir, la varianza del trmino perturbacin es ahora homocedstica. Si se conservan los otros
supuestos el hallazgo de que * es homocedstico sugiere que si se aplica MMCO al modelo
transformado se producirn estimadores eficientes

OTRAS MEDIDAS CORRECTIVAS

2
Supuesto 1: La varianza del error es proporcional a X i :
E i2 2 X i2

Se divide el modelo original por X i

Yi 0 1
1 i 0 1 vi
Xi Xi Xi Xi

i
donde v i es el trmino de perturbacin transformado, igual a ahora es fcil de verificar que
Xi
32

2

E v E i 2 E i2 2
2 1
i
Xi Xi

Por tanto, la varianza de v i es homocedstica.

Supuesto 2: La varianza del error es proporcional a X i . La transformacin de raz cuadrada:

E i2 2 X i2

Entonces el modelo puede ser transformado de la siguiente manera

Yi 0 1
1 X i i 0 1 X i vi
Xi Xi Xi Xi

i
Donde v i y donde X i 0
Xi

As se puede verificar que


E vi2 2 es una situacin homocedstica

Supuesto 3: La varianza del error es proporcional al cuadrado del valor medio de es proporcional
al cuadrado del valor medio de Y


E u i2 2 E Yi
2

Ahora,

E Yi 0 1 X i

Por consiguiente, se transforma la ecuacin original de la siguiente manera,

Yi Xi 1 Xi
0 1 i 0 1 i
E Yi E Yi E Yi E Yi Yi Yi

i
Donde vi
E Yi
, puede verse que
E vi2 2 , es decir, las perturbaciones vi son
homocedsticas.
33

AUTOCORRELACION RESIDUAL

Yt 0 1 X 1t k X kt t , t: tiempo 1 t T

Supongamos: t 0 , V t 2 , t

2 1 2 1 T

2 1 2 2 T
V 2 n

2
T 1 T 2

Cov i , j i j i j i j


V X t X 1
Xt XX t
X 1

X t X X t Y
1
Si EMCO

no es de varianza mnima aunque puede seguir siendo insesgado , , depende


slo de 0

AUTOCORRELACIN RESIDUAL DE ORDEN 1


Sup. que H 0 : 1 t , t 1 0 es falsa
Es decir, hay un problema de autocorrelacin residual de orden 1

t t 1 t tal que t ruido blanco

Como t t 1 0 0

t t 1 t

t t t 1 es un ruido blanco

Si aplicamos MMCO:

T
t t 1 t t 1 y
t 2

T T

t 1 t
t 2

t 2
2
t 1
34

t 1 t
S t 1 , t
t 2
T

S 2t 1
t21
t 2

pero: S 2t 1 S 2t

S t 1 t
1 t 1 , t
S t 1 * S t

t 1 t 1 t es un ruido blanco

MTODO DE COCHRANE ORCUTT

Yt 0 1 X 1t k X kt t V t 2 t 0

t 1 t 1 t

Yt 1 0 1 X 1t 1 k X kt 1 t 1

Yt 1Yt 1 0 1 1 1 X 1t 1 X 1t 1 k X kt 1 X kt 1 t 1 t 1

ESTIMACIN DE 1

Sea Yt 0 1 X 1t k X k t t

1. Se aplica el MMCO al modelo original y se estiman los residuos: 1 ,........, T , 1


2. Se aplica el MMCO al modelo t 1 t 1 t y se obtiene un estimador eficiente de 1 ,
1
3. Se aplica estima el modelo

Yt* 0 1 1 1 X 1*t k X k*t t t Ruido Blanco

donde : Yt Yt 1Yt 1 , X it X it 1 X it 1 , 1 i k
* *

Yt 0 1 1 1Yt 1 1 X 1t ....... k X k t t

Aplicando MMCO se obtienen valores estimados para los parmetros: 0 , 1 , , k y 1


35

Observacin:

Otra forma de estimar 1 es a partir de la relacin:

DW 21 1
DW 2 2 1
2 1 2 DW
2 DW
1
2
Esto produce un estimador de 1 que slo es consistente

MATRIZ DE VARIANZAS COVARIANZAS DEL ERROR EN PRESENCIA DE


AUTOCORRELACIN RESIDUAL

Yt 0 1 X 1t k X kt t

tal que t 0 , V t 1 t T
2

pero : t t m 0 m

FUNCIN DE AUTOCORRELACIN DE ORDEN m

t t m t t m
m t , t m
t t m 2

2 1 2 1 3 1 n

2 2 3 2 n
V 2 1

2
n 1 n 2 n 3

1 1 2 n 1

2
1 1 1 n2
V


n2 n 3 1
n 1
36

As, cuando hay autocorrelacin de orden 1

1 1 0 0 0

1 1 1 0 0
2
V 0 1 1 1 0

1
0 0 0 0 1

TEST DE DURBIN WATSON


t t 1
2

H 0 : 1 0 DW t 2
T
21 1

t 1
t
2

1 0 DW 2 No hay autocorrelacin residual de orden 1

1 1 DW 4 Hay autocorrelacin residual (negativa) de orden 1

1 1 DW 0 Hay autocorrelacin residual (positiva) de orden 1

VENTAJAS DEL TEST DE D-W

La gran ventaja del test de D-W es que est basado en los residuos estimados, los cuales se
obtienen directamente del Anlisis de Regresin. Por tanto, en los sofware Estadsticos que poseen
un mdulo de Regresin se incluye directamente en el primer informe emitido, el clculo de la
estadstica D.

Se puede aplicar siempre el test de D-W?

El test de D-W no es aplicable siempre. Su aplicacin se basa en los siguientes supuestos:

1. El modelo bajo anlisis debe incluir el trmino de intercepto. Aunque el modelo no pase por
el origen la SCE se debe obtener a partir de un modelo que contenga el trmino de
intercepto.

2. Las variables pre-determinadas del modelo X i i 1,..., k deben ser no estocsticas.

3. Los errores se generan mediante el esquema autorregresivo de primer orden


t 1 t 1 t

4. La prueba no es aplicable a modelos autorregresivos; es decir, a modelos que incluyen


valores rezagados de la variable endgena como variables pre-determinadas.
Yt 0 1 X 1t k X k t Yt s t

5. No debe haber valores faltantes en la base de datos.


37

PRUEBA DE LAS RACHAS O DE GEARY

La prueba de las Rachas o de Geary es un test no paramtrico que permite probar la hiptesis:

H 0 : t 1 t n ; presentan comportamiento estrictamente aleatorio

Contra la alternativa

H1 : t 1 t n ; presentan comportamiento sistemtico

La prueba se basa en la observacin de los signos, + y -, de los residuos estimados,


t 1 t n .
Se define una racha como una secuencia ininterrumpida de los signos + o -.

La longitud de la racha corresponde al nmero de elementos que la compone.

Cuntas rachas deben haber si la serie t 1 t n es estrictamente aleatoria?

Debera haber muchas rachas, porque eso significara que t cambia frecuentemente de signo. Si
hay pocas rachas esto puede sugerir que los residuos t estn autocorrelacionados.

Notacin:
n = Nmero total de observaciones= n1 n 2
n1 = Nmero de signos +
n 2 = Nmero de signos
k = Nmero de rachas

Entonces, bajo el supuesto que:

(1) t 1 t n son v.a.i.

(2) n1 10 y n2 10

Se tiene que k tiene una distribucin asinttica de tipo Normal k , k , en que:


2

2 n1 n 2
k 1
n1 n 2

2 n1 n 2 2 n1 n 2 n1 n 2
k2
n1 n2 n
2
1 n 2 1
38

Entonces:

k k
Zc ~ N 0,1
k

Esta estadstica permite probar la hiptesis H 0 : t 1 t n ; presenta comportamiento


estrictamente aleatorio.

Observacin:

Cuando n1 20 o n 2 20 , Swed y Eisenhart han desarrollado tablas que


entregan valores crticos de las rachas esperadas en una secuencia de n observaciones.

Por ejemplo, supongamos que los signos de los residuos estimados t se presentan de la
siguiente manera:

(++)(---)(+)(-------)(++)

Entonces: n = 20
n1 = 7
n 2 = 13
k =7

PRUEBA DE BREUSCH-GODFREY PARA DETECTAR AUTOCORRELACION DE ORDEN


SUPERIOR (B-G)

La prueba de B-G es una generalizacin de la prueba de D-W.

La ventaja de esta prueba es que es aplicable an cuando el modelo tenga valores rezagados de la
variable endgena, Yt , como variables predeterminadas, Yt 1 ; es decir, el test es aplicable a
modelos autorregresivos.

Dados los residuos estimados de un modelo, de regresin t 1 t n y dada la funcin de


autocorrelacin k , la hiptesis de prueba es:
H 0 : 1 ...... p 0

Para probar esta hiptesis se propone la estadstica:

n p R2 2p

la cual, se demuestra que tiene una distribucin asinttica del tipo p


2

2
En que R es el coeficiente de determinacin que se obtiene al regresionar el modelo:
39

t 1 t 1 2 t 2 ........ p t p t , R2

Observacin:

(1) La prueba de B-G es aplicable an si el trmino de error es un proceso MA P ; es decir, que


los residuos son generados en la forma:

t t 1t 1 ...... 2 t 2 ....... p t p

donde es un trmino de error aleatorio con media cero y varianza constante.

(2) Cuando p 1 , el test de B-G se utiliza para probar la hiptesis:

H 0 : 1 0

en este caso, la prueba se conoce por el nombre de Prueba m de Durbin.

(3) El valor de p en el test de B-G, no se puede especificar a priori. Hay que experimentar.

PRUEBA ASINTOTICA

Para probar la hiptesis: H 0 : 1 0 ; se puede utilizar tambin la siguiente estadstica:

n 1 N 0,1

Se puede demostrar que la distribucin asinttica de n 1 es de tipo N 0,1 .

As que, cuando n es suficientemente grande n 30 se puede utilizar alternativamente esta


estadstica de prueba.

PRUEBA DE BERENBLUTT-WEBB. (B-W)

El test de B-W se utiliza para probar la hiptesis: H 0 : 1 1

Para construir una estadstica que permita probar esta hiptesis se procede de la siguiente
manera.

Consideremos el modelo lineal general:

Yt 0 1 X 1t ..... k X kt t , 1 t n

Se regresiona el modelo y se calculan los residuos estimados: t 1 t n


n
Se determina: SCE t t2
t 1

Luego, se considera el modelo:

Yt Yt 1 1 X 1t X 1t 1 ...... k X kt X kt 1 t , 2 t n
40

Se regresiona el modelo y se calculan los residuos estimados: t 2t n

n
Se determina: SCE t t
2

t 2

SCE t
Se propone, entonces el siguiente estadstico de prueba: g
SCE t

Cuando 0 0 en el modelo original, entonces los valores crticos para g se pueden obtener de
la tabla de D-W.

You might also like