Professional Documents
Culture Documents
de Economa Cuantitativa
Universidad Complutense de Madrid
ECONOMETRIA
Regresi
on lineal
Marcos Bujosa
marcos.bujosa@ccee.ucm.es
Version 0.1.04
Este material docente se distribuye bajo la Creative Commons Attribution-Share Alike 3.0 Spain. Para
ver una copia de esta licencia, visite http://creativecommons.org/licenses/by-sa/3.0/es/.
Tabla de Contenido
1.
2.
Regresi
on Lineal por Mnimos Cuadrados Ordinarios (MCO) . . . . . . . . . . . . . . . . .
1.1.
Introducci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.
1.3.
1.4.
Propiedades b
asicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.
Medidas de ajuste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Ap
endices
24
1.
Derivaci
on tradicional de las Ecuaciones Normales . . . . . . . . . . . . . . . . . . . . . . . 24
2.
3.
M
as propiedades algebraicas de la regresion por mnimos cuadrados. . . . . . . . . . . . . . 29
Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
Soluciones a los Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1. Regresi
on Lineal por Mnimos Cuadrados Ordinarios (MCO)
Captulos 2 y 3 de Wooldridge (2006)
Apendice E1 de Wooldridge (2006)
1.1. Introducci
on
En el tema anterior vimos que al relacionar un conjunto de datos de con otros conjuntos de informaci
on,
es posible lograr una mejor comprensi
on de los datos.
El primer ejemplo lo vimos con datos temporales; comprobado que si estos se representan graficamente relacionandolos con sus fechas correspondientes, se entienden mejor que si no incorporamos dicha
informaci
on temporal (vease la transparencia 27 del Tema 1, Pagina 17).
El seg
undo ejemplo (el que m
as nos interesa en este momento) usaba unos datos sobre el volumen de
ventas; y vimos que la la magnitud de las ventas era mas comprensible, si se relacionaban con los datos
sobre la antig
uedad de los vendedores:
C
odigo: ventas.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl
En este ejemplo (simulado) parece que hay una relacion lineal entre el volumen de ventas y la antig
uedad
del vendedor. Es decir, parece que los datos conjuntos de ventas y antig
uedad estan dispuestos aproximadamente a lo largo de una linea recta
y = a + b x;
aunque los puntos no est
an perfectamente alineados sobre la recta. Es como si la relacion entre ventas
y antig
uedad fuera del tipo
V entas = a + b Antig + OtrasCosas;
donde OtrasCosas es lo que desplaza los puntos fuera de la linea recta y = a + b x.
Podemos aproximar los datos de ventas como una funcion lineal de la antig
uedad
V\
entas = a + b Antig ?
C
omo calculamos la magnitud de los par
ametros a y b? es decir, cuales son los valores de la constante y
la pendiente de esta supuesta relaci
on lineal? Como evaluamos la bondad del ajuste de esta aproximaci
on
lineal?
2
Ejemplo 1. [funci
on de consumo:] Supongamos que el consumo y la renta disponible de las personas
se relaciona del siguiente modo:
CONn = 1 + 2 RDn + Un
donde CONn y RDn son el consumo y la renta disponible del individuo n-esimo respectivamente, y Un
son otros factores que afectan al consumo del individuo n-esimo distintos a su renta disponible (activos
financieros, estado de
animo, etc.).
d , como una
Si dispusieramos de datos sobre renta y consuno, podramos ajustar el consumo, con
funci
on lineal de la renta disponible, rd,
" #
i
h
1
c
c
d = 1 1 + 2 rd =
con
1 rd
2
Aqu llamamos
regresando (o variable a explicar) al vector de datos de consumo; con
regresores (o variables explicativas) al vector de unos (1) junto al vector de datos de renta disponible
(rd)
h
i
rd = X
vector de par
ametros a
" #
1
=
2
C
odigo: EjPvivienda.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl
Suponga que dispone de los siguientes datos:
n
1
2
3
4
5
6
7
8
9
10
11
12
13
14
Precio
199.9
228.0
235.0
285.0
239.0
293.0
285.0
365.0
295.0
290.0
385.0
505.0
425.0
415.0
Superficie
1065
1254
1300
1577
1600
1750
1800
1870
1935
1948
2254
2600
2800
3000
Cuadro 1: Superficie (en pies al cuadrado) y precio de venta de los pisos (en miles de d
olares) (Ramanathan, 2002, pp. 78)
Podemos suponer que el modelo que describe los precios es Y n = a + bXn + Un , donde Y n es el precio
del piso n-esimo, Xn es su superficie, y Un son otros factores que influyen en el precio del piso (situaci
on,
estado de mantenimiento, servicios, etc.)
Y podemos tratar de ajustar el precio como una funcion lineal de la superficie del piso.
" #
h
i
1
c1 1 +
c2 x =
b =
= X.
y
1 x
2
As,
c1 1 +
c2 x =
b=
y
yb1
yb2
yb3
yb4
yb5
yb6
yb7
yb8
yb9
yb10
yb11
yb12
yb13
yb14
1065
1
1254
1
1300
1
1577
1
1600
1
1750
1
c 1 c 1800
=
= 1 + 2
1870
1
1935
1
1948
1
2254
1
2600
1
2800
1
3000
1
1
1
1
1065
1254
1300
1577
1600
1750
" #
1800
1
= X.
1870
2
1935
1948
2254
2600
2800
3000
de manera que, por ejemplo, precio ajustado a la superficie del septimo piso de la muestra sera
yb7
c1 +
c2 x7
c1 +
c2 1800.
Recta de regresi
on
ZC
odigo: EjPvivienda.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl
550
ea
500
e
> 0
450
a
ct
de
u
aj
Re
price
400
y12
350
300
y7
250
200
150
1500
2000
sqft
2500
3000
c1 y
c2 de la recta y
c1 1 +
c2 x?
b =
C
omo calcular los par
ametos
st
y12
lin
yb1
.
.
.
ybn
x12
x13
x1k
1
c2 .. +
c3 .. + +
ck ..
c1 .. +
=
.
.
.
.
1
xN 2
xN 3
xN k
c1 1H2 +
c2 xH2
yb =
c3 xH3
+
ck xHk
+ +
h
i
= 1, xH2 , . . . , xHk b
= X b ;
b1
.
.
donde b =
. ;
bk
h
i
X = 1, xH2 , . . . , xHk ,
yb = X
[N 1]
[N k]
b
[k1]
T
ermino de error
Los errores cometidos por el ajuste ye para un hipotetico valor e y una muestra concreta y y X son
ee
y ye
e
y X ;
donde xn . = 1,
xn2 , ,
xnk .
y = ye + ee .
N
otese que descomponemos los datos en dos partes:
N
X
n=1
e2n =
N
X
yn yf
n
2
e | (y X )
e = ee| ee
= (y X )
n=1
Es decir, el ajuste para el individuo n-esimo dada la muestra {xn . } y los parametros e es:
e1
h
i
e
f
. f f
yf
n = xn . = 1, xn2 , , xnk .. = 1 + 2 xn2 + + k xnk .
ek
1
y1
1
y2
y =
.. X = ..
.
.
1
yN
!
e
a
y buscamos e = e tales que
b
y = X e + ee
x1
x2
..
.
xN
ee
ebX H2
e
ye = X
X H2
e
a1
"
X = 1, xH2 ;
e =
e
a
eb
#
;
y = ye + ee;
e
ye = X ;
ee = y ye
eb
bX H2
X H2
b
yb = X
a1
"
X = 1, xH2 ;
b =
b
a
bb
#
;
y = yb + eb ;
yb = X b ;
eb = y yb
e es mnima para valores b tales que los errores son ortogonales a los regresores de la muestra
La SRC()
X
eb X X| eb = 0.
As
X| eb = 0;
X| y X b = 0;
X| y X| X b = 0
es decir
X| X b =X| y
(1.1)
El c
alculo MCO de lo parametros es la solucion b a dichas ecuaciones
e es mnima para e = b .
Proposici
on 1.1. La suma de residuos al cuadrado SRC()
Demostraci
on. Sea e una estimaci
on de , entonces
e | (y X )
e =(y X b + X b X )
e | (y X b + X b X );
e
sumando y restando X b
ee| ee = (y X )
|
e
e ;
= eb + X(b )
eb + X(b )
sustituyendo y X b por eb
e | X| X(b );
e
=b
e| eb + (b )
ya que X| eb = 0.
e | X| X(b )
e es una suma de cuadrados (y por tanto semi-definido
Y puesto que el segundo termino (b )
positivo), se deduce que
e = ee| ee eb| eb = SRC().
b
SRC(cualquier )
La demostraci
on anterior es, para mi gusto, mas elegante que la que aparece en la mayora de los manuales
(b
usqueda del mnimo de la suma residual igualando a cero las primeras derivadas). No obstante, en la
Secci
on 1 del apendice se muestra la derivacion tradicional de las ecuaciones normales.
Condici
on para que las ecuaciones normales tengan soluci
on u
nica
X
=k
[N k]
En tal caso
b =(X| X)-1 X| y
(1.2)
Esta condici
on de independencia lineal de las columnas de X implica que X| X es de rango completo, es
decir, que existe la matriz (X| X)-1 .
Se dice que existe multicolinealidad perfecta cuando esta condicion no se satisface; es decir, cuando
hay dependencia lineal entre los regresores.
Esta condici
on garantiza la unicidad de las soluciones. Si no se cumple, no es posible encontrar unos
b
ametros del modelo lineal (ya que entonces hay infinitas soluciones posibles).
valores u
nicos, , para los par
Ejemplo 3. [ecuaci
on de salarios:] Supongamos el siguiente modelo no-lineal en los parametros
SALARn = e1 +2 EDU Cn +3 AN T IGn +4 EXP ERn +Un ;
donde SALARn es el salario del individuo n-esimo, EDU Cn son sus a
nos de educacion, AN T IGn sus a
nos
de antig
uedad en la empresa, y EXP ERn sus a
nos de experiencia en el sector de la empresa y Un son
otros factores distintos de los anteriores (Wooldridge, 2006, ejemplo 3.2).
Al tomar logaritmos tenemos un nuevo modelo para ln(SALARn ) que es lineal en los parametros:
ln(SALARn ) = 1 + 2 EDU Cn + 3 AN T IGn + 4 EXP ERn + Un
En este ejemplo que pasa si tenemos una muestra en la que ning
un trabajador ha cambiado de
empresa? pues ocurre que las columnas de la matriz de regresores X correspondientes a a
nos de experiencia
|
y a
nos de antig
uedad son iguales; y por tanto linealmente dependientes; as que X X no es invertible.
Como en ese caso a
nos de experiencia y a
nos de antig
uedad coinciden; no es posible discriminar el
efecto por separado de ambas variables; s
olo podemos calcular su efecto conjunto:
ln(SALARn ) = 1 + 2 EDU Cn + (3 + 4 )EXP ERn + Un .
para n = 1, . . . , N ;
o lo que es lo mismo
|
(y y) (x x) = y| (x x).
Demostraci
on.
X
X
X
(yn y)(xn x) =
yn (xn x) y
(xn x)
n
yn (xn x) y 0
y puesto que
(xn x) = 0
yn (xn x)
para n = 1, . . . , N.
La misma demostraci
on pero ahora con notacion vectorial es:
|
(y y) (x x) =y| (x x) y| (x x);
puesto que y 1 | = y |
aplicando la propiedad distributiva
puesto que x =
x| 1
.
N
N sxy = (y y) (x x) =
(xn x)(yn y) = y| x N y x;
(1.3)
Demostraci
on. Basta con sustituir x e y por z en las notas 1 y 2 para comprobar que:
|
(z z) (z z) = z| (z z) = z| z N z 2 .
As pues,
z| z
z2;
(1.4)
N
N
donde s2z es la varianza muestral de los elementos de z; por tanto, la expresion anterior es el analogo
2
muestral de Var(Z) = E [Z E(Z)]2 = E Z2 [E(Z)] .
s2z
n (zn
z)2
10
1| y =
yn ;
tenemos que
P
yn
= y;
N
c1 =
yb = X b = y 1 y.
(1.5)
N
otese como la estimaci
on MCO consiste en calcular la media aritmetica de los datos y.
En este caso los residuos del modelo son las desviaciones de los datos respecto a su media, ya que
eb = y yb = y y 1 y y.
(1.6)
11
y =
.. ;
.
yN
1
X=
..
.
1
x1
x2
..
;
.
xN
!
b
a
bb .
b =
1
!
1
... 1
.
. . . xN ..
1
1
x2
x1
!
x2 b
a
..
b =
. b
xN
1
x1
1
x2
...
...
y1
!
y2
1
.
xN ..
yN
1
x2 |
x2
|
1| 1
x2| 1
10
1| x2
x2| x2
xn
P
P
xn
x2n
y por otra
"
X| y
[21]
1
x2 |
|
y
|
1| y
|
x2 y
yn
.
xn yn
Por tanto, el sistema de equaciones normales en el caso del modelo lineal simple es
P " # P
yn
N
xn
a
b
b =
P
P
P 2
b
xn yn
xn
xn
Ejercicio 5. Sesuelva el sistema de ecuaciones normales X| X b = X| y para el caso del modelo lineal
simple:
|
1 y
1| 1
1| x2 " #
a
b =
.
b
x2| 1 x2| x2
x2| y
P
+ bb
xn
P 2
b
+ b
xn
b
aN
P
b
a
xn
12
P
yn
;
P
xn yn
=
=
(1.7)
(1.9)
b
a =y- bb x
(1.10)
Relaci
on entre el estimador de la pendiente y el coeficiente de correlaci
on lineal
sxy
s2x
sy
sy
sxy
sx sy
sy
sx
rxy
sy
sx
13
es decir
bb = rxy
sy
sx
Ejercicio 6. C
omo afectara al problema de estimacion que la variable x fuera un vector de constantes
c?
11
ZC
odigo: EjPvivienda.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl
n
1
2
3
4
5
6
7
8
9
10
11
12
13
14
Precio
199.9
228.0
235.0
285.0
239.0
293.0
285.0
365.0
295.0
290.0
385.0
505.0
425.0
415.0
Superficie
1065
1254
1300
1577
1600
1750
1800
1870
1935
1948
2254
2600
2800
3000
Calculando
X
xn = 26 753
yn = 4 444.9
xn yn = 9 095 985.5
=
4 444.9
= 9 095 985.5
cuya soluci
on es la estimaci
on por mnimos cuadrados de a y b:
b
a = 52.3509
bb = 0.13875.
O bien:
a partir de (1.9) y (1.10) en la p
agina anterior tenemos:
bb =
sxy
s2x
b
a = y xbb = 52.3509
= 0.13875;
Es decir
[ = 52.35 + 0.139 sqft
price
Por ejemplo, con esta muestra de datos el precio de venta ajustado de un piso con una superficie de
1800 pies cuadrados, ser
a de
yb7 = 52.35 + 0.139 1800 = 302.1 miles de dolares.
sin embargo y7 = 285. Esta discrepancia (el error eb7 puede deberse a que dicho piso esta en una mala
situaci
on, dispone de pocos servicios, etc.)
12
Precio
Superficie
1
2
3
4
5
6
7
8
9
10
11
12
13
14
199.9
228.0
235.0
285.0
239.0
293.0
285.0
365.0
295.0
290.0
385.0
505.0
425.0
415.0
1065
1254
1300
1577
1600
1750
1800
1870
1935
1948
2254
2600
2800
3000
Precio ajustado
por el modelo lineal
200.1200
226.3438
232.7263
271.1602
274.3514
295.1640
302.1015
311.8140
320.8328
322.6365
365.0941
413.1017
440.8518
468.6019
Error
eb
-0.22000
1.65619
2.27368
13.83984
-35.35142
-2.16397
-17.10148
53.18600
-25.83278
-32.63653
19.90587
91.89826
-15.85180
-53.60187
ZC
odigo: EjPvivienda.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl
# leemos el archivo de datos data3-1
open data3-1
# vamos a pintar el digrama de dispersion con GNUPLOT
gnuplot price sqft --suppress-fitted --output="display"
# Vamos a estimar el modelo;
ols price const sqft
# Los vamos a copiar en la variable phat1
genr phat = $yhat
# vamos a copiar los residuos en la variable ehat
genr ehat = $uhat
# Vamos escribir las columnas de precios precios, superficies, precios estimados y errores
print -o price sqft phat ehat
# Otra forma de obtener los valores ajustados es restar los errores de los precios
genr phat2 = price - ehat
# Y otra forma mas... con mayores errores de redondeo...
genr phat3 = 52.351+(0.139*sqft)
# Vamos a ver como coinciden estas formas de calcular
print -o phat phat2 phat3
# vamos a pintar la recta de regresion estimada
gnuplot price sqft --output="display"
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .!
13
ZC
odigo: EjPviviendaSimulado.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl
El c
odigo SimuladorEjPvivienda permite generar mas ejemplos, pudiendo jugar con los parametros de
la simulaci
on.
ZC
odigo: SimuladorEjPvivienda.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl
nulldata 500
# genr define una nueva variable y normal genera datos con distrib. Normal
genr S = normal(70,10)
genr D = normal(0.7,0.2)
# generamos distancia
genr U = normal(0,250)
# perturbaciones
genr P = 100 +3*S -130*D +U # precios como funcion lineal de los regresores
summary P S D
corr
P S D
Modelo1
<- ols S 0 D
Modelo2
<- ols P 0 S
Modelo3
<- ols P 0 D
genr S0 = S - mean(S)
genr D0 = D - mean(D)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .!
14
14
La estimaci
on MCO de
T7
implica que
eb X
Y como yb = X b
yb| eb
X| eb =0 .
|
b X| eb
|
b 0 = 0.
Por tanto
X| eb =0
yb| eb =0
(2.1)
ai bi = 0.
Por construccion el termino de error MCO, eb , es ortogonal a todos y cada uno de los regresores.
Del mismo modo que hemos definido eb como eb = y Xb , definimos los valores ajustados yb como
yb = X b ;
|
yb| eb = b X| eb = b 0 = 0;
es decir, los errores tambien son ortogonales a los valores ajustados (no poda ser de otra forma, ya que
los valores ajustados son una combinaci
on lineal de los regresores, que son ortogonales a eb .)
Pr
actica 8. Con alg
un programa econometrico estime un modelo del tipo
Y n = 1 + 2 Xn2 + 3 Xn3 + Un .
Obtenga los residuos eb y los valores ajustados yb . Compruebe que
x1| eb =0
x2| eb =0
yb| eb =0
Calcule los valores medios de eb , yb e y. Explique los resultados.
Soluci
on: Por ejemplo, podemos usar el conjunto de datos de consumo percatica de textiles, de Henri
Theil, Principios de Econometra, Nueva York: Wiley, 1971, p. 102.
El conjunto de datos consta de 17 observaciones anuales de series de tiempo, para 1923 a 1939, en el
consumo de textiles en los Pases Bajos. Todas las variables son expresadas como ndices con base 100 en
1925.
ZC
odigo: TextilTheil.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl
open theil
Modelo <- ols consume const income relprice
residuos=$uhat
summary residuos
corr residuos income relprice
...............................!
15
y| y = yb| yb + eb| eb
15
(T Pitagoras T7 )
(2.2)
Ya que
|
y| y =(b
y + eb) (b
y + eb)
puesto que eb = y yb
=b
y| yb + 2b
y| eb + eb| eb
desarrollando el producto
=b
y| yb + eb| eb
Sumas de cuadrados
SRC
N
X
16
2
b| eb
ec
n =e
n=1
ST C
N
X
(yn y)2 = y| y N y 2
= N s2y
n=1
SEC
N
X
(c
yn y)2 = yb| yb + N y 2 2N yb
y
n=1
Por tanto, ST C = N s2y donde s2y es la varianza muestral de y; por el contrario, las sumas SRC y SEC
no son necesariamente N veces las varianzas de eb y yb (aunque veremos que as ocurre si el modelo tiene
termino cte.).
N
X
ec
n =0
eb =0 .
(2.3)
n=1
yn =
N
X
yc
n +0
1| y = 1| yb
o bien
y =b
y
(2.4)
n=1
Adem
as, de (2.2 Tma. Pit
agoras)
X
yn2 =
2
yc
n +
eb2 ;
(2.5)
2
(yn y)2 =
n=1
N
X
(c
yn yb)2 +
n=1
N
X
2
ec
n
o bien
n=1
16
(y y) (y y) = (b
y yb ) (b
y yb ) + eb| eb .
(2.6)
2
yc
n =
yc
n yn .
Pista.
yb = y eb
yb| eb = 0
Caso especial (Modelos con termino constante). La suma explicada de cuadrados, SEC, se puede expresar como:
SEC =b
y| yb + N y 2 2N yb
y
=b
y| yb N y 2
=N s2yb
por la Nota 3
sustituyendo yb por X b
=b
y| y N yby
=N syb y
por la Nota 1
Adem
as, en este caso en particular, la suma total de cuadrados, ST C, se puede descomponer en la
suma:
ST C = SEC + SRC
ya que
y| y =b
y| yb + eb| eb
|
y y N y =b
y yb N y + eb eb
ST C =b
y| yb N y 2 + SRC
por definici
on de ST C y SRC
ST C =SEC + SRC
y =b
y + eb
17
(siempre)
seb yb =0
(siempre)
(siempre)
Si adem
as el modelo incluye un vector de constantes, entonces
eb| 1 = 0
SRC
N
X
eb = 0;
2
b| eb N eb
ec
n =e
= N s2eb
(yn y)2 = y| y N y 2
= N s2y
n=1
ST C
N
X
(siempre)
n=1
Entonces
SEC = N s2yb
ST C = SEC + SRC .
Puede encontrar m
as propiedades algebr
aicas en una seccion del apendice.
Coeficiente de determinacion o R2
Es una medida de ajuste de uso frecuente. Cuando el modelo contiene un regresor constante, muestra el
poder explicativo de los regresores no constantes. Se define como
SRC
R2 1
;
ST C
y puesto que SRC y ST C son siempre mayores o iguales a cero, R2 1.
18
R2 1
SRC
;
ST C
R2 1
18
Cuando el modelo no tiene termino constante, la SRC puede ser mayor que ST C, por lo que R2 no
est
a acotado inferiormente.
Pr
actica 11. Ejecute el siguiente gui
on de Gretl donde, al estimar un modelo sin termino constante, se
calcula un coeficiente de determinaci
on negativo:
ZC
odigo: R2ModeloConySinConstante.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Gretl
# simulacion
nulldata 1000
genr u=normal()
genr x=5+2*normal()
genr y=120-x+u
# Estimacion sin cte
ModeloSin
<- ols y x
x --output="display"
x --output="display"
....................................................................................................!
Una vez ejecutado el guion de Gretl, dentro de la ventana de vista de iconos, pinche en Escalares.
Ah ver
a los valores de los coeficientes de determinacion en ambos casos (como puede observar, Gretl altera
el c
omputo del coeficiente cuando no hay termino constante1 aunque incorrectamente lo sigue llamando
1 El programa Gretl (Gnu Regression, Econometrics and Time-series Library) realiza un c
alculo especial de R2 cuando
el modelo no tiene t
ermino cte. En este caso el R-cuadrado es calculado como el cuadrado de la correlaci
on entre los valores
observado y ajustado de la variable dependiente (V
ease Ramanathan, 2002, Secci
on 4.2).
19
R2 ).
Coeficiente de determinaci
on cuando hay t
ermino constante
SEC
;
ST C
y entonces,
R2 =
C
omo
SEC = N syb y
0 R2 1
19
(acotado)
2
2
2
2
syb y
SEC
SEC
N
q
= ryb y ,
R2 =
=
=
=
ST C
ST C SEC
N s2y N s2yb
N2
s2y s2yb
N syb y
Caso especial (Modelos con termino constante). Si el modelo tiene termino constante, el coeficiente R2
mide el porcentaje de variaci
on de y explicado2 por los regresores no constantes del modelo; ya que
R2 = 1
SRC
ST C SRC
SEC
=
=
ST C
ST C
ST C
0 R2 1.
y por tanto
Recuerdese adem
as que cuando hay termino constante SEC = N syb y y entonces,
2
2
2
N
s
2
2
syb y
by
y
SEC
SEC
N
= ryb y ,
q
R2 =
=
=
=
ST C
ST C SEC
N s2y N s2yb
N2
s2y s2
(2.7)
b
y
donde ryb y =
syb y
syb sy
es el coeficiente de correlaci
on lineal simple entre yb e y.
Pr
actica 12. Calcule el coeficiente de determinacion R2 para el el ejemplo del precio de las viviendas,
empleando el coeficiente de correlaci
on entre los precios y los precios ajustados.
Pista. Calcule el coeficiente de correlaci
on lineal simple entre yb y y y elevelo al cuadrado.
Soluci
on: Soluci
on numerica en el recuadro del ejemplo del precio de las viviendas (pagina 22).
open data3-1
ols price const sqft
genr phat
= $yhat
...............................!
20
Ejercicio 14. Verifique que, para el caso del Modelo Lineal Simple el coeficiente de determinacion R2 es
el cuadrado del coeficiente de correlaci
on simple entre el regresando y y el regresor x; es decir, que en este
caso R2 = ry2 x . (N
otese que este resultado es diferente de (2.7)).
El coeficiente de determinaci
on R2 tiene algunos problemas al medir la bondad del ajuste.
a
nadir nuevas variables al modelo (cualesquiera que sean) nunca hace crecer SRC pero esta suma si
pude disminuir (vease la p
agina 34)
Por tanto el R2 de un modelo al que se agregan nuevos regresores nunca puede ser menor que el del
modelo inicial.
2
Para evitar este efecto se emplea el coeficiente de determinacion corregido (o ajustado) R
2 de define como
El coeficiente de determinaci
on corregido R
2 1
R
SRC
N k
ST C
N 1
SRC
N k
ST C
N 1
;= 1
s2eb
s2y
R2 corregido
20
(mejor cuanto m
as elevado)
2 1
R
SRC
N k
ST C
N 1
=1
N 1
(1 R2 )
N k
Criterios de informaci
on de Akaike y de Schwartz
(mejor cuanto mas bajos)
|
eb eb
AIC =N ln(2) + N ln
+ N + 2(k + 1)
N
|
eb eb
SBC =N ln(2) + N ln
+ N + (k + 1) ln(N )
N
Otras medidas de la bondad del ajuste son los criterios de informacion de Akaike y de Schwartz (mejor
cuanto m
as bajos)
Akaike prima la capacidad predictiva del modelo (pero tiende a sobreparametrizar)
Schwartz prima la correcta especificaci
on
21
Variable
const
sqft
Coeficiente
Desv. tpica
52,3509
0,138750
Estadstico t
37,2855
0,0187329
1,4041
7,4068
valor p
0,1857
0,0000
317,493
88,4982
18273,6
39,0230
0,820522
0,805565
12
144,168
145,447
Salida del programa libre Gretl (Gnu Regression, Econometrics and Time-series Library): http://gretl.sourceforge.net/gretl_espanol.
html
ZC
odigo: EjPvivienda.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl
C
odigo: PesoEdad.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl
n
1
2
3
4
5
6
7
8
Peso Kg
39
40
42
49
51
54
56
58
Edad
7
7
8
10
10
11
12
14
22
(Modelo 1 Pn = 1 + 2 EDADn + Un )
Peso con respecto a Edad (observado y estimado)
65
60
Peso Kg
55
50
45
40
35
E( P | e) = a + b e + c e2 + d e3
estimada
observada
6
10
11
Edad
12
13
14
15
\
Peso
Kg = 19, 6910 + 2, 93003 Edad
(6,999)
T = 8 R = 0, 9405
(10,564)
F (1, 6) = 111, 6
= 1, 8161
Peso Kg
55
50
45
40
35
E( P | e) = a + b e + c e2 + d e3
estimada
observada
6
10
11
Edad
12
13
14
15
\
Peso
Kg = 5, 11497 + 8, 06835 Edad 0, 252102 Edad2
(0,664)
(5,159)
2 = 0, 9776
T =8 R
(3,305)
F (2, 5) = 153, 57
= 1, 1148
Peso Kg
55
50
45
40
35
E( P | e) = a + b e + c e2 + d e3
estimada
observada
6
10
11
Edad
12
13
14
15
\
Peso
Kg = 81, 7714 18, 5964 Edad + 2, 37778 Edad2 0, 0836541 Edad3
(1,904)
(1,419)
2 = 0, 9863
T =8 R
(1,845)
(2,043)
F (3, 4) = 168, 75
= 0, 87188
23
21
C
odigo: EstCondVentas.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl
La media es un estimador insesgado de la esperanza
en el regresograma: E( Y n | intervalo)
Ap
endices
1. Derivaci
on tradicional de las Ecuaciones Normales
22
e = y| y 2e| X| y + e| X| X e
SRC()
b
Buscamos un vector que
minimice SRC
mnb
b
SRC()
= 0;
b
SRC(b )
2X| y + 2X| X b = 0
(1.1)
Estimaci
on MCO es la solucion a dichas ecuaciones
e =(y X )
e | (y X )
e
SRC()
|
e
= y | e X| (Y X )
e | = e X|
puesto que (X )
|
|
=y| y e X| y y | X e + e X| X e
|
=y| y 2y | X e + e X| X e
24
|
ya que el escalar e X| y es igual a su traspuesta y | X e (por ser escalar)
Renombremos algunos terminos. . . por una parte definimos a y | X y por otra C X| X, entonces
e = y| y 2a e + e| C .
e
SRC()
e respecto de e es
Puesto que y| y no depende de e la diferencial de SRC()
e
SRC()
= 2a + 2C e
e
= 2X| y + 2X| X e
sustituyendo a y C;
X| X e = X| y
= 2X| X
Ejercicio 16. Repita los pasos dados en la transparencia T11 y llegue hasta el sistema de ecuaciones
equivalente a ( 1.7 en la p
agina11) para los siguientes modelos:
(a) (Modelo sin termino constante) yb = b
a x1 + bbx2 + b
c x3
(b) (Modelo con termino constante)
yb = b
a 1 + bbx2 + b
c x3
(2.1)
bb =
(2.2)
b
c=
(2.3)
N
otese que si la covarianza muestral entre x2 y x3 es cero, la estimacion de bb del modelo con tres
a 1 + bbx2 + b
c x3 , coincide exactamente con la estimacion de bb en el modelo lineal simple,
regresores, yb = b
yb = b
a 1 + bbx2 , donde no aparece el trecer regresor x3 .
Ejercicio 18. Si la covarianza entre x2 y x3 es cero, con la estimacion de que modelo coincide la
estimaci
on de b
c?
Nota 4. Si los regresores de una regresi
on m
ultiple tienen correlacion muestral cero entre si (por tanto
son ortogonales), entonces las estimaciones de las pendientes de la regresion m
ultiple son las mismas que
las estimaciones de las pendientes de las regresiones simples.
25
Multicolinealidad perfecta:
Ejercicio 19. C
omo afectara al problema de estimacion que los regresores x2 y x3 tuvieran un coeficiente de correlaci
on muestral con valor absoluto igual a uno?
Relaci
on entre los modelos de tres regresores y los de dos:
X3 y los siguientes modelos de regresi
on simple
Regresi
on 1: XH2 = ax2 x3 + bx2 x3 XH3 + U H :
Regresi
on 2: Y H = ayx2 + byx2 XH2 + U H :
Regresi
on 3: Y H = ayx3 + byx3 XH3 + U H :
(N
otese como los subndices de los coeficientes describen cada regresion)
Que relaci
on tienen las tres regresiones anteriores las estimaciones MCO del modelo de tres variables
Y H = a + bXH2 + cXH3 + U H :
(2.4)
d[
bd
yx3 byx2 bx2 x3
1 rx22 x3
(2.5)
b
c=
d[
d
bd
bd
yx3 byx2 0
yx3 byx2 bx2 x3
=
= bd
yx3 ,
1 rx22 x3
10
b
c=
As pues, si la correlaci
on muestral entre xH2 y xH3 es cero, podemos estimar independientemente los
par
ametros b y c del modelo de tres variables con las dos regresiones auxiliares 2 y 3.
Y que pasa con la estimaci
on del termino constante a? De 2.1 sabemos que b
a = y bb x2 b
c x3 ;
as que, a no ser que las medias de xH2 y xH3 sean cero, los coeficientes estimados para la constante de las
regresiones 2 y 3 ser
an distintos de la estimacion de a en la regresion con tres variables.
26
Media
Mediana
Mnimo
precio
superfic
distanci
218,374
69,8442
0,705542
218,547
69,6608
0,714829
47,3599
37,5752
0,164484
359,642
98,8857
1,35108
Variable
Desv. Tp.
C.V.
Asimetra
Exc. de curtosis
precio
superfic
distanci
47,0678
9,85856
0,202598
0,215537
0,141151
0,287152
0,0258830
0,130216
0,0538992
Maximo
0,272774
0,0233318
0,118554
Relaci
on lineal entre los regresores S y D:
Estimaci
on Modelo 1 Sn = 1 + 2 Dn + Un
b
S = 69, 0650 + 1, 10439 D
(1,6001)
T = 500 R = 0, 0015
(2,1800)
= 9, 8659
2 = 0, 3935
T = 500 R
(0,16644)
27
T = 500 R = 0, 3144
(8,6114)
= 38, 973
(0,11194)
2 = 0, 7258
T = 500 R
(5,4471)
= 24, 645
Ejercicio 21. Coinciden los valores estimados para los parametros 2 y 3 en el modelo Pn = 1 +
2 Sn 3 Dn + Un con los valores obtenidos para las pendientes en los modelos restringidos anteriores?
Que podemos afirmar entonces sobre la covarianza muestral de los regresores distancia y superficie?
ZC
odigo: EjPviviendaSimulado.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Gretl
open datos/EjPviviendaSimulado.gdt
summary P S D
gnuplot D S
--suppress-fitted --output="display"
gnuplot P S
--suppress-fitted --output="display"
gnuplot P D
--suppress-fitted --output="display"
Modelo1
<- ols S 0 D
Modelo2
<- ols P 0 S
Modelo3
<- ols P 0 D
rho=corr(S,D)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .!
El c
odigo SimuladorEjPvivienda permite generar mas ejemplos, pudiendo jugar con los parametros de
la simulaci
on.
C
odigo: SimuladorEjPvivienda.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl
28
3. M
as propiedades algebraicas de la regresi
on por mnimos cuadrados.
Proyectores ortogonales
Definici
on 1. Decimos que una matriz Q es simetrica si se verifica que Q| = Q.
Definici
on 2. Decimos que una matriz Q es idempotente si se verifica que QQ = Q.
Definici
on 3. Sea Q una matriz idempotente (QQ = Q). Si adem
as la matriz es simetrica (Q = Q| ),
entonces se dice que la matriz Q es un proyector ortogonal.
Revisi
on de la estimaci
on MCO con proyecciones Si se cumple el cuarto supuesto, entonces X| X
es de rango completo y existe la matriz (X| X)-1 . Solo entonces, es posible despejar b en las ecuaciones
normales (1.1) para obtener la expresi
on:
b = (X| X)-1 X| y.
Llamamos estimaci
on MCO de y a
b = X b
y
que es igual a
b = X b = X(X| X)-1 X| y.
y
Por otra parte,
b = y X b
eb =y y
=y X(X| X)-1 X| y
=(I X(X| X)-1 X| )y
Si llamamos P X(X| X)-1 X| y M I P, entonces
b = Py yX;
y
eb = My yX.
donde yX es la parte de y que se puede expresar como funcion lineal de las X; e yX es la parte de y
perpendicular (ortogonal) a las X.
As pues, las siguientes tres expresiones son equivalentes, y representan la misma descomposici
on
ortogonal del vector y:
y =b
y + eb
=Py + My
=yX + yX
(vease la Figura 1 en la p
agina siguiente).
Para poder realizar los siguientes ejercicios, vamos a recordar antes un par de resultados de Algebra
lineal:
Nota 5.
|
La inversa de una matriz simetrica es simetrica, as pues, (X| X)-1 = (X| X)-1 .
|
29
As que . . .
|
Ejercicio 22. Cu
al ser
a la expresi
on de la traspuesta del producto de tres matrices (ABC) ?
Ahora ya podemos verificar las siguentes cuestiones:
Ejercicio 23.
(a) Verifique que P y M son proyectores ortogonales.
(b) Verifique que P X =X
(c) Verifique que M X =0
(d) Verifique que P + M = I.
(e) Demuestre que P| M = 0.
Revisitaci
on de las propiedades algebr
aicas, pero empleando proyectores ortogonales
mostraci
on de que los errores son perpendiculares a los regresores. . .
De-
X| eb = X| My = X| M| y = 0| y = 0.
b y eb son ortogonales. . .
Demostraci
on de que los vectores y
yb| eb = (Py)| My = y | P| My = y | 0y = 0.
eb = My = yX
yb = Py = yX
C (X)
Figura 1: La regresi
on MCO es la proyecci
on ortogonal del regresando y sobre el espacio vectorial C (X) generado por los
regresores (las columnas de X).
Y puesto que los vectores y, yb y eb forman un triangulo (vease la figura 1) que es rectangulo por ser yb
y eb perpendiculares entre si nos queda demostrar la u
ltima propiedad, referida a triangulos rectangulos
(Teorema de Pit
agoras):
|
y| y = Py + My
Py + My
=y | P| Py + y | M| My
pues P| M = PM| = 0
=b
y| yb + eb| eb
Regresion particionada
Wooldridge (p
aginas 85 y ejercicio 3.17 de la pagina 119 2006). Pero mejor en:
Johnston y Dinardo (p
aginas 88 a 95 y 116 a 118 2001)
Novales (paginas 85 a 86 1993)
Pe
na (paginas 390 a 392 2002)
En esta subsecci
on vamos a hacer uso intensivo de las ideas expuestas en la u
ltima seccion, esto es que
-1
on) de z sobre el conjunto de regresores
si Pw = W(W| W) W| , entonces Pw z es la regresion (proyecci
W; y si Mw = I Pw , entonces, Mw z son los residuos de dicha regresion. . . comencemos. . .
En ocasiones es necesario operar con sub-vectores de , uno de ellos con l parametros, y el otro con los
[k1]
m restantes (m = k l).
1
= ,
[k1]
2
donde
1
[l1]
2 ;
[m1]
(l + m = k);
consecuentemente, tambien necesitaremos particionar la matriz de regresores en dos submatrices una con
las l columnas correspondientes a 1 y la otra con las m columnas restantes:
X =
[N k]
.
X1 .. X2 .
[N l] [N m]
Con estas particiones de y X vamos a reescribir el modelo lineal como Y =X1 1 +X2 2 +U y tambien
las ecuaciones normales 1.1 que aparecen en la pagina 7:
|
|
c1
X1
X1
..
X2 . X2 = y
|
|
c2
X2
X2
c1
..
c1 y
c2 ; (l + m = k).
donde X = X1 . X2 , y donde b = , con
[N k]
[N l] [N m]
[
l1
]
[
m1
]
c2
31
(3.1)
Si pre-multiplicamos la primera de las ecuaciones del sistema por X2 | X1 (X1 | X1 )-1 y la restamos de
la segunda, tenemos
c2 = X2 | y X2 | X1 (X1 | X1 )-1 X1 | y
X2 | X2 X2 | X1 (X1 | X1 )-1 X1 | X2
(3.2)
Vamos ha definir los proyectores
P1 = X1 (X1 | X1 )-1 X1 |
M1 = I P1
(3.3)
(3.4)
Puesto que M1 es un proyector ortogonal, sabemos que M|1 = M1 , y que M|1 M1 = M1 . Entonces,
podemos reescribir (3.3) como
c2 = (X2 | M| M1 X2 )1 X2 | M| M1 y.
1
1
En esta expresi
on, M1 y son los residuos obtenidos al realizar la regresion de y sobre el subconjunto
de regresores X1 (la parte de y ortogonal a X1 ). Y M1 X2 es una matriz cuyas columnas son los residuos
obtenidos realizando la regresi
on de cada una de las columnas de X2 sobre X1 (la parte de X2 ortogonal
a X1 ).
N
otese que si llamamos yX1 = M1 y a los residuos de la primera regresion, y X2X1 = M1 X2 a la matriz
de residuos de las regresiones de las columnas de X2 , entonces (3.3) se puede escribir como
c2 = (X2 X | X2 X )-1 X2 X | y X
1
1
1
1
c2 mediante regresiones auxiliares:
Este resultado nos indica que podemos estimar
Paso 1: Realizamos la regresi
on de y sobre el primer conjunto de regresores X1 y obtenemos el vector de
residuos yX1
Paso 2: Realizamos las regresiones de cada una de las columnas de X2 sobre las variables X1 , almacenando
los residuos de cada regresi
on en las columnas de X2X1 .
c2 = (X2 X | X2 X )-1 X2 X | y X
c2 se obtiene de la regresion de y X sobre X2 X , es decir,
Paso 3: por u
ltimo,
1
1
1
1
1
1
(que es precisamente lo que dice la ecuacion (3.3))
c1 se pueden recuperar de empleando la ecuacion (3.4)
Paso 4: las estimaciones de
.
Regresi
on ortogonal particionada. Suponga que ambos grupos de regresores, X1 .. X2 , son ortogonales entre si, es decir, supongamos que
X1 | X2 = 0,
y por tanto no hay correlaci
on entre los regresores del primer grupo y los del segundo (los regresores X1
est
an incorrelados con los regresores de X2 ).
32
c1 y
c2 se pueden estimar por separado. Los primeros proyectando y sobre X1 ,
y por tanto los vectores
y los regundos proyectando y sobre X2 . Esta es una generalizacion de la Nota 4 en la pagina25.
[1N ] [N N ] [N 1]
x2 | M1 y
(3.5)
x2 | M1 x2
[1N ] [N N ] [N 1]
P1 = X1 (X1 | X1 )-1 X1 |
1
N
|
1
1
1
| -1 |
= 1(1 1) 1 =
=
N
N
1
N
1
N
1
N
.
..
1
1
N
..
.
1
N
por lo que
1
N
1
P1 y =
N
1
N
1
N
1
N
.
..
1
1
N
y
y1
y
y
1 2
N . = . = y = y1.
.. .. ..
.
yN
y
1
N
Entonces
y1 y
y2 y
= y1
M1 y = (I P1 )y = y y =
.. y
.
yN y
es decir, y
= M1 y son las desviaciones de los elementos del vector columna y respecto de su media
muestral y (los residuos y1 de la primera regresion en el paso 1 de la pagina 32; donde X1 = 1).3 .
2 en la que aparecen las desviaciones
De manera similar, M1 X2 da como resultado una matriz X2X1 X
de los datos de cada una de las columnas de X2 respecto de sus respectivas medias (son los residuos de las
regresiones auxiliares del paso 2 de la p
agina 32).
3 V
ease
tambi
en la Ecuaci
on 1.6 en la p
agina10
33
c2 como
Ahora es inmediato estimar
c2 = (X
2|X
2 )-1 X
2|y
(3.6)
que es el paso 3; es decir, en un modelo con termino constante, la estimacion de todos los parametros, excepto el de la constante, se pueden obtener mediante la regresion de las variables del modelo en desviaciones
respecto a su media.
Por u
ltimo, realizando el paso 4, podemos estimar el parametro asociado al termino constante 1 :
c2 )
1| (y X2
c1 = (1| 1)-1 1| (y X2
c2 ) =
c2 x2
c3 x3
ck xk
=y
N
(3.7)
A
nadiendo regresores
Suponga que ha estimado por MCO el siguiente modelo
Y = X + U.
Posteriormente decide incluir como regresor adicional la variable Z; por lo que el modelo ampliado ser
a:
Y = X + cZ + U .
En este contexto, podemos aplicar los resultados de la regresion particionada para obtener el coeficiente, c, asociado al nuevo regresor Z aplicando primero la Ecuacion (3.3) de la pagina 32:
c = (z | Mz)1 z | My = (ZX| ZX )-1 ZX| yX;
(3.8)
Pr
actica 25. Verifique con un programa econometrico la afirmacion anterior. Los pasos a seguir son
1. Calcule los residuos MCO con el modelo reducido.
2. Calcule los coeficientes estimados en el modelo ampliado. Fjese en el valor obtenido para el coeficiente
c asociado al nuevo regresor4 .
3. Calcule los residuos en la regresi
on de la nueva variable explicativa z sobre los antiguos regresores
X.
4 N
otese
que el resto de coeficientes puede diferir respecto de los obtenidos en la nueva regresi
on. Esto ser
a as siempre
que el nuevo regresor tenga correlaci
on con los del modelo inicial.
34
C
omo afecta el a
nadir m
as regresores a la suma de residuos? Cuando se a
naden regresores a
un modelo, la suma de residuos al cuadrado nunca crece; de hecho suele disminuir. Esto se cumple incluso
si la variable a
nadida no tiene ning
un sentido dentro del modelo (ninguna relacion teorica). Veamoslo:
Pensemos en el caso anteri
or, cuando a
nadimos un regresor adicional Z al modelo inicial.
Los residuos del modelo inicial son
eb = y X b ;
por otra parte, los residuos con el modelo ampliado son
c zb
c.
eb = y X
c ; y que si b
(n
otese que si X| z 6= 0 entonces b =
6
c 6= 0 entonces eb 6= eb .)
De (3.4) sabemos que
c = (X| X)-1 X| (y zb
c ) = b (X| X)-1 X| zb
c.
c en eb obtenemos
Sustituyendo
c zb
c
eb =y X b + X(X| X)-1 X| zb
=b
e Mzb
c
=b
e zXb
c
de (3.8)
As pues,
|
c 2 zX| zX 2b
c zX| eb
eb eb = eb| eb + b
Teniendo en cuenta que de (3.8) b
c = (ZX| ZX )-1 ZX| yX y que eb = My = yX tenemos
b
c 2 zX| zX = b
c zX| zX b
c=b
c zX| zX (ZX| ZX )-1 ZX| yX = b
c zX| yX = b
c zX| eb .
Por lo que finalmente
|
eb eb = eb| eb b
c 2 zX| zX ,
| {z } |{z} | {z }
SRC
SRC
(3.9)
puesto que el u
ltimo termino siempre ser
a mayor o igual a cero, la suma de residuos al cuadrado del modelo
Correlaciones parciales
Suponga que tiene tres variables; por ejemplo, la renta r, la edad e y el n
umero de a
nos de estudio o
formaci
on f de una serie de individuos.
Rn = 1 + 2 Fn + 3 En + Un
Querramos saber el grado de relaci
on lineal entre dos de ellas, una vez descontado la relacion lineal que
la tercera tiene con ellas. En nuestro ejemplo nos podra interesar conocer el grado de relacion lineal de la
renta con la formaci
on, una vez descontado el efecto lineal que la edad tiene con ambas (notese que tanto
para formarse como para generar rentas es necesario el transcurso del tiempo, por lo que generalmente
hay una relaci
on directa entre la edad y las otras dos variables).
La soluci
on es tomar la parte de ambas variables, renta y educacion, ortogonal a la tercera,
laedad; y observar la correlaci
on de dichas partes (que ya no mantienen relacion lineal ninguna con la
variable edad).
El modo de hacerlo es sencillo una vez visto lo anterior, y constara de los siguientes pasos:
35
W
r(y ,x2 ) Z = q
=r
q
p
y | MW y x2 | MW x2
s2y
s2x2 ,
W
36
yn xn x
yn
yn xn N y x
(y y) (x x) =y| x y| x y| x + y| x
=y| x y| 1x y1| x + y1| 1x
=y| x N yx yN x + yN x
=y| x N yx
Ejercicio 4
Ejercicio 5. Por una parte, la primera ecuacion del sistema es
X
X
b
a N + bb
xn =
yn ;
dividiendo por N obtenemos directamente b
a + bb x = y; por lo que b
a = y bb x .
Por otra parte, dividiendo la segunda por N tenemos
P 2
P
xn
xn yn
b
a x + bb
=
N
N
o lo que es lo mismo, tenemos
x| y
x| x
=b
a x + bb
expresando los sumatorios como productos escalares
N
N
|
x x
sustituyendo b
a
= y bb x x + bb
N
|
x x
= x y bb x2 + bb
operando en el parentesis
N
x| x
= x y + bb
x2
sacando bb factor com
un
N
es decir
x| x
x| y
x y = bb
x2
N
N
2
bb = sx2y .
por lo que empleando (1.3) y (1.4) tenemos bb s = sxy o
x
sx
Ejercicio 5
Ejercicio 6. Entonces la condici
on de rango sobre la matrix de regresores X no se cumplira, pues x sera
un m
ultiplo del vector de unos ya que x = c1.
En tal situaci
on el sistema de ecuaciones normales (1.7) se reducira a:
P
bb P xn
b
aN
+
=
yn
P
P
cb
a N + c bb
xn = c yn
donde la segunda ecuaci
on es c veces la primera, por lo que realmente tenemos mas incognitas que ecuaciones linealmente independientes (situaci
on de multicolinealidad perfecta).
37
Adem
as, la varianza de un vector constante es cero, por lo que s2x = 0 y tambien sxy =
y| 1
c N
on
cy = 0; as que la expresi
bb =
sxy
s2x
y| x
N
yx =
0
0
es indeterminada.
Ejercicio 6
Ejercicio 9. La primera es cierta por definicion de SRC. La segundad tambien lo es por la Nota 3 en la
p
agina9. Veamos la tercera que es un poco mas complicada (aunque no mucho) :
N
X
y y) (b
y y)
(c
yn y)2 = (b
n=1
= yb| yb yb| y y| yb + y| y
= yb| yb 2b
y| y
ya que yb| y =
+ N y2 ;
|
b
yc
ny = y y
= yb| yb + N y 2 2N yb
y;
y| 1y = 2N yby.
ya que 2b
y| y = 2b
Ejercicio 9
Ejercicio 10.
yb| yb = yb| (y eb) = yb| y yb| eb = yb| y 0 = yb| y
Ejercicio 10
P
2
Ejercicio 13. Por una parte, SEC =
(c
yn y) ; pero en este modelo los valores ajustados son constantes
iguales a la media muestral de y, es decir yc
n = y. Por tanto SEC = 0.
Por otra parte, este modelo tiene termino cte. y, entonces, R2 =
SEC
ST C
= 0.
= yb| yb N yb
=y 1| yb N yb
2
b es un vector de constantes y
pues y
=N yb N yb = 0
sxy
s2x
b
a = y xbb,
por tanto
yc
a + bbxn = y + bb(xn x);
n =b
b
yc
n y = b(xn x).
Entonces
SEC =
(c
yn y)2 = bb 2
(xn x)2
38
Ejercicio 16(a)
x1| x1
x2| x1
x3| x1
x1| x2
x2| x2
x3| x2
x1| x3
|
b
x y
a
1
|
b
x2 x3 b = x2| y
c
x3| y
b
x3| x3
o bien
P
b
a x1 2n
P
b
a x2n x1n
P
b
a x3n x1n
P
+ bb x1n x2n
bb P x2 2
+
n
P
+ bb x3n x2n
P
+ b
c x1n x2n
P
+ b
c x2n x3n
P
+
b
c x3 2n
=
=
=
P
x1n yn
P
x2n yn
P
x3n yn
Ejercicio 16(b)
1| 1
x2| 1
x3| 1
1| x2
x2| x2
x3| x2
1| x3
|
b
1 y
a
b
=
x2 x3 b x2| y
c
x3| y
b
x3| x3
o bien
b
aN
P
b
a x2n
P
b
a x3n
bb P x2n
+
bb P x2 2
+
n
P
+ bb x3n x2n
P
+
b
c x2n
P
+ b
c x2n x3n
P
+
b
c x3 2n
=
=
=
P
yn
P
x2n yn
P
x3n yn
Ejercicio 17. Dividiendo la primera ecuacion del sistema anterior por N obtenemos
y=b
a + bb x2 + b
c x3
esta ecuaci
on indica que el plano de regresion pasa por el punto de los valores medios de las variables del
sistema.
Despejando b
a tenemos
c x3
b
a = y bb x2 b
que se puede sustituir en las otras dos ecuaciones del sistema:
X
X
X
X
c x3
x2n + bb
x2 2n + b
c
x2n x3n
x2n yn = y bbx2 b
X
X
X
X
x3n yn = y bbx2 b
c x3
x3n + bb
x3n x2n + b
c
x3 2n ;
operando
X
X
puesto que
x2n yn =y
x3n yn =y
x2n bbx2
x3n bbx2
x2n b
c x3
x3n b
c x3
x2n + bb
x3n + bb
x2 2n + b
c
x2n x3n
X
x3n x2n + b
c
x3 2n ;
P
x2n = N x2 y
x3n = N x3 , sustituyendo
X
X
X
x2n yn =N y x2 N bb x2 x2 N b
c x3 x2 + bb
x2 2n + b
c
x2n x3n
X
X
X
x3n yn =N y x3 N bb x2 x3 N b
c x3 x3 + bb
x3n x2n + b
c
x3 2n ;
yn (x2n x2 ) =bb
x2n (x2n x2 ) + b
c
yn (x3n x3 ) =bb
x3n (x2n x2 )
x3n (x2n x2 ) + b
c
x3n (x3n x3 );
b
c=
Ejercicio 23(b) PX = X(X| X)-1 X| X = XI = X
Ejercicio 23(c) MX =(I-P)X =X-PX =X-X =0
Ejercicio 23(d) P + M = P + I P = I
Ejercicio 23(e) Puesto que P| = P y que PP = P
P| M = P(I P) = P PP = P P = 0
41