You are on page 1of 46

Modelos Lineales.

Grado en Estadstica
Curso 2011/2012. Prof. Dr. Francisco de Ass Torres Ruiz

Tema 3: El modelo de regresi


on lineal simple.
Estimaci
on por m
axima verosimilitud

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 1 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

Modelos Lineales. Grado en Estadstica


Curso 2011/2012. Prof. Dr. Francisco de Ass Torres Ruiz

Tema 3: El modelo de regresi


on lineal simple.
Estimaci
on por m
axima verosimilitud
Indice
1. Introducci
on

2
P
agina www

2. Estimaci
on del modelo por m
axima verosimilitud

3. Distribuci
on de los estimadores
3.1. Distribucion de[
1 . . . . . . . . . . . . . .
3.2. Distribucion de[
0 . . . . . . . . . . . . . .
3.3. Distribucion de[
2 . . . . . . . . . . . . .
3.4. Distribucion de las variabilidades explicada

6
6
6
7
7

. . .
. . .
. . .
y no

. . . . . .
. . . . . .
. . . . . .
explicada.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

P
agina inicial

Contenido

JJ

II

P
agina 1 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

1.

Introducci
on

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 2 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

1.

Introducci
on

Hasta el momento hemos trabajado con el modelo de regresion lineal simple sin haber establecido
ning
un supuesto sobre la distribucion de las perturbaciones aleatorias i , i = 1, . . . , N . De hecho no ha
sido necesario emplear dichas distribuciones para la estimacion ya que el metodo de mnimos cuadrados,
as como las primeras conclusiones que se han obtenido, no requieren nada al respecto.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 2 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

1.

Introducci
on

Hasta el momento hemos trabajado con el modelo de regresion lineal simple sin haber establecido
ning
un supuesto sobre la distribucion de las perturbaciones aleatorias i , i = 1, . . . , N . De hecho no ha
sido necesario emplear dichas distribuciones para la estimacion ya que el metodo de mnimos cuadrados,
as como las primeras conclusiones que se han obtenido, no requieren nada al respecto.
Sin embargo, con posterioridad vamos a tratar el tema de contrastes de hipotesis sobre el modelo para
lo cual es imprescindible el conocimiento de las distribuciones de los estimadores obtenidos. Se hace pues
necesario la introduccion de una hipotesis adicional en la cual se recoja la base de las distribuciones que
se emplearan.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 2 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

1.

Introducci
on

Hasta el momento hemos trabajado con el modelo de regresion lineal simple sin haber establecido
ning
un supuesto sobre la distribucion de las perturbaciones aleatorias i , i = 1, . . . , N . De hecho no ha
sido necesario emplear dichas distribuciones para la estimacion ya que el metodo de mnimos cuadrados,
as como las primeras conclusiones que se han obtenido, no requieren nada al respecto.
Sin embargo, con posterioridad vamos a tratar el tema de contrastes de hipotesis sobre el modelo para
lo cual es imprescindible el conocimiento de las distribuciones de los estimadores obtenidos. Se hace pues
necesario la introduccion de una hipotesis adicional en la cual se recoja la base de las distribuciones que
se emplearan.
As la hipotesis que se plantea es la de que las perturbaciones aleatorias son independientes y estan
identicamente distribuidas atendiendo a una normal de media cero y varianza 2 ; es decir
P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 2 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

1.

Introducci
on

Hasta el momento hemos trabajado con el modelo de regresion lineal simple sin haber establecido
ning
un supuesto sobre la distribucion de las perturbaciones aleatorias i , i = 1, . . . , N . De hecho no ha
sido necesario emplear dichas distribuciones para la estimacion ya que el metodo de mnimos cuadrados,
as como las primeras conclusiones que se han obtenido, no requieren nada al respecto.
Sin embargo, con posterioridad vamos a tratar el tema de contrastes de hipotesis sobre el modelo para
lo cual es imprescindible el conocimiento de las distribuciones de los estimadores obtenidos. Se hace pues
necesario la introduccion de una hipotesis adicional en la cual se recoja la base de las distribuciones que
se emplearan.
As la hipotesis que se plantea es la de que las perturbaciones aleatorias son independientes y estan
identicamente distribuidas atendiendo a una normal de media cero y varianza 2 ; es decir
i ; N1 [0; 2 ] ; i = 1, . . . , N

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 2 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

1.

Introducci
on

Hasta el momento hemos trabajado con el modelo de regresion lineal simple sin haber establecido
ning
un supuesto sobre la distribucion de las perturbaciones aleatorias i , i = 1, . . . , N . De hecho no ha
sido necesario emplear dichas distribuciones para la estimacion ya que el metodo de mnimos cuadrados,
as como las primeras conclusiones que se han obtenido, no requieren nada al respecto.
Sin embargo, con posterioridad vamos a tratar el tema de contrastes de hipotesis sobre el modelo para
lo cual es imprescindible el conocimiento de las distribuciones de los estimadores obtenidos. Se hace pues
necesario la introduccion de una hipotesis adicional en la cual se recoja la base de las distribuciones que
se emplearan.
As la hipotesis que se plantea es la de que las perturbaciones aleatorias son independientes y estan
identicamente distribuidas atendiendo a una normal de media cero y varianza 2 ; es decir
i ; N1 [0; 2 ] ; i = 1, . . . , N

P
agina www

P
agina inicial

o, equivalentemente, las variables yi son independientes y estan distribuidas, para cada xi , de forma
normal
yi ; N1 [0 + 1 xi ; 2 ] ; i = 1, . . . , N.

Contenido

JJ

II

P
agina 2 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

1.

Introducci
on

Hasta el momento hemos trabajado con el modelo de regresion lineal simple sin haber establecido
ning
un supuesto sobre la distribucion de las perturbaciones aleatorias i , i = 1, . . . , N . De hecho no ha
sido necesario emplear dichas distribuciones para la estimacion ya que el metodo de mnimos cuadrados,
as como las primeras conclusiones que se han obtenido, no requieren nada al respecto.
Sin embargo, con posterioridad vamos a tratar el tema de contrastes de hipotesis sobre el modelo para
lo cual es imprescindible el conocimiento de las distribuciones de los estimadores obtenidos. Se hace pues
necesario la introduccion de una hipotesis adicional en la cual se recoja la base de las distribuciones que
se emplearan.
As la hipotesis que se plantea es la de que las perturbaciones aleatorias son independientes y estan
identicamente distribuidas atendiendo a una normal de media cero y varianza 2 ; es decir
i ; N1 [0; 2 ] ; i = 1, . . . , N

P
agina www

P
agina inicial

o, equivalentemente, las variables yi son independientes y estan distribuidas, para cada xi , de forma
normal
yi ; N1 [0 + 1 xi ; 2 ] ; i = 1, . . . , N.
Esta hipotesis ha de ser verificada siempre en el analisis de un modelo de regresion lineal, ya que
supedita gran parte del tratamiento que con posterioridad se va a realizar.

Contenido

JJ

II

P
agina 2 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

2.

Estimaci
on del modelo por m
axima verosimilitud

Como ya se ha comentado anteriormente, la hipotesis de normalidad sobre los terminos de error


conlleva el hecho de que las variables yi sean normales e independientes, por lo que es inmediato construir
la funcion de verosimilitud asociada a la muestra {y1 , . . . , yN }.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 3 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

2.

Estimaci
on del modelo por m
axima verosimilitud

Como ya se ha comentado anteriormente, la hipotesis de normalidad sobre los terminos de error


conlleva el hecho de que las variables yi sean normales e independientes, por lo que es inmediato construir
la funcion de verosimilitud asociada a la muestra {y1 , . . . , yN }.
L(y1 , . . . , yN ; 0 , 1 , 2 ) = (2 2 )

N
2

N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1

!
.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 3 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

2.

Estimaci
on del modelo por m
axima verosimilitud

Como ya se ha comentado anteriormente, la hipotesis de normalidad sobre los terminos de error


conlleva el hecho de que las variables yi sean normales e independientes, por lo que es inmediato construir
la funcion de verosimilitud asociada a la muestra {y1 , . . . , yN }.
L(y1 , . . . , yN ; 0 , 1 , 2 ) = (2 2 )

N
2

N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1

!
.

Nuestra idea es obtener los estimadores maximo-verosmiles para los parametros 0 , 1 y 2 . Para
ello hay que realizar la maximizacion de la anterior funcion y encontrar e0 , e1 y
e2 tales que

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 3 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

2.

Estimaci
on del modelo por m
axima verosimilitud

Como ya se ha comentado anteriormente, la hipotesis de normalidad sobre los terminos de error


conlleva el hecho de que las variables yi sean normales e independientes, por lo que es inmediato construir
la funcion de verosimilitud asociada a la muestra {y1 , . . . , yN }.
L(y1 , . . . , yN ; 0 , 1 , 2 ) = (2 2 )

N
2

N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1

!
.

Nuestra idea es obtener los estimadores maximo-verosmiles para los parametros 0 , 1 y 2 . Para
ello hay que realizar la maximizacion de la anterior funcion y encontrar e0 , e1 y
e2 tales que
L(y1 , . . . , yN ; e0 , e1 , e2 ) = Sup L(y1 , . . . , yN ; 0 , 1 , 2 ) .
0 ,1 , 2

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 3 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

2.

Estimaci
on del modelo por m
axima verosimilitud

Como ya se ha comentado anteriormente, la hipotesis de normalidad sobre los terminos de error


conlleva el hecho de que las variables yi sean normales e independientes, por lo que es inmediato construir
la funcion de verosimilitud asociada a la muestra {y1 , . . . , yN }.
L(y1 , . . . , yN ; 0 , 1 , 2 ) = (2 2 )

N
2

N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1

!
.

Nuestra idea es obtener los estimadores maximo-verosmiles para los parametros 0 , 1 y 2 . Para
ello hay que realizar la maximizacion de la anterior funcion y encontrar e0 , e1 y
e2 tales que
L(y1 , . . . , yN ; e0 , e1 , e2 ) = Sup L(y1 , . . . , yN ; 0 , 1 , 2 ) .
0 ,1 , 2

Para ello, en principio, habra que derivar la funcion de verosimilitud y encontrar sus puntos crticos.
Asimismo, como trabajar con dicha funcion es algo complicado, lo que suele hacerse es considerar su
logaritmo ya que, al ser el logaritmo creciente, conserva los puntos crticos. En este caso

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 3 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

2.

Estimaci
on del modelo por m
axima verosimilitud

Como ya se ha comentado anteriormente, la hipotesis de normalidad sobre los terminos de error


conlleva el hecho de que las variables yi sean normales e independientes, por lo que es inmediato construir
la funcion de verosimilitud asociada a la muestra {y1 , . . . , yN }.
L(y1 , . . . , yN ; 0 , 1 , 2 ) = (2 2 )

N
2

N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1

!
.

Nuestra idea es obtener los estimadores maximo-verosmiles para los parametros 0 , 1 y 2 . Para
ello hay que realizar la maximizacion de la anterior funcion y encontrar e0 , e1 y
e2 tales que
L(y1 , . . . , yN ; e0 , e1 , e2 ) = Sup L(y1 , . . . , yN ; 0 , 1 , 2 ) .
0 ,1 , 2

P
agina www

Para ello, en principio, habra que derivar la funcion de verosimilitud y encontrar sus puntos crticos.
Asimismo, como trabajar con dicha funcion es algo complicado, lo que suele hacerse es considerar su
logaritmo ya que, al ser el logaritmo creciente, conserva los puntos crticos. En este caso
N
N
N
1 X
2
2
log(L(y1 , . . . , yN ; 0 , 1 , )) = log(2) log( ) 2
[yi 0 1 xi ]2
2
2
2 i=1

P
agina inicial

Contenido

JJ

II

P
agina 3 de 7

Regresar

siendo las parciales, respecto de los parametros, las siguientes


Pantalla completa

log L
=
0

log L
=
1

Cerrar

Abandonar

log L
=
2

2.

Estimaci
on del modelo por m
axima verosimilitud

Como ya se ha comentado anteriormente, la hipotesis de normalidad sobre los terminos de error


conlleva el hecho de que las variables yi sean normales e independientes, por lo que es inmediato construir
la funcion de verosimilitud asociada a la muestra {y1 , . . . , yN }.
L(y1 , . . . , yN ; 0 , 1 , 2 ) = (2 2 )

N
2

N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1

!
.

Nuestra idea es obtener los estimadores maximo-verosmiles para los parametros 0 , 1 y 2 . Para
ello hay que realizar la maximizacion de la anterior funcion y encontrar e0 , e1 y
e2 tales que
L(y1 , . . . , yN ; e0 , e1 , e2 ) = Sup L(y1 , . . . , yN ; 0 , 1 , 2 ) .
0 ,1 , 2

P
agina www

Para ello, en principio, habra que derivar la funcion de verosimilitud y encontrar sus puntos crticos.
Asimismo, como trabajar con dicha funcion es algo complicado, lo que suele hacerse es considerar su
logaritmo ya que, al ser el logaritmo creciente, conserva los puntos crticos. En este caso
N
N
N
1 X
2
2
log(L(y1 , . . . , yN ; 0 , 1 , )) = log(2) log( ) 2
[yi 0 1 xi ]2
2
2
2 i=1

P
agina inicial

Contenido

JJ

II

P
agina 3 de 7

Regresar

siendo las parciales, respecto de los parametros, las siguientes


N
log L
1 X
= 2
[yi 0 1 xi ]
0
i=1

log L
=
2

Pantalla completa

log L
=
1

Cerrar

Abandonar

2.

Estimaci
on del modelo por m
axima verosimilitud

Como ya se ha comentado anteriormente, la hipotesis de normalidad sobre los terminos de error


conlleva el hecho de que las variables yi sean normales e independientes, por lo que es inmediato construir
la funcion de verosimilitud asociada a la muestra {y1 , . . . , yN }.
L(y1 , . . . , yN ; 0 , 1 , 2 ) = (2 2 )

N
2

N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1

!
.

Nuestra idea es obtener los estimadores maximo-verosmiles para los parametros 0 , 1 y 2 . Para
ello hay que realizar la maximizacion de la anterior funcion y encontrar e0 , e1 y
e2 tales que
L(y1 , . . . , yN ; e0 , e1 , e2 ) = Sup L(y1 , . . . , yN ; 0 , 1 , 2 ) .
0 ,1 , 2

P
agina www

Para ello, en principio, habra que derivar la funcion de verosimilitud y encontrar sus puntos crticos.
Asimismo, como trabajar con dicha funcion es algo complicado, lo que suele hacerse es considerar su
logaritmo ya que, al ser el logaritmo creciente, conserva los puntos crticos. En este caso
N
N
N
1 X
2
2
log(L(y1 , . . . , yN ; 0 , 1 , )) = log(2) log( ) 2
[yi 0 1 xi ]2
2
2
2 i=1

P
agina inicial

Contenido

JJ

II

P
agina 3 de 7

Regresar

siendo las parciales, respecto de los parametros, las siguientes


N
log L
1 X
= 2
[yi 0 1 xi ]
0
i=1

log L
=
2

N
log L
1 X
= 2
[yi 0 1 xi ] xi
1
i=1

Pantalla completa

Cerrar

Abandonar

2.

Estimaci
on del modelo por m
axima verosimilitud

Como ya se ha comentado anteriormente, la hipotesis de normalidad sobre los terminos de error


conlleva el hecho de que las variables yi sean normales e independientes, por lo que es inmediato construir
la funcion de verosimilitud asociada a la muestra {y1 , . . . , yN }.
L(y1 , . . . , yN ; 0 , 1 , 2 ) = (2 2 )

N
2

N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1

!
.

Nuestra idea es obtener los estimadores maximo-verosmiles para los parametros 0 , 1 y 2 . Para
ello hay que realizar la maximizacion de la anterior funcion y encontrar e0 , e1 y
e2 tales que
L(y1 , . . . , yN ; e0 , e1 , e2 ) = Sup L(y1 , . . . , yN ; 0 , 1 , 2 ) .
0 ,1 , 2

P
agina www

Para ello, en principio, habra que derivar la funcion de verosimilitud y encontrar sus puntos crticos.
Asimismo, como trabajar con dicha funcion es algo complicado, lo que suele hacerse es considerar su
logaritmo ya que, al ser el logaritmo creciente, conserva los puntos crticos. En este caso
N
N
N
1 X
2
2
log(L(y1 , . . . , yN ; 0 , 1 , )) = log(2) log( ) 2
[yi 0 1 xi ]2
2
2
2 i=1

P
agina inicial

Contenido

JJ

II

P
agina 3 de 7

Regresar

siendo las parciales, respecto de los parametros, las siguientes


N
log L
1 X
= 2
[yi 0 1 xi ]
0
i=1
N

log L
N
1 X
[yi 0 1 xi ]2
=

+
2
2
2
2

2
2( ) i=1

N
log L
1 X
= 2
[yi 0 1 xi ] xi
1
i=1

Pantalla completa

Cerrar

Abandonar

Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 4 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X

yi = N 0 + 1

i=1
N
X
i=1

xi yi = 0

n
X

xi

i=1
N
X
i=1

xi + 1

n
X

x2i

i=1

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 4 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X

yi = N 0 + 1

i=1
N
X
i=1

xi yi = 0

n
X

xi

i=1
N
X
i=1

xi + 1

n
X

x2i

i=1

que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimacion por mnimos
cuadrados ordinarios. Con ello los estimadores maximo verosmiles de 0 y 1 son los mismos que los
mnimo cuadraticos.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 4 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X

yi = N 0 + 1

i=1
N
X
i=1

xi yi = 0

n
X

xi

i=1
N
X
i=1

xi + 1

n
X

x2i

i=1

que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimacion por mnimos
cuadrados ordinarios. Con ello los estimadores maximo verosmiles de 0 y 1 son los mismos que los
mnimo cuadraticos.
A continuacion igualamos la tercera parcial a cero y sustituimos los parametros 0 y 1 por los
estimadores anteriores, concluyendo que el estimador maximo verosmil para 2 es
P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 4 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X

yi = N 0 + 1

i=1
N
X
i=1

n
X

xi

i=1

xi yi = 0

N
X

xi + 1

i=1

n
X

x2i

i=1

que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimacion por mnimos
cuadrados ordinarios. Con ello los estimadores maximo verosmiles de 0 y 1 son los mismos que los
mnimo cuadraticos.
A continuacion igualamos la tercera parcial a cero y sustituimos los parametros 0 y 1 por los
estimadores anteriores, concluyendo que el estimador maximo verosmil para 2 es
P
agina www

N
X

e2 =

i=1

e2i

P
agina inicial

Contenido

JJ

II

P
agina 4 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X

yi = N 0 + 1

i=1
N
X
i=1

n
X

xi

i=1

xi yi = 0

N
X

xi + 1

i=1

n
X

x2i

i=1

que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimacion por mnimos
cuadrados ordinarios. Con ello los estimadores maximo verosmiles de 0 y 1 son los mismos que los
mnimo cuadraticos.
A continuacion igualamos la tercera parcial a cero y sustituimos los parametros 0 y 1 por los
estimadores anteriores, concluyendo que el estimador maximo verosmil para 2 es
P
agina www

N
X

e2 =

e2i

i=1

que ya no coincide con el estimador de mnimos cuadrados. Ademas este estimador no es insesgado ya
que

P
agina inicial

Contenido

JJ

II

P
agina 4 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X

yi = N 0 + 1

i=1
N
X
i=1

n
X

xi

i=1

xi yi = 0

N
X

xi + 1

i=1

n
X

x2i

i=1

que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimacion por mnimos
cuadrados ordinarios. Con ello los estimadores maximo verosmiles de 0 y 1 son los mismos que los
mnimo cuadraticos.
A continuacion igualamos la tercera parcial a cero y sustituimos los parametros 0 y 1 por los
estimadores anteriores, concluyendo que el estimador maximo verosmil para 2 es
P
agina www

N
X

e2 =

e2i

i=1

que ya no coincide con el estimador de mnimos cuadrados. Ademas este estimador no es insesgado ya
que

P
agina inicial

Contenido

JJ

II

P
agina 4 de 7

2] =
E[e

N 2 2

Regresar

Pantalla completa

Cerrar

Abandonar

Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X

yi = N 0 + 1

i=1
N
X
i=1

n
X

xi

i=1

xi yi = 0

N
X

xi + 1

i=1

n
X

x2i

i=1

que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimacion por mnimos
cuadrados ordinarios. Con ello los estimadores maximo verosmiles de 0 y 1 son los mismos que los
mnimo cuadraticos.
A continuacion igualamos la tercera parcial a cero y sustituimos los parametros 0 y 1 por los
estimadores anteriores, concluyendo que el estimador maximo verosmil para 2 es
P
agina www

N
X

e2 =

e2i

i=1

que ya no coincide con el estimador de mnimos cuadrados. Ademas este estimador no es insesgado ya
que

P
agina inicial

Contenido

JJ

II

P
agina 4 de 7

2] =
E[e

N 2 2

Regresar

Pantalla completa

razon por la cual vamos a adoptar la va de tomar como estimador de la varianza de las perturbaciones
el estimador mnimo cuadratico.

Cerrar

Abandonar

Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X

yi = N 0 + 1

i=1
N
X
i=1

n
X

xi

i=1

xi yi = 0

N
X

xi + 1

i=1

n
X

x2i

i=1

que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimacion por mnimos
cuadrados ordinarios. Con ello los estimadores maximo verosmiles de 0 y 1 son los mismos que los
mnimo cuadraticos.
A continuacion igualamos la tercera parcial a cero y sustituimos los parametros 0 y 1 por los
estimadores anteriores, concluyendo que el estimador maximo verosmil para 2 es
P
agina www

N
X

e2 =

e2i

i=1

que ya no coincide con el estimador de mnimos cuadrados. Ademas este estimador no es insesgado ya
que

P
agina inicial

Contenido

JJ

II

P
agina 4 de 7

2] =
E[e

N 2 2

Regresar

Pantalla completa

razon por la cual vamos a adoptar la va de tomar como estimador de la varianza de las perturbaciones
el estimador mnimo cuadratico.
Evidentemente nos queda comprobar que la solucion obtenida para el sistema de ecuaciones anterior
maximiza la funcion de verosimilitud. En efecto, puede comprobarse que:

Cerrar

Abandonar

N
X

x2i

N
2 log L
2 log L
=

,
= i=1 2
2
2
2
0

N
X

2 log L
= i=1
2
1

N
X

xi
[yi 0 1 xi ]
2
2 log L

log
L
,
= i=1 2
,
= i=1
2
1 0

0
( 2 )2

[yi 0 1 xi ]xi
( 2 )2

N
X

N
X

2 log L
N
,
=

( 2 )2
2( 2 )2

[yi 0 1 xi ]2

i=1

( 2 )3

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 5 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

N
X

x2i

N
2 log L
2 log L
=

,
= i=1 2
2
2
2
0

N
X

2 log L
= i=1
2
1

N
X

xi
[yi 0 1 xi ]
2
2 log L

log
L
,
= i=1 2
,
= i=1
2
1 0

0
( 2 )2

[yi 0 1 xi ]xi
( 2 )2

N
X

N
X

2 log L
N
,
=

( 2 )2
2( 2 )2

[yi 0 1 xi ]2

i=1

( 2 )3

por lo que la matriz hessiana en el punto e0 , e1 ,


e2 queda en la forma

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 5 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

N
X

x2i

N
2 log L
2 log L
=

,
= i=1 2
2
2
2
0

N
X

2 log L
= i=1
2
1

N
X

N
X

xi
[yi 0 1 xi ]
2
2 log L

log
L
,
= i=1 2
,
= i=1
2
1 0

0
( 2 )2

[yi 0 1 xi ]xi
( 2 )2

N
X

2 log L
N
,
=

( 2 )2
2( 2 )2

[yi 0 1 xi ]2

i=1

( 2 )3

por lo que la matriz hessiana en el punto e0 , e1 ,


e2 queda en la forma
N
X

xi /e
2
2

N/e

i=1

N
N
X
X
H(e0 , e1 ,
e2 ) =

2
xi /e

x2i /e
2

i=1

i=1

0
0
N/2(e
2 )2

N
Nx

x2i
= Nx

e2
i=1

0
0

P
agina www

0
.

N
2e
2

P
agina inicial

Contenido

JJ

II

P
agina 5 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

N
X

x2i

N
2 log L
2 log L
=

,
= i=1 2
2
2
2
0

N
X

2 log L
= i=1
2
1

N
X

N
X

xi
[yi 0 1 xi ]
2
2 log L

log
L
,
= i=1 2
,
= i=1
2
1 0

0
( 2 )2

[yi 0 1 xi ]xi
( 2 )2

N
X

2 log L
N
,
=

( 2 )2
2( 2 )2

[yi 0 1 xi ]2

i=1

( 2 )3

por lo que la matriz hessiana en el punto e0 , e1 ,


e2 queda en la forma
N
X

xi /e
2
2

N/e

i=1

N
N
X
X
H(e0 , e1 ,
e2 ) =

2
xi /e

x2i /e
2

i=1

i=1

0
0
N/2(e
2 )2

N
Nx

x2i
= Nx

e2
i=1

0
0

Esta matriz es definida negativa puesto que los menores principales son

P
agina www

0
.

N
2e
2

P
agina inicial

Contenido

JJ

II

P
agina 5 de 7

D1 =

e2

D2 =

N Sx2
(e
2 )2

D3 =

N Sx2

2(e
2 )4

Regresar

Pantalla completa

verificandose que (1) Di > 0, i = 1, 2, 3.

Cerrar

Abandonar

N
X

x2i

N
2 log L
2 log L
=

,
= i=1 2
2
2
2
0

N
X

2 log L
= i=1
2
1

N
X

N
X

xi
[yi 0 1 xi ]
2
2 log L

log
L
,
= i=1 2
,
= i=1
2
1 0

0
( 2 )2

[yi 0 1 xi ]xi
( 2 )2

N
X

2 log L
N
,
=

( 2 )2
2( 2 )2

[yi 0 1 xi ]2

i=1

( 2 )3

por lo que la matriz hessiana en el punto e0 , e1 ,


e2 queda en la forma
N
X

xi /e
2
2

N/e

i=1

N
N
X
X
H(e0 , e1 ,
e2 ) =

2
xi /e

x2i /e
2

i=1

i=1

0
0
N/2(e
2 )2

N
Nx

x2i
= Nx

e2
i=1

0
0

P
agina www

0
.

N
2e
2

Esta matriz es definida negativa puesto que los menores principales son

P
agina inicial

Contenido

JJ

II

P
agina 5 de 7

D1 =

e2

D2 =

N Sx2
(e
2 )2

D3 =

N Sx2

2(e
2 )4

Regresar

Pantalla completa

verificandose que (1) Di > 0, i = 1, 2, 3.


De esta forma hemos calculado elmaximo relativo de la funcion de verosimilitud. Se puede comprobar
que este maximo es absoluto, para lo cual hay que comprobar que los lmites de la funcion de verosimilitud
en los extremos del espacio parametrico, cuando 0 y 1 tienden a menos y mas infinito y cuando 2
tiende a cero y a infinito, es cero.

Cerrar

Abandonar

3.

Distribuci
on de los estimadores

El hecho de que los estimadores de 0 y 1 se puedan expresar en terminos de las perturbaciones i


y que estas sean ahora, por hipotesis, variables aleatorias independientes e identicamente distribuidas
seg
un una normal de media cero y varianza 2 , permite obtener de forma rapida las distribuciones de
dichos estimadores. En cuanto a la distribucion de la varianza residual no tendremos una expresion para
ella si bien, aunque lo demostraremos mas adelante, s es conocida la distribucion de una cierta funcion
suya.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 6 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

3.

Distribuci
on de los estimadores

El hecho de que los estimadores de 0 y 1 se puedan expresar en terminos de las perturbaciones i


y que estas sean ahora, por hipotesis, variables aleatorias independientes e identicamente distribuidas
seg
un una normal de media cero y varianza 2 , permite obtener de forma rapida las distribuciones de
dichos estimadores. En cuanto a la distribucion de la varianza residual no tendremos una expresion para
ella si bien, aunque lo demostraremos mas adelante, s es conocida la distribucion de una cierta funcion
suya.
3.1.

Distribuci
on de b1 .

Recordemos que b1 se puede expresar como


b1 = 1 +

N
X

wi i ,

P
agina www

i=1
P
agina inicial

Contenido

JJ

II

P
agina 6 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

3.

Distribuci
on de los estimadores

El hecho de que los estimadores de 0 y 1 se puedan expresar en terminos de las perturbaciones i


y que estas sean ahora, por hipotesis, variables aleatorias independientes e identicamente distribuidas
seg
un una normal de media cero y varianza 2 , permite obtener de forma rapida las distribuciones de
dichos estimadores. En cuanto a la distribucion de la varianza residual no tendremos una expresion para
ella si bien, aunque lo demostraremos mas adelante, s es conocida la distribucion de una cierta funcion
suya.
3.1.

Distribuci
on de b1 .

Recordemos que b1 se puede expresar como


b1 = 1 +

N
X

wi i ,

P
agina www

i=1
P
agina inicial

con lo cual se distribuira seg


un una normal de media 1 y de varianza
N
X
i=1

wi2 2

2
=
N Sx2

puesto que es una combinacion lineal de variables normales, independientes e identicamente distribuidas.

Contenido

JJ

II

P
agina 6 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

3.

Distribuci
on de los estimadores

El hecho de que los estimadores de 0 y 1 se puedan expresar en terminos de las perturbaciones i


y que estas sean ahora, por hipotesis, variables aleatorias independientes e identicamente distribuidas
seg
un una normal de media cero y varianza 2 , permite obtener de forma rapida las distribuciones de
dichos estimadores. En cuanto a la distribucion de la varianza residual no tendremos una expresion para
ella si bien, aunque lo demostraremos mas adelante, s es conocida la distribucion de una cierta funcion
suya.
3.1.

Distribuci
on de b1 .

Recordemos que b1 se puede expresar como


b1 = 1 +

N
X

wi i ,

P
agina www

i=1
P
agina inicial

con lo cual se distribuira seg


un una normal de media 1 y de varianza
N
X
i=1

wi2 2

2
=
N Sx2

puesto que es una combinacion lineal de variables normales, independientes e identicamente distribuidas.

Contenido

JJ

II

P
agina 6 de 7

Regresar

3.2.

Distribuci
on de b0 .

En cuanto al estimador de la ordenada en el origen se tiene un resultado analogo al anterior. En


efecto, como

Pantalla completa

Cerrar

Abandonar

3.

Distribuci
on de los estimadores

El hecho de que los estimadores de 0 y 1 se puedan expresar en terminos de las perturbaciones i


y que estas sean ahora, por hipotesis, variables aleatorias independientes e identicamente distribuidas
seg
un una normal de media cero y varianza 2 , permite obtener de forma rapida las distribuciones de
dichos estimadores. En cuanto a la distribucion de la varianza residual no tendremos una expresion para
ella si bien, aunque lo demostraremos mas adelante, s es conocida la distribucion de una cierta funcion
suya.
3.1.

Distribuci
on de b1 .

Recordemos que b1 se puede expresar como


b1 = 1 +

N
X

wi i ,

P
agina www

i=1
P
agina inicial

con lo cual se distribuira seg


un una normal de media 1 y de varianza
N
X

wi2 2

i=1

2
=
N Sx2

puesto que es una combinacion lineal de variables normales, independientes e identicamente distribuidas.

Contenido

JJ

II

P
agina 6 de 7

Regresar

3.2.

Distribuci
on de b0 .

Pantalla completa

En cuanto al estimador de la ordenada en el origen se tiene un resultado analogo al anterior. En


efecto, como

b0 = 0 +

N 
X
1
i=1


xwi i

Cerrar

Abandonar

se tiene de forma inmediata que dicho estimador se distribuye seg


un una normal de media 0 y varianza
2

N 
X
1
i=1

2
xwi

= 2

x2
1
+
N N Sx2


.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 7 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

se tiene de forma inmediata que dicho estimador se distribuye seg


un una normal de media 0 y varianza
2

N 
X
1
i=1

3.3.

2
xwi

= 2

x2
1
+
N N Sx2


.

Distribuci
on de
b2

La distribucion del estimador de la varianza de los terminos de error no es inmediata puesto que se
basa en la distribucion de formas cuadraticas normales. Por esta razon omitimos su demostracion aqu,
si bien en el siguiente tema trataremos esta cuestion mas detalladamente. Concretamente se tiene que

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 7 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

se tiene de forma inmediata que dicho estimador se distribuye seg


un una normal de media 0 y varianza
2

N 
X
1
i=1

3.3.

2
xwi

= 2

x2
1
+
N N Sx2


.

Distribuci
on de
b2

La distribucion del estimador de la varianza de los terminos de error no es inmediata puesto que se
basa en la distribucion de formas cuadraticas normales. Por esta razon omitimos su demostracion aqu,
si bien en el siguiente tema trataremos esta cuestion mas detalladamente. Concretamente se tiene que
N
X

e2i

(N 2)b
2
=
2
2
se distribuye seg
un una distribucion chi-cuadrado centrada con N 2 grados de libertad.
i=1

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 7 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

se tiene de forma inmediata que dicho estimador se distribuye seg


un una normal de media 0 y varianza
2

N 
X
1
i=1

3.3.

2
xwi

= 2

x2
1
+
N N Sx2


.

Distribuci
on de
b2

La distribucion del estimador de la varianza de los terminos de error no es inmediata puesto que se
basa en la distribucion de formas cuadraticas normales. Por esta razon omitimos su demostracion aqu,
si bien en el siguiente tema trataremos esta cuestion mas detalladamente. Concretamente se tiene que
N
X

e2i

(N 2)b
2
=
2
2
se distribuye seg
un una distribucion chi-cuadrado centrada con N 2 grados de libertad.
i=1

P
agina www

P
agina inicial

Contenido

Recordemos que los N 2 grados de libertad de los residuos proceden del n


umero de datos menos el
n
umero de parametros que han hecho falta estimar para calcular las medias en cada punto, pudiendose
entender mejor si consideramos que los N residuos no son independientes ya que los residuos poseen dos
restricciones dadas por
N
N
X
X
ei = 0 ,
ei xi = 0
i=1

i=1

JJ

II

P
agina 7 de 7

Regresar

Pantalla completa

con lo cual hay solo N 2 residuos independientes, que corresponden a los N 2 grados de libertad.
Cerrar

Abandonar

se tiene de forma inmediata que dicho estimador se distribuye seg


un una normal de media 0 y varianza
2

N 
X
1
i=1

3.3.

2
xwi

= 2

x2
1
+
N N Sx2


.

Distribuci
on de
b2

La distribucion del estimador de la varianza de los terminos de error no es inmediata puesto que se
basa en la distribucion de formas cuadraticas normales. Por esta razon omitimos su demostracion aqu,
si bien en el siguiente tema trataremos esta cuestion mas detalladamente. Concretamente se tiene que
N
X

e2i

(N 2)b
2
=
2
2
se distribuye seg
un una distribucion chi-cuadrado centrada con N 2 grados de libertad.
i=1

P
agina www

P
agina inicial

Contenido

Recordemos que los N 2 grados de libertad de los residuos proceden del n


umero de datos menos el
n
umero de parametros que han hecho falta estimar para calcular las medias en cada punto, pudiendose
entender mejor si consideramos que los N residuos no son independientes ya que los residuos poseen dos
restricciones dadas por
N
N
X
X
ei = 0 ,
ei xi = 0
i=1

i=1

JJ

II

P
agina 7 de 7

Regresar

Pantalla completa

con lo cual hay solo N 2 residuos independientes, que corresponden a los N 2 grados de libertad.
Ademas puede demostrarse que tanto b0 como b1 son independientes de

N
X

Cerrar

e2i (si bien ello conlleva

i=1

estudiar independencia de formas cuadraticas y lineales y lo dejaremos para el apartado de regresion


m
ultiple).

Abandonar

3.4.

Distribuci
on de las variabilidades explicada y no explicada.

A partir del apartado anterior es inmediato que

VNE
; 2N 2 .
2

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 7 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

3.4.

Distribuci
on de las variabilidades explicada y no explicada.

A partir del apartado anterior es inmediato que


Por otro lado se verifica que VE =

N
X

VNE
; 2N 2 .
2

(b
yi y)2 = b12 N Sx2 .

i=1

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 7 de 7

Regresar

Pantalla completa

Cerrar

Abandonar

3.4.

Distribuci
on de las variabilidades explicada y no explicada.

A partir del apartado anterior es inmediato que


N
X

VNE
; 2N 2 .
2

Por otro lado se verifica que VE =


(b
yi y)2 = b12 N Sx2 .
i=1


hp
i
2
p

2
2
2
b
b
N Sx 1 ; , por lo que
Como 1 ; N1 1 ;
, entonces N Sx 1 ; N1
N Sx2

VE
N Sx2 12
2
;

()
siendo

=
.
1
2
2

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 7 de 7
1

Recordemos que:

Regresar

a) Dadas z1 , . . . , zn variables aleatorias independientes con zi ; N1 [i ; 2 ], i = 1, . . . , n, entonces


n
X

u=

n
X

zi2

i=1
2

; 2n ()

donde =

i=1

u
b) Si z ; N1 [; 2 ], 2 ; 2n y ambas son independientes, entonces

z
r

u
n

; tn ()

donde

Pantalla completa

2i

2
.
2

Cerrar

.
Abandonar

3.4.

Distribuci
on de las variabilidades explicada y no explicada.

A partir del apartado anterior es inmediato que


N
X

VNE
; 2N 2 .
2

Por otro lado se verifica que VE =


(b
yi y)2 = b12 N Sx2 .
i=1


hp
i
2
p

2
2
2
b
b
N Sx 1 ; , por lo que
Como 1 ; N1 1 ;
, entonces N Sx 1 ; N1
N Sx2

VE
N Sx2 12
2
;

()
siendo

=
.
1
2
2
Ademas, puesto que b1 y
b2 son independientes se deduce que ambas variabilidades son independientes
y que 2
P
agina www

VE
; F1,N 2 () .
VNE

P
agina inicial

N 2
Contenido
1

Recordemos que:

a) Dadas z1 , . . . , zn variables aleatorias independientes con zi ; N1 [i ; 2 ], i = 1, . . . , n, entonces


n
X

u=

n
X

zi2

i=1
2

; 2n ()

donde =

JJ

II

2i

i=1

P
agina 7 de 7

Regresar

u
b) Si z ; N1 [; ], 2 ; 2n y ambas son independientes, entonces

z
r

u
n

; tn ()

Pantalla completa
2

donde

.
2

Cerrar

Abandonar

Si z ; 2m (), u ; 2n y ambas son independientes, entonces


z
m ; F () .
m,n
u
n

You might also like