Professional Documents
Culture Documents
Grado en Estadstica
Curso 2011/2012. Prof. Dr. Francisco de Ass Torres Ruiz
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 1 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
2
P
agina www
2. Estimaci
on del modelo por m
axima verosimilitud
3. Distribuci
on de los estimadores
3.1. Distribucion de[
1 . . . . . . . . . . . . . .
3.2. Distribucion de[
0 . . . . . . . . . . . . . .
3.3. Distribucion de[
2 . . . . . . . . . . . . .
3.4. Distribucion de las variabilidades explicada
6
6
6
7
7
. . .
. . .
. . .
y no
. . . . . .
. . . . . .
. . . . . .
explicada.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
P
agina inicial
Contenido
JJ
II
P
agina 1 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
1.
Introducci
on
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 2 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
1.
Introducci
on
Hasta el momento hemos trabajado con el modelo de regresion lineal simple sin haber establecido
ning
un supuesto sobre la distribucion de las perturbaciones aleatorias i , i = 1, . . . , N . De hecho no ha
sido necesario emplear dichas distribuciones para la estimacion ya que el metodo de mnimos cuadrados,
as como las primeras conclusiones que se han obtenido, no requieren nada al respecto.
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 2 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
1.
Introducci
on
Hasta el momento hemos trabajado con el modelo de regresion lineal simple sin haber establecido
ning
un supuesto sobre la distribucion de las perturbaciones aleatorias i , i = 1, . . . , N . De hecho no ha
sido necesario emplear dichas distribuciones para la estimacion ya que el metodo de mnimos cuadrados,
as como las primeras conclusiones que se han obtenido, no requieren nada al respecto.
Sin embargo, con posterioridad vamos a tratar el tema de contrastes de hipotesis sobre el modelo para
lo cual es imprescindible el conocimiento de las distribuciones de los estimadores obtenidos. Se hace pues
necesario la introduccion de una hipotesis adicional en la cual se recoja la base de las distribuciones que
se emplearan.
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 2 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
1.
Introducci
on
Hasta el momento hemos trabajado con el modelo de regresion lineal simple sin haber establecido
ning
un supuesto sobre la distribucion de las perturbaciones aleatorias i , i = 1, . . . , N . De hecho no ha
sido necesario emplear dichas distribuciones para la estimacion ya que el metodo de mnimos cuadrados,
as como las primeras conclusiones que se han obtenido, no requieren nada al respecto.
Sin embargo, con posterioridad vamos a tratar el tema de contrastes de hipotesis sobre el modelo para
lo cual es imprescindible el conocimiento de las distribuciones de los estimadores obtenidos. Se hace pues
necesario la introduccion de una hipotesis adicional en la cual se recoja la base de las distribuciones que
se emplearan.
As la hipotesis que se plantea es la de que las perturbaciones aleatorias son independientes y estan
identicamente distribuidas atendiendo a una normal de media cero y varianza 2 ; es decir
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 2 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
1.
Introducci
on
Hasta el momento hemos trabajado con el modelo de regresion lineal simple sin haber establecido
ning
un supuesto sobre la distribucion de las perturbaciones aleatorias i , i = 1, . . . , N . De hecho no ha
sido necesario emplear dichas distribuciones para la estimacion ya que el metodo de mnimos cuadrados,
as como las primeras conclusiones que se han obtenido, no requieren nada al respecto.
Sin embargo, con posterioridad vamos a tratar el tema de contrastes de hipotesis sobre el modelo para
lo cual es imprescindible el conocimiento de las distribuciones de los estimadores obtenidos. Se hace pues
necesario la introduccion de una hipotesis adicional en la cual se recoja la base de las distribuciones que
se emplearan.
As la hipotesis que se plantea es la de que las perturbaciones aleatorias son independientes y estan
identicamente distribuidas atendiendo a una normal de media cero y varianza 2 ; es decir
i ; N1 [0; 2 ] ; i = 1, . . . , N
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 2 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
1.
Introducci
on
Hasta el momento hemos trabajado con el modelo de regresion lineal simple sin haber establecido
ning
un supuesto sobre la distribucion de las perturbaciones aleatorias i , i = 1, . . . , N . De hecho no ha
sido necesario emplear dichas distribuciones para la estimacion ya que el metodo de mnimos cuadrados,
as como las primeras conclusiones que se han obtenido, no requieren nada al respecto.
Sin embargo, con posterioridad vamos a tratar el tema de contrastes de hipotesis sobre el modelo para
lo cual es imprescindible el conocimiento de las distribuciones de los estimadores obtenidos. Se hace pues
necesario la introduccion de una hipotesis adicional en la cual se recoja la base de las distribuciones que
se emplearan.
As la hipotesis que se plantea es la de que las perturbaciones aleatorias son independientes y estan
identicamente distribuidas atendiendo a una normal de media cero y varianza 2 ; es decir
i ; N1 [0; 2 ] ; i = 1, . . . , N
P
agina www
P
agina inicial
o, equivalentemente, las variables yi son independientes y estan distribuidas, para cada xi , de forma
normal
yi ; N1 [0 + 1 xi ; 2 ] ; i = 1, . . . , N.
Contenido
JJ
II
P
agina 2 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
1.
Introducci
on
Hasta el momento hemos trabajado con el modelo de regresion lineal simple sin haber establecido
ning
un supuesto sobre la distribucion de las perturbaciones aleatorias i , i = 1, . . . , N . De hecho no ha
sido necesario emplear dichas distribuciones para la estimacion ya que el metodo de mnimos cuadrados,
as como las primeras conclusiones que se han obtenido, no requieren nada al respecto.
Sin embargo, con posterioridad vamos a tratar el tema de contrastes de hipotesis sobre el modelo para
lo cual es imprescindible el conocimiento de las distribuciones de los estimadores obtenidos. Se hace pues
necesario la introduccion de una hipotesis adicional en la cual se recoja la base de las distribuciones que
se emplearan.
As la hipotesis que se plantea es la de que las perturbaciones aleatorias son independientes y estan
identicamente distribuidas atendiendo a una normal de media cero y varianza 2 ; es decir
i ; N1 [0; 2 ] ; i = 1, . . . , N
P
agina www
P
agina inicial
o, equivalentemente, las variables yi son independientes y estan distribuidas, para cada xi , de forma
normal
yi ; N1 [0 + 1 xi ; 2 ] ; i = 1, . . . , N.
Esta hipotesis ha de ser verificada siempre en el analisis de un modelo de regresion lineal, ya que
supedita gran parte del tratamiento que con posterioridad se va a realizar.
Contenido
JJ
II
P
agina 2 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
2.
Estimaci
on del modelo por m
axima verosimilitud
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 3 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
2.
Estimaci
on del modelo por m
axima verosimilitud
N
2
N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1
!
.
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 3 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
2.
Estimaci
on del modelo por m
axima verosimilitud
N
2
N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1
!
.
Nuestra idea es obtener los estimadores maximo-verosmiles para los parametros 0 , 1 y 2 . Para
ello hay que realizar la maximizacion de la anterior funcion y encontrar e0 , e1 y
e2 tales que
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 3 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
2.
Estimaci
on del modelo por m
axima verosimilitud
N
2
N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1
!
.
Nuestra idea es obtener los estimadores maximo-verosmiles para los parametros 0 , 1 y 2 . Para
ello hay que realizar la maximizacion de la anterior funcion y encontrar e0 , e1 y
e2 tales que
L(y1 , . . . , yN ; e0 , e1 , e2 ) = Sup L(y1 , . . . , yN ; 0 , 1 , 2 ) .
0 ,1 , 2
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 3 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
2.
Estimaci
on del modelo por m
axima verosimilitud
N
2
N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1
!
.
Nuestra idea es obtener los estimadores maximo-verosmiles para los parametros 0 , 1 y 2 . Para
ello hay que realizar la maximizacion de la anterior funcion y encontrar e0 , e1 y
e2 tales que
L(y1 , . . . , yN ; e0 , e1 , e2 ) = Sup L(y1 , . . . , yN ; 0 , 1 , 2 ) .
0 ,1 , 2
Para ello, en principio, habra que derivar la funcion de verosimilitud y encontrar sus puntos crticos.
Asimismo, como trabajar con dicha funcion es algo complicado, lo que suele hacerse es considerar su
logaritmo ya que, al ser el logaritmo creciente, conserva los puntos crticos. En este caso
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 3 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
2.
Estimaci
on del modelo por m
axima verosimilitud
N
2
N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1
!
.
Nuestra idea es obtener los estimadores maximo-verosmiles para los parametros 0 , 1 y 2 . Para
ello hay que realizar la maximizacion de la anterior funcion y encontrar e0 , e1 y
e2 tales que
L(y1 , . . . , yN ; e0 , e1 , e2 ) = Sup L(y1 , . . . , yN ; 0 , 1 , 2 ) .
0 ,1 , 2
P
agina www
Para ello, en principio, habra que derivar la funcion de verosimilitud y encontrar sus puntos crticos.
Asimismo, como trabajar con dicha funcion es algo complicado, lo que suele hacerse es considerar su
logaritmo ya que, al ser el logaritmo creciente, conserva los puntos crticos. En este caso
N
N
N
1 X
2
2
log(L(y1 , . . . , yN ; 0 , 1 , )) = log(2) log( ) 2
[yi 0 1 xi ]2
2
2
2 i=1
P
agina inicial
Contenido
JJ
II
P
agina 3 de 7
Regresar
log L
=
0
log L
=
1
Cerrar
Abandonar
log L
=
2
2.
Estimaci
on del modelo por m
axima verosimilitud
N
2
N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1
!
.
Nuestra idea es obtener los estimadores maximo-verosmiles para los parametros 0 , 1 y 2 . Para
ello hay que realizar la maximizacion de la anterior funcion y encontrar e0 , e1 y
e2 tales que
L(y1 , . . . , yN ; e0 , e1 , e2 ) = Sup L(y1 , . . . , yN ; 0 , 1 , 2 ) .
0 ,1 , 2
P
agina www
Para ello, en principio, habra que derivar la funcion de verosimilitud y encontrar sus puntos crticos.
Asimismo, como trabajar con dicha funcion es algo complicado, lo que suele hacerse es considerar su
logaritmo ya que, al ser el logaritmo creciente, conserva los puntos crticos. En este caso
N
N
N
1 X
2
2
log(L(y1 , . . . , yN ; 0 , 1 , )) = log(2) log( ) 2
[yi 0 1 xi ]2
2
2
2 i=1
P
agina inicial
Contenido
JJ
II
P
agina 3 de 7
Regresar
log L
=
2
Pantalla completa
log L
=
1
Cerrar
Abandonar
2.
Estimaci
on del modelo por m
axima verosimilitud
N
2
N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1
!
.
Nuestra idea es obtener los estimadores maximo-verosmiles para los parametros 0 , 1 y 2 . Para
ello hay que realizar la maximizacion de la anterior funcion y encontrar e0 , e1 y
e2 tales que
L(y1 , . . . , yN ; e0 , e1 , e2 ) = Sup L(y1 , . . . , yN ; 0 , 1 , 2 ) .
0 ,1 , 2
P
agina www
Para ello, en principio, habra que derivar la funcion de verosimilitud y encontrar sus puntos crticos.
Asimismo, como trabajar con dicha funcion es algo complicado, lo que suele hacerse es considerar su
logaritmo ya que, al ser el logaritmo creciente, conserva los puntos crticos. En este caso
N
N
N
1 X
2
2
log(L(y1 , . . . , yN ; 0 , 1 , )) = log(2) log( ) 2
[yi 0 1 xi ]2
2
2
2 i=1
P
agina inicial
Contenido
JJ
II
P
agina 3 de 7
Regresar
log L
=
2
N
log L
1 X
= 2
[yi 0 1 xi ] xi
1
i=1
Pantalla completa
Cerrar
Abandonar
2.
Estimaci
on del modelo por m
axima verosimilitud
N
2
N
1 X
exp 2
[yi 0 1 xi ]2
2 i=1
!
.
Nuestra idea es obtener los estimadores maximo-verosmiles para los parametros 0 , 1 y 2 . Para
ello hay que realizar la maximizacion de la anterior funcion y encontrar e0 , e1 y
e2 tales que
L(y1 , . . . , yN ; e0 , e1 , e2 ) = Sup L(y1 , . . . , yN ; 0 , 1 , 2 ) .
0 ,1 , 2
P
agina www
Para ello, en principio, habra que derivar la funcion de verosimilitud y encontrar sus puntos crticos.
Asimismo, como trabajar con dicha funcion es algo complicado, lo que suele hacerse es considerar su
logaritmo ya que, al ser el logaritmo creciente, conserva los puntos crticos. En este caso
N
N
N
1 X
2
2
log(L(y1 , . . . , yN ; 0 , 1 , )) = log(2) log( ) 2
[yi 0 1 xi ]2
2
2
2 i=1
P
agina inicial
Contenido
JJ
II
P
agina 3 de 7
Regresar
log L
N
1 X
[yi 0 1 xi ]2
=
+
2
2
2
2
2
2( ) i=1
N
log L
1 X
= 2
[yi 0 1 xi ] xi
1
i=1
Pantalla completa
Cerrar
Abandonar
Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 4 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X
yi = N 0 + 1
i=1
N
X
i=1
xi yi = 0
n
X
xi
i=1
N
X
i=1
xi + 1
n
X
x2i
i=1
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 4 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X
yi = N 0 + 1
i=1
N
X
i=1
xi yi = 0
n
X
xi
i=1
N
X
i=1
xi + 1
n
X
x2i
i=1
que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimacion por mnimos
cuadrados ordinarios. Con ello los estimadores maximo verosmiles de 0 y 1 son los mismos que los
mnimo cuadraticos.
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 4 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X
yi = N 0 + 1
i=1
N
X
i=1
xi yi = 0
n
X
xi
i=1
N
X
i=1
xi + 1
n
X
x2i
i=1
que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimacion por mnimos
cuadrados ordinarios. Con ello los estimadores maximo verosmiles de 0 y 1 son los mismos que los
mnimo cuadraticos.
A continuacion igualamos la tercera parcial a cero y sustituimos los parametros 0 y 1 por los
estimadores anteriores, concluyendo que el estimador maximo verosmil para 2 es
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 4 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X
yi = N 0 + 1
i=1
N
X
i=1
n
X
xi
i=1
xi yi = 0
N
X
xi + 1
i=1
n
X
x2i
i=1
que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimacion por mnimos
cuadrados ordinarios. Con ello los estimadores maximo verosmiles de 0 y 1 son los mismos que los
mnimo cuadraticos.
A continuacion igualamos la tercera parcial a cero y sustituimos los parametros 0 y 1 por los
estimadores anteriores, concluyendo que el estimador maximo verosmil para 2 es
P
agina www
N
X
e2 =
i=1
e2i
P
agina inicial
Contenido
JJ
II
P
agina 4 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X
yi = N 0 + 1
i=1
N
X
i=1
n
X
xi
i=1
xi yi = 0
N
X
xi + 1
i=1
n
X
x2i
i=1
que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimacion por mnimos
cuadrados ordinarios. Con ello los estimadores maximo verosmiles de 0 y 1 son los mismos que los
mnimo cuadraticos.
A continuacion igualamos la tercera parcial a cero y sustituimos los parametros 0 y 1 por los
estimadores anteriores, concluyendo que el estimador maximo verosmil para 2 es
P
agina www
N
X
e2 =
e2i
i=1
que ya no coincide con el estimador de mnimos cuadrados. Ademas este estimador no es insesgado ya
que
P
agina inicial
Contenido
JJ
II
P
agina 4 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X
yi = N 0 + 1
i=1
N
X
i=1
n
X
xi
i=1
xi yi = 0
N
X
xi + 1
i=1
n
X
x2i
i=1
que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimacion por mnimos
cuadrados ordinarios. Con ello los estimadores maximo verosmiles de 0 y 1 son los mismos que los
mnimo cuadraticos.
A continuacion igualamos la tercera parcial a cero y sustituimos los parametros 0 y 1 por los
estimadores anteriores, concluyendo que el estimador maximo verosmil para 2 es
P
agina www
N
X
e2 =
e2i
i=1
que ya no coincide con el estimador de mnimos cuadrados. Ademas este estimador no es insesgado ya
que
P
agina inicial
Contenido
JJ
II
P
agina 4 de 7
2] =
E[e
N 2 2
Regresar
Pantalla completa
Cerrar
Abandonar
Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X
yi = N 0 + 1
i=1
N
X
i=1
n
X
xi
i=1
xi yi = 0
N
X
xi + 1
i=1
n
X
x2i
i=1
que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimacion por mnimos
cuadrados ordinarios. Con ello los estimadores maximo verosmiles de 0 y 1 son los mismos que los
mnimo cuadraticos.
A continuacion igualamos la tercera parcial a cero y sustituimos los parametros 0 y 1 por los
estimadores anteriores, concluyendo que el estimador maximo verosmil para 2 es
P
agina www
N
X
e2 =
e2i
i=1
que ya no coincide con el estimador de mnimos cuadrados. Ademas este estimador no es insesgado ya
que
P
agina inicial
Contenido
JJ
II
P
agina 4 de 7
2] =
E[e
N 2 2
Regresar
Pantalla completa
razon por la cual vamos a adoptar la va de tomar como estimador de la varianza de las perturbaciones
el estimador mnimo cuadratico.
Cerrar
Abandonar
Igualando las dos primeras parciales a cero se tiene el siguiente sistema de ecuaciones
N
X
yi = N 0 + 1
i=1
N
X
i=1
n
X
xi
i=1
xi yi = 0
N
X
xi + 1
i=1
n
X
x2i
i=1
que no es otro que el sistema de ecuaciones normales que se obtuvo tras la estimacion por mnimos
cuadrados ordinarios. Con ello los estimadores maximo verosmiles de 0 y 1 son los mismos que los
mnimo cuadraticos.
A continuacion igualamos la tercera parcial a cero y sustituimos los parametros 0 y 1 por los
estimadores anteriores, concluyendo que el estimador maximo verosmil para 2 es
P
agina www
N
X
e2 =
e2i
i=1
que ya no coincide con el estimador de mnimos cuadrados. Ademas este estimador no es insesgado ya
que
P
agina inicial
Contenido
JJ
II
P
agina 4 de 7
2] =
E[e
N 2 2
Regresar
Pantalla completa
razon por la cual vamos a adoptar la va de tomar como estimador de la varianza de las perturbaciones
el estimador mnimo cuadratico.
Evidentemente nos queda comprobar que la solucion obtenida para el sistema de ecuaciones anterior
maximiza la funcion de verosimilitud. En efecto, puede comprobarse que:
Cerrar
Abandonar
N
X
x2i
N
2 log L
2 log L
=
,
= i=1 2
2
2
2
0
N
X
2 log L
= i=1
2
1
N
X
xi
[yi 0 1 xi ]
2
2 log L
log
L
,
= i=1 2
,
= i=1
2
1 0
0
( 2 )2
[yi 0 1 xi ]xi
( 2 )2
N
X
N
X
2 log L
N
,
=
( 2 )2
2( 2 )2
[yi 0 1 xi ]2
i=1
( 2 )3
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 5 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
N
X
x2i
N
2 log L
2 log L
=
,
= i=1 2
2
2
2
0
N
X
2 log L
= i=1
2
1
N
X
xi
[yi 0 1 xi ]
2
2 log L
log
L
,
= i=1 2
,
= i=1
2
1 0
0
( 2 )2
[yi 0 1 xi ]xi
( 2 )2
N
X
N
X
2 log L
N
,
=
( 2 )2
2( 2 )2
[yi 0 1 xi ]2
i=1
( 2 )3
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 5 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
N
X
x2i
N
2 log L
2 log L
=
,
= i=1 2
2
2
2
0
N
X
2 log L
= i=1
2
1
N
X
N
X
xi
[yi 0 1 xi ]
2
2 log L
log
L
,
= i=1 2
,
= i=1
2
1 0
0
( 2 )2
[yi 0 1 xi ]xi
( 2 )2
N
X
2 log L
N
,
=
( 2 )2
2( 2 )2
[yi 0 1 xi ]2
i=1
( 2 )3
xi /e
2
2
N/e
i=1
N
N
X
X
H(e0 , e1 ,
e2 ) =
2
xi /e
x2i /e
2
i=1
i=1
0
0
N/2(e
2 )2
N
Nx
x2i
= Nx
e2
i=1
0
0
P
agina www
0
.
N
2e
2
P
agina inicial
Contenido
JJ
II
P
agina 5 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
N
X
x2i
N
2 log L
2 log L
=
,
= i=1 2
2
2
2
0
N
X
2 log L
= i=1
2
1
N
X
N
X
xi
[yi 0 1 xi ]
2
2 log L
log
L
,
= i=1 2
,
= i=1
2
1 0
0
( 2 )2
[yi 0 1 xi ]xi
( 2 )2
N
X
2 log L
N
,
=
( 2 )2
2( 2 )2
[yi 0 1 xi ]2
i=1
( 2 )3
xi /e
2
2
N/e
i=1
N
N
X
X
H(e0 , e1 ,
e2 ) =
2
xi /e
x2i /e
2
i=1
i=1
0
0
N/2(e
2 )2
N
Nx
x2i
= Nx
e2
i=1
0
0
Esta matriz es definida negativa puesto que los menores principales son
P
agina www
0
.
N
2e
2
P
agina inicial
Contenido
JJ
II
P
agina 5 de 7
D1 =
e2
D2 =
N Sx2
(e
2 )2
D3 =
N Sx2
2(e
2 )4
Regresar
Pantalla completa
Cerrar
Abandonar
N
X
x2i
N
2 log L
2 log L
=
,
= i=1 2
2
2
2
0
N
X
2 log L
= i=1
2
1
N
X
N
X
xi
[yi 0 1 xi ]
2
2 log L
log
L
,
= i=1 2
,
= i=1
2
1 0
0
( 2 )2
[yi 0 1 xi ]xi
( 2 )2
N
X
2 log L
N
,
=
( 2 )2
2( 2 )2
[yi 0 1 xi ]2
i=1
( 2 )3
xi /e
2
2
N/e
i=1
N
N
X
X
H(e0 , e1 ,
e2 ) =
2
xi /e
x2i /e
2
i=1
i=1
0
0
N/2(e
2 )2
N
Nx
x2i
= Nx
e2
i=1
0
0
P
agina www
0
.
N
2e
2
Esta matriz es definida negativa puesto que los menores principales son
P
agina inicial
Contenido
JJ
II
P
agina 5 de 7
D1 =
e2
D2 =
N Sx2
(e
2 )2
D3 =
N Sx2
2(e
2 )4
Regresar
Pantalla completa
Cerrar
Abandonar
3.
Distribuci
on de los estimadores
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 6 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
3.
Distribuci
on de los estimadores
Distribuci
on de b1 .
N
X
wi i ,
P
agina www
i=1
P
agina inicial
Contenido
JJ
II
P
agina 6 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
3.
Distribuci
on de los estimadores
Distribuci
on de b1 .
N
X
wi i ,
P
agina www
i=1
P
agina inicial
wi2 2
2
=
N Sx2
puesto que es una combinacion lineal de variables normales, independientes e identicamente distribuidas.
Contenido
JJ
II
P
agina 6 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
3.
Distribuci
on de los estimadores
Distribuci
on de b1 .
N
X
wi i ,
P
agina www
i=1
P
agina inicial
wi2 2
2
=
N Sx2
puesto que es una combinacion lineal de variables normales, independientes e identicamente distribuidas.
Contenido
JJ
II
P
agina 6 de 7
Regresar
3.2.
Distribuci
on de b0 .
Pantalla completa
Cerrar
Abandonar
3.
Distribuci
on de los estimadores
Distribuci
on de b1 .
N
X
wi i ,
P
agina www
i=1
P
agina inicial
wi2 2
i=1
2
=
N Sx2
puesto que es una combinacion lineal de variables normales, independientes e identicamente distribuidas.
Contenido
JJ
II
P
agina 6 de 7
Regresar
3.2.
Distribuci
on de b0 .
Pantalla completa
b0 = 0 +
N
X
1
i=1
xwi i
Cerrar
Abandonar
N
X
1
i=1
2
xwi
= 2
x2
1
+
N N Sx2
.
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 7 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
N
X
1
i=1
3.3.
2
xwi
= 2
x2
1
+
N N Sx2
.
Distribuci
on de
b2
La distribucion del estimador de la varianza de los terminos de error no es inmediata puesto que se
basa en la distribucion de formas cuadraticas normales. Por esta razon omitimos su demostracion aqu,
si bien en el siguiente tema trataremos esta cuestion mas detalladamente. Concretamente se tiene que
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 7 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
N
X
1
i=1
3.3.
2
xwi
= 2
x2
1
+
N N Sx2
.
Distribuci
on de
b2
La distribucion del estimador de la varianza de los terminos de error no es inmediata puesto que se
basa en la distribucion de formas cuadraticas normales. Por esta razon omitimos su demostracion aqu,
si bien en el siguiente tema trataremos esta cuestion mas detalladamente. Concretamente se tiene que
N
X
e2i
(N 2)b
2
=
2
2
se distribuye seg
un una distribucion chi-cuadrado centrada con N 2 grados de libertad.
i=1
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 7 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
N
X
1
i=1
3.3.
2
xwi
= 2
x2
1
+
N N Sx2
.
Distribuci
on de
b2
La distribucion del estimador de la varianza de los terminos de error no es inmediata puesto que se
basa en la distribucion de formas cuadraticas normales. Por esta razon omitimos su demostracion aqu,
si bien en el siguiente tema trataremos esta cuestion mas detalladamente. Concretamente se tiene que
N
X
e2i
(N 2)b
2
=
2
2
se distribuye seg
un una distribucion chi-cuadrado centrada con N 2 grados de libertad.
i=1
P
agina www
P
agina inicial
Contenido
i=1
JJ
II
P
agina 7 de 7
Regresar
Pantalla completa
con lo cual hay solo N 2 residuos independientes, que corresponden a los N 2 grados de libertad.
Cerrar
Abandonar
N
X
1
i=1
3.3.
2
xwi
= 2
x2
1
+
N N Sx2
.
Distribuci
on de
b2
La distribucion del estimador de la varianza de los terminos de error no es inmediata puesto que se
basa en la distribucion de formas cuadraticas normales. Por esta razon omitimos su demostracion aqu,
si bien en el siguiente tema trataremos esta cuestion mas detalladamente. Concretamente se tiene que
N
X
e2i
(N 2)b
2
=
2
2
se distribuye seg
un una distribucion chi-cuadrado centrada con N 2 grados de libertad.
i=1
P
agina www
P
agina inicial
Contenido
i=1
JJ
II
P
agina 7 de 7
Regresar
Pantalla completa
con lo cual hay solo N 2 residuos independientes, que corresponden a los N 2 grados de libertad.
Ademas puede demostrarse que tanto b0 como b1 son independientes de
N
X
Cerrar
i=1
Abandonar
3.4.
Distribuci
on de las variabilidades explicada y no explicada.
VNE
; 2N 2 .
2
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 7 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
3.4.
Distribuci
on de las variabilidades explicada y no explicada.
N
X
VNE
; 2N 2 .
2
(b
yi y)2 = b12 N Sx2 .
i=1
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 7 de 7
Regresar
Pantalla completa
Cerrar
Abandonar
3.4.
Distribuci
on de las variabilidades explicada y no explicada.
VNE
; 2N 2 .
2
2
2
2
b
b
N Sx 1 ; , por lo que
Como 1 ; N1 1 ;
, entonces N Sx 1 ; N1
N Sx2
VE
N Sx2 12
2
;
()
siendo
=
.
1
2
2
P
agina www
P
agina inicial
Contenido
JJ
II
P
agina 7 de 7
1
Recordemos que:
Regresar
u=
n
X
zi2
i=1
2
; 2n ()
donde =
i=1
u
b) Si z ; N1 [; 2 ], 2 ; 2n y ambas son independientes, entonces
z
r
u
n
; tn ()
donde
Pantalla completa
2i
2
.
2
Cerrar
.
Abandonar
3.4.
Distribuci
on de las variabilidades explicada y no explicada.
VNE
; 2N 2 .
2
2
2
2
b
b
N Sx 1 ; , por lo que
Como 1 ; N1 1 ;
, entonces N Sx 1 ; N1
N Sx2
VE
N Sx2 12
2
;
()
siendo
=
.
1
2
2
Ademas, puesto que b1 y
b2 son independientes se deduce que ambas variabilidades son independientes
y que 2
P
agina www
VE
; F1,N 2 () .
VNE
P
agina inicial
N 2
Contenido
1
Recordemos que:
u=
n
X
zi2
i=1
2
; 2n ()
donde =
JJ
II
2i
i=1
P
agina 7 de 7
Regresar
u
b) Si z ; N1 [; ], 2 ; 2n y ambas son independientes, entonces
z
r
u
n
; tn ()
Pantalla completa
2
donde
.
2
Cerrar
Abandonar