You are on page 1of 66

MÍNIMOS CUADRADOS ORDINARIOS

PATRICIA AYALA NAVIA


SOBRESTIMA

SUBESTIMA
𝛽0 𝛽1

𝛽መ0 𝛽መ1
𝛽መ0 𝛽መ1

RESIDUOS: las
diferencias entre
los valores
observados
y los estimados
de Y.
𝛽መ0 𝛽መ1

SUMATORIA DE LOS
RESIDUALES AL
CUADRADO
𝛽መ1
𝛽መ0

𝛽መ0 𝛽መ1
CARACTERÍSTICAS DE LOS
ESTIMADORES:
• Los estimadores de MCO se expresan únicamente
en términos de las cantidades (es decir, X y Y )
observables (es decir, muestras). Por
consiguiente, se calculan con facilidad.
• Son estimadores puntuales: dada la muestra,
cada estimador proporciona un solo valor
(puntual) del parámetro poblacional pertinente.
PROPIEDADES FRM
• Pasa a través de las
medias muestrales de Y
yX
• El valor medio de Y
𝛽መ0 𝛽መ1
estimada 𝑌෠𝑖 es igual al
valor medio de Y real 𝛽መ1 𝛽መ1

𝛽መ1
• El valor medio de los 𝛽መ0 𝛽መ1
residuos 𝜇ො𝑖 es cero.
• Los residuos 𝑢ො 𝑖 no están correlacionados con Xi; es
decir:
SUPUESTOS MCRL
1. El modelo de regresión 𝛽መ1
es lineal en los
parámetros, aunque
puede o no ser lineal
en las variables.
2. Los valores que toma la
regresora X pueden
considerarse fijos en
muestras repetidas (el
caso de la regresora
fija), o haber sido
muestreados junto con
la variable dependiente
Y (el caso de la regresora
estocástica).
3. Dado el valor de Xi, la
media o el valor
esperado del término
de perturbación
aleatoria ui es cero
4. La varianza del término
de error, o de
perturbación, es la
misma sin importar el
valor de X.
• Igual dispersión o igual
varianza
• la varianza condicional de
la población Y varía con X.
Esta situación se conoce
apropiadamente como
heteroscedasticidad, o
dispersión desigual, o
varianza desigual.
5. Dados dos valores cualesquiera de X, Xi y Xj (i ≠ j),
la correlación entre dos ui y uj cualesquiera (i ≠j)
es cero. En pocas palabras, estas observaciones se
muestrean de manera independiente
AUTOCORRELACIÓN AUTOCORRELACIÓN NO
POSITIVA NEGATIVA AUTOCORRELACIÓN
6. El número de • Se necesitan por lo
observaciones n debe menos dos pares de
ser mayor que el observaciones para
número de variables estimar los parámetros
explicativas.
• No todos los valores X en • Si todos los valores de X
una muestra determinada ത el
son idénticos, Xi =𝑋y
• deben ser iguales. denominador de esa
Técnicamente, var(X) ecuación será cero, lo que
debe ser un número imposibilita la estimación
positivo. Además, no de β2 y, por consiguiente,
puede haber valores de β1.
atípicos de la variable X,
es decir, valores muy
grandes en relación con el
resto de las
observaciones.
• Los valores cambian de
una muestra a otra. constante o
varianza
Para ello se requiere homoscedásti
una medida de ca de ui
confiabilidad o
precisión de los
estimadores.
• La precisión de un valor
estimado se mide por
su error estándar (ee).
GRADOS DE LIBERTAD.
el número total de
observaciones en la
muestra
( n) menos el número de
restricciones (lineales)
independientes o de
restricciones que se les
impusieron
𝜎ො 2 es el estimador de
MCO de la verdadera
pero desconocida 𝜎 2
• Para calcular el error estándar de la estimación o error
estándar de la regresión

2 ෝ2
σ𝑢 σ(𝑦𝑖 −𝑦ො 𝑖 )
• 𝜎ො = =
𝑛−𝑘 𝑛−𝑘
error estándar de estimación o el
error estándar de la regresión
(ee).
la desviación estándar de los
valores Y alrededor de la línea de
regresión estimada
también se denomina desviación
estándar (condicional) de ui
y Yi
1. La varianza de 𝛽መ1 es directamente proporcional a 𝜎 2 pero
2
inversamente proporcional a σ(𝑋 − 𝑋) , es decir, etre mayor
sea la variación de los valores de x, menor será la varianza de
𝛽መ1 y por lo tanto, mayor será la precisión con la cual estimar
𝛽መ1 .

Entre mayor sea n mayor será su precisión


2. La varianza de 𝛽መ0 es directamente
proporcional a σ² y a σxi² , pero inversamente
proporcional a σ 𝑋 − 𝑋ത Y al tamaño n de la
muestra.
• Como 𝛽መ0 y 𝛽መ1 son estimadores, no sólo
variarán de una muestra a otra, sino también,
en una muestra dada, es probable que
dependan entre sí; esta dependencia se mide
por la covarianza entre ellos.
COVARIANZA
• Como la varianza de
cualquier variable es
positiva, el signo de la
covarianza depende de

la 𝑋.

• Si 𝑋ത es positiva, la
covarianza es negativa.
COEFICIENTE DE DETERMINACIÓN:
BONDAD DE AJUSTE
• El coeficiente de determinación:

• 𝒓𝟐 (Caso de dos variables) o R² (regresión múltiple) es una


medida comprendida que dice cuán bien se ajusta la línea de
regresión muestral a los datos.

• 𝟎 ≥ 𝒓𝟐 ≤ 𝟏
DIAGRAMA DE VENN O DE BALLENTINE
• si r² = 0 → no hay relación alguna entre la variable regresada y
la variable regresora, es decir que β1 = 0.

• En este caso, ŷi = 𝛽መ0 = 𝑌,


ത es decir, la mejor predicción de
cualquier valor de y es simplemente el valor de su media. En
esta situación, por consiguiente, la línea de regresión será
horizontal al eje x.
• Cuando r² = 1, se dice que hay un ajuste perfecto,
es decir, que la intersección es completa pues
ciento por ciento de la variación en y se explica
por x.
SUMATORIAS DE CUADRADOS
• SUMATORIA TOTAL DE CUADRADOS (STC)

2
• σ 𝑌𝑖 = σ 𝑌𝑖 − 𝑌ത
2

• Variación de los valores reales de Y respecto de su media


muestral
• SUMATORIA EXPLICADA DE CUADRADOS (SEC):

2 2
• σ 𝑌෠ = σ 𝑌𝑖
෡ − 𝑌ത

• Variación de los valores de Y estimado alrededor de su


media
• SUMATORIA DE LOS RESIDUALES AL CUADRADO (SRC):

2

෡ 2 = σ 𝑌𝑖 − 𝑌𝑖
• σ 𝑢𝑖

• Variación residual o no explicada de los valores de Y alrededor


de la línea de regresión
• SUMA TOTAL DE CUADRADOS:

• STC = SEC + SRC

• Muestra que la variación total en los valores de Y observados


alrededor del valor de su media puede dividirse en dos
partes, una atribuible a la línea de regresión y la otra a fuerzas
aleatorias, pues no todas las observaciones y caen sobre la
línea ajustada
CALCULO DEL COEFICIENTE DE DETERMINACIÓN MUESTRAL
COEFICIENTE DE DETERMINACIÓN MUESTRAL

• Es la medida más utilizada de la bondad de ajuste de


una línea de regresión

• Mide la proporción o el porcentaje de la variación total


en Y explicada por el modelo de regresión.
COEFICIENTE DE DETERMINACIÓN MUESTRAL

• Es la medida más utilizada de la bondad de ajuste de


una línea de regresión

• Mide la proporción o el porcentaje de la variación total


en Y explicada por el modelo de regresión.
PROPIEDADES DEL r²
1. Es una cantidad no negativa

2. Sus limites están entre 0 y 1,

• Cuando r²= 0 se dice que no hay relación entre las variables. (Β₂ = 0) la
línea de regresión será horizontal al eje X

• Cuando r² = 1 se dice que hay un ajuste perfecto entre las variables.


COEFICIENTE DE CORRELACIÓN (r)
• Es la medida o el grado de asociación entre dos
variables
PROPIEDADES (r)

1. Puede tener signo positivo o negativo, según sea el signo del


numerador.
2. Cae entre los límites -1 y 1, es decir: −𝟏 ≤ 𝒓 ≤ 𝟏
3. Es simétrico por naturaleza; es decir, el coeficiente de
correlación entre x y y (rxy) es el mismo que entre y y x (ryx)
• Si X y Y son estadísticamente independientes, el
coeficiente de correlación entre ellas es cero; pero si
r=0 , esto no significa que las dos variables sean
independientes. En otras palabras, una correlación
igual a cero no necesariamente implica
independencia
VARIABLES ESTADISTICAMENTE INDEPENDIENTES

• Dos variables estadísticas son estadísticamente


independientes cuando el comportamiento estadístico
de una de ellas no se ve afectado por los valores que
toma la otra
• Es una medida de asociación lineal o dependencia lineal
solamente; su uso en la descripción de relaciones no lineales
no tiene significado.

• Ejemplo: y = x²

• Es una relación exacta y a pesar de ello r es cero


• r² es una medida con más significado que r, pues la
primera indica la proporción de la variación en la
variable dependiente explicada por la(s) variable(s)
explicativa(s) y, por consiguiente, constituye una
medida global del grado en que la variación en una
variable determina la variación en la otra
CALCULO:
EJERCICIO
X ingreso Y consumo
CON LOS SIGUIENTES DATOS CALCULE:
40 380
25 410 A) EL VALOR DE CADA UNO DE LOS PARÁMETROS
20 390 B) EL MODELO DE REGRESIÓN MUESTRAL
22 370 C) LA VARIANZA Y EL ERROR ESTANDAR
31 475 PARA CADA UNO DE LOS PARÁMETROS
52 450 D)
40 500
20 390
55 575
42 520
2
σ 𝑢ො 2 σ(𝑦𝑖 − 𝑦ො𝑖 )
𝜎ො = =
𝑛−𝑘 𝑛−𝑘
EJERCICIO
X ingreso Y consumo XY X² Ŷ
40 380 15200 1600 466,8
25 410 10250 625 407,55
20 390 7800 400 387,8
22 370 8140 484 395,7
31 475 14725 961 431,25
52 450 23400 2704 414,2
40 500 20000 1600 466,8
20 390 7800 400 387,8
55 575 31625 3025 526,05
42 520 21840 1764 474,7
∑X = 347 4460 160780 13563 4458,65
• 𝑋ത = 34,7

• 𝑌ത = 446

𝑛 σ 𝑋𝑌− σ 𝑋 σ 𝑌
• 𝛽መ2 = σ 𝑋2 − σ 𝑋 2
= 3,95

• 𝛽መ1 = 𝑌ത − 𝛽መ2 𝑋ത = 308,80

෡𝟐
෡ = 𝟑𝟎𝟖, 𝟖𝟎 + 𝟑, 𝟗𝟓𝜷
• 𝒀
HALLANDO LOS VALORES DE LA
VARIANZA Y EL ERROR ESTANDAR

2 ෝ2
σ𝑢 ෠
σ(𝑌 − 𝑌)²
• 𝜎ො = = = 2474,568438
𝑛−𝑘 𝑛−𝑘

• 𝜎ො 2 = 𝜎ො = 49,7450
σ 𝑋2
• 𝑒𝑒 𝛽መ1 = 𝜎ො = 46,9528
𝑛 σ(𝑋𝑖 − 𝑋)²


𝜎
• 𝑒𝑒 𝛽መ2 = 2
= 1,275
𝑋𝑖 − 𝑋ത
• CALCULAMOS LA VARIANZA DE LOS
PARÁMETROS:

σ 𝑋𝑖 2
• 𝑉𝐴𝑅 𝛽መ1 = 𝜎ො 2 = 𝟐𝟐𝟎𝟓, 𝟎𝟏𝟕𝟓
𝑛 σ 𝑋𝑖 − 𝑋ത 2

ෝ2
𝜎
• 𝑉𝐴𝑅 𝛽መ1 = σ 𝑋𝑖 − 𝑋ത 2
= 1,6257

You might also like