You are on page 1of 19

REGRESION LINEAL Y REGRESION POLIGONAL

OBJETIVO
MARCO TEORICO
Regresin Lineal.

El ejemplo ms simple de aproximacin por mnimos cuadrados es ajustar una lnea recta a un conjunto de observaciones definidas por
puntos:
La expresin matemtica para la lnea recta es:
ao y a1 son coeficientes que representan la interseccin con el eje y y la pendiente, respectivamente.
e= es el error, o diferencia, entre el modelo y las observaciones, el cual se representa al reordenar la ecuacin(17.1) como

e y - a o - a1x

Ajuste polinomial oscilando mas all del rango de los


datos

Resultados ms satisfactorios mediante el ajuste por


mnimos cuadrados

El error o residuo e es la discrepancia entre el valor verdadero de y y el valor aproximado a0 + a1x, el cual predijo la ecuacin lineal

Si se minimiza la suma de los errores residuales de todos los datos disponibles se tiene una mejor lnea de ajuste, es decir,
ei = (yi a0 a1xi); las sumas van de i=1 hasta n=nmero de puntos
Una mejor aproximacin es minimizar la suma de los valores absolutos
|ei| = | yi a0 a1xi |; para i=1 a n
Los dos criterios anteriores, sin embargo, no son adecuados pues no dan un nico mejor ajuste.
Un mejor criterio es el minimax, en donde la lnea de ajuste se elige para que se minimice la mxima distancia a la que se encuentra un
punto de la lnea. Esta tcnica tiene el inconveniente de que da excesiva influencia a puntos fuera del conjunto (un solo punto con un
gran error). Minimax es una tcnica adecuada para ajustar una funcin simple a una complicada. Consiste en minimizar la suma de los
cuadrados de los residuos entre la y medida y la calculada con el modelo lineal
Sr = ei2 = (yi,medida-yi,modelo)2 = (yi a0 a1xi)2 , para i=1 a n

Ajuste de una lnea recta por mnimos cuadrados


Para determinar los valores de ao y a1 , se deriva con respecto a cada uno de los coeficientes:

S r
2 ( yi a0 a1 xi )
ao

0 yi a0 a1 xi

0 yi xi a0 xi a1 xi2

S r
2 ( yi a0 a1 xi ) xi
a1

Al igualar las derivadas a cero dar como resultado un Sr mnimo


Ahora
y expresamos las ecuaciones como un conjunto de dos ecuaciones lineales simultneas ( con 2 incgnitas):
Ecuaciones normales

y na x a
y x x a x a
i

i i

2
i

a1 =( nxiyi -xiyi) / (nxi2 (xi)2)


a0 = prom(y) a1prom(x); prom = promedio

Ejemplo:
Ajuste a una lnea recta los valores x y y en las primeras columnas de la tabla
Tabla. Clculos para el anlisis de error en el ajuste lineal.

Cuantificacin del error en la regresin lineal


Suma de Cuadrados:

Esto se puede interpretar por medio del principio de la mxima probabilidad y se determina como sigue:

St es la magnitud del error residual asociado con la variable dependiente antes de la regresin.
Sr : Suma de los cuadrados.
Suma Inexplicable de los cuadrados: St- Sr
Con esto obtenemos:

Linealizacin de Relaciones No Lineales

En la regresin lineal no siempre se da el caso de que la relacin entre las variables dependientes e independientes es lineal. Este es un
dato que se debe averiguar siempre antes de realizar cualquier anlisis de regresin. Por ejemplo, si los datos son curvilneos, no se debe
utilizar el mtodo de regresin lineal por mnimos cuadrados .
Existen ocasiones en que los datos no son compatibles con la regresin lineal, por lo tanto, se debe recurrir a una transformacin. Estas
transformaciones matemticas son capaces de manipular las ecuaciones para que resulten de una manera lineal, y despus de esto
aplicar el mtodo de regresin lineal simple para ajustar las ecuaciones a los datos .
Ejemplo: Ecuacin de Potencias

y ax b
Como se trata de una ecuacin de potencias se puede aplicar logaritmo a ambos lados de la ecuacin. Tomando valores de a=0,5 y de
b=1,75 se obtiene la siguiente ecuacin.

log y 1,75log x 0,300


En la siguiente Tabla se observan los datos por graficar de la ecuacin de potencias sin logaritmo y con logaritmo.

logx

logy

0,5

-0,301

1,7

0,301

0,226

3,4

0,477

0,534

5,7

0,602

0,753

8,4

0,699

0,922

Curvilinea
9
8
7
6
5

Curvilinea

4
3
2
1
0
0

Grfico de Y vrs X

Logaritmo
1
0,8
0,6
0,4
Logaritmo
0,2
0
0

0,2

0,4

0,6

0,8

-0,2
-0,4

Grfica de log(y) vrs log(x)

Regresin Polinomial
Consiste en otra alternativa, para ajustar polinomios a los datos. Necesitamos ajustar a un polinomio de segundo grado cuadrtico:

y a0 a1 x a2 x 2 e
La suma de los cuadrados de los residuos es:
n

Sr ( yi a0 a1 xi a2 xi ) 2
i 1

Derivamos Sr con respecto a a0:

2 ( yi a0 a1 x1 a2 xi )
2

Luego con respecto a a1:

2 xi ( yi a0 a1 x1 a2 xi )
2

Por ltimo con respecto a a2:

2 xi ( yi a0 a1 xi a2 xi )
2

Igualamos a 0, y reordenamos:

(n)a0 ( xi )a1 ( xi )a2 yi


2

( xi )a0 ( xi )a1 ( xi )a2 xi yi


3

( xi )a0 ( xi )a1 ( xi )a2 xi yi


2

N, hasta i 1
Tenemos un sistemas de ecuaciones, con 3 incgnitas (a0,a1,a2), entonces se puede extender un polinomio de m-simo grado como sigue:

y a0 a1 x a2 x 2 ...... am x m e
El error estndar se calcula de la siguiente manera

sy / x

sr
n (m 1)

PROCEDIMIENTO
REGRESION LINEAL
n X
Y

X^2

XY

(Y-)^2

(Y-a-a1X)^2

REGRESION POLINOMIAL
X^3
X^4
X^2*Y

PLOT
x

1
2
3
4
5

-0.450
-0.600
1.880
0.700
6.000

0.063
0.563
2.250
1.563
4.000

-0.113
-0.450
2.820
0.875
12.000

0.203
0.360
3.534
0.490
36.000

1.528
0.472
0.752
1.347
2.188

0.016
0.422
3.375
1.953
8.000

0.750
0.250
1.250
1.500
2.000

-0.600
-0.450
0.700
1.880
6.000

7.530

8.438

15.133

40.587

6.288

13.76
6

0.250
0.750
1.500
1.250
2.000

5.750

media
n
a1
a0
Sr
St
Sy/x
r
r^2

1.150
5
3.547
-2.573
6.288
40.587
1.448
0.919
0.845

0.004
0.316
5.063
2.441
16.00
0
23.82
4

(Y(a2*X^2+a1X+a0))
^2
-0.028125 0.001991948
-0.3375
0.011874188
4.23
0.017815576
1.09375
0.000313954
24
0.002809
28.958

0.035


^2

POLINOMIAL
MATRIZ
5
5.750
8.438

5.750
8.438
13.766

8.438
13.766
23.824

a0
a1
a2

7.530
15.133
28.958

n
X
X^2

X
X^2
X^3

X^2
X^3
X^4

a0
a1
a2

Y
XY
YX^2

a0
a1
a2

0.382
-3.9969
3.3897

POLINOMIAL
Sr
St
r
r2
Sy/x

0.035
40.587
0.99957114
0.99914247
0.1319179

7.000
6.000
5.000
4.000

Axis Title

3.000
Series1

2.000

Linear (Series1)

1.000
0.000
0.000
-1.000

0.500

1.000

1.500

2.000

2.500

-2.000
-3.000

Axis Title

La covarianza
Cu(x)

S (y)

0.1

0.0

0.1

0.1

0.1

0.2

XXmed
0.6433
0.6433
-

YYmed
2.5944
2.5044
-

(X-Xmed)2

(Y-Ymed)2

XY

X2

lnx

lnx)2

lny

lnY lnX

xLnY

6.7308

(X-Xmed)(YYmed)
1.6690

0.4139

0.0010

0.0100

5.3019

0.4139

6.2719

1.6111

0.0100

0.0100

5.7810

1.5468

0.0200

0.0100

4.6052
2.3026
-

10.603
8
5.3019

0.4139

2.3026
2.3026
-

0.4605
0.2303
-

5.3019
5.3019

3.7059

0.1

0.2

0.1

0.2

0.1

0.2

0.1

0.2

0.4

0.3

0.1

0.3

0.1

0.3

0.1

0.3

0.1

0.3

0.7

0.4

2.4

0.4

0.4

0.4

0.1

0.4

0.1

0.5

0.2

0.5

0.1

0.6

0.6433
0.6433
0.6433
0.6433
0.6433
0.3433
0.6433
0.6433
0.6433
0.6433
0.0433
1.6567
0.3433
0.6433
0.6433
0.5433
-

2.4044
2.4044
2.4044
2.4044
2.4044
2.3044
2.3044
2.3044
2.3044
2.3044
2.2044
2.2044
2.2044
2.2044
2.1044
2.1044
-

0.4139

5.7810

1.5468

0.0200

0.0100

0.4139

5.7810

1.5468

0.0200

0.0100

0.4139

5.7810

1.5468

0.0200

0.0100

0.4139

5.7810

1.5468

0.0200

0.0100

0.1179

5.3101

0.7912

0.1200

0.1600

0.4139

5.3101

1.4825

0.0300

0.0100

0.4139

5.3101

1.4825

0.0300

0.0100

0.4139

5.3101

1.4825

0.0300

0.0100

0.4139

5.3101

1.4825

0.0300

0.0100

0.0019

4.8593

0.0955

0.2800

0.4900

2.7445

4.8593

-3.6519

0.9600

5.7600

0.1179

4.8593

0.7568

0.1600

0.1600

0.4139

4.8593

1.4181

0.0400

0.0100

0.4139

4.4284

1.3538

0.0500

0.0100

0.2952

4.4284

1.1434

0.1000

0.0400

0.4139

4.0175

1.2895

0.0600

0.0100

2.3026
2.3026
2.3026
2.3026
2.3026
0.9163
2.3026
2.3026
2.3026
2.3026
0.3567
0.8755
0.9163
2.3026
2.3026
1.6094
-

5.3019
5.3019
5.3019
5.3019
0.8396
5.3019
5.3019
5.3019
5.3019
0.1272
0.7664
0.8396
5.3019
5.3019
2.5903
5.3019

1.6094
1.6094
1.6094
1.6094
1.6094
1.2040
1.2040
1.2040
1.2040
1.2040
0.9163
0.9163
0.9163
0.9163
0.6931
0.6931
-

3.7059
3.7059
3.7059
3.7059
1.1032
2.7722
2.7722
2.7722
2.7722
0.3268
0.8022
0.8396
2.1098
1.5960
1.1156
1.1762

0.1609
0.1609
0.1609
0.1609
0.1609
0.4816
0.1204
0.1204
0.1204
0.1204
0.6414
2.1991
0.3665
0.0916
0.0693
0.1386
-

0.3

0.6

0.1

0.7

5.9

1.2

0.6433
0.4433
0.6433
5.1567

7.0

1.2

6.2567

1.3

1.3

0.5567

0.1

1.4

0.1

1.4

0.1

1.4

0.1

1.4

0.1

1.4

0.1

1.4

1.0

1.5

0.6433
0.6433
0.6433
0.6433
0.6433
0.6433
0.2567

0.3

1.5

1.5

1.6

0.1

1.6

0.1

1.6

0.4433
0.7367
0.6433
-

2.0044
2.0044
1.9044
1.4044
1.4044
1.3044
1.2044
1.2044
1.2044
1.2044
1.2044
1.2044
1.1044
1.1044
1.0044
1.0044
-

0.1965

4.0175

0.8886

0.1800

0.0900

0.4139

3.6266

1.2251

0.0700

0.0100

26.5912

1.9723

-7.2419

7.0800

39.1459

1.9723

-8.7867

8.4000

0.3099

1.7014

-0.7261

1.6900

34.810
0
49.000
0
1.6900

0.4139

1.4505

0.7748

0.1400

0.0100

0.4139

1.4505

0.7748

0.1400

0.0100

0.4139

1.4505

0.7748

0.1400

0.0100

0.4139

1.4505

0.7748

0.1400

0.0100

0.4139

1.4505

0.7748

0.1400

0.0100

0.4139

1.4505

0.7748

0.1400

0.0100

0.0659

1.2196

-0.2835

1.5000

1.0000

0.1965

1.2196

0.4896

0.4500

0.0900

0.5427

1.0088

-0.7399

2.3680

2.1904

0.4139

1.0088

0.6461

0.1600

0.0100

0.4139

1.0088

0.6461

0.1600

0.0100

2.3026
1.2040
2.3026
1.7750

3.1505

0.5108
0.5108
0.3567
0.1823

0.3236

0.0511
0.1532
0.0357
1.0757

1.9459

3.7866

0.1823

0.3548

1.2763

0.2624

0.0688

0.2624

0.0688

0.3411

2.3026
2.3026
2.3026
2.3026
2.3026
2.3026
0.0000

5.3019

0.3365

0.0336

5.3019

0.3365

5.3019

0.3365

5.3019

0.3365

5.3019

0.3365

5.3019

0.3365

0.0000

0.4055

0.7748
0.7748
0.7748
0.7748
0.7748
0.7748
0.0000

1.2040
0.3920

1.4496

0.4055

0.1216

0.1537

0.4700

0.4882
0.1843

2.3026
-

5.3019

0.4700

0.0470

5.3019

0.4700

1.0822
-

1.4496
5.3019

0.6150
0.8213

0.0336
0.0336
0.0336
0.0336
0.0336
0.4055

0.6956

0.0470

0.6433
0.6433
1.9567

0.1

1.6

2.7

2.4

0.1

2.9

0.1

3.6

0.7

3.8

0.2

6.0

1.4

7.6

0.6433
0.6433
0.0433
0.5433
0.6567

1.2
0.9

8.2
8.8

0.7

9.0

0.6

9.2

1.9

1.0044
1.0044
0.2044
0.2956

0.4139

1.0088

0.6461

0.1600

0.0100

3.8285

0.0418

-0.3999

6.4800

7.2900

0.4139

0.0874

-0.1902

0.2900

0.0100

0.9956

0.4139

0.9913

-0.6405

0.3600

0.0100

1.1956

0.0019

1.4295

-0.0518

2.6600

0.4900

3.3956

0.2952

11.5303

-1.8450

1.2000

0.0400

4.9956

0.4312

24.9563

3.2805

1.9600

0.4567
0.1567

5.5956
6.1956

0.2085
0.0245

31.3110
38.3858

2.5553
0.9706

10.640
0
9.8400
7.9200

6.3956

0.0019

40.9040

-0.2771

6.3000

0.4900

6.5956

0.0205

43.5023

-0.9454

5.5200

0.3600

16.6

0.0433
0.1433
1.1567

1.3379

195.8775

16.1883

1.4

18.3

0.6567

0.4312

246.3526

10.3068

35.68
00

125.
01

0.0000

13.995
6
15.695
6
0.0000

87.6683

764.6072

40.5049

31.540
0
25.620
0
133.42
90

0.743
3

2.60
44

0.0000

0.0000

1.8264

15.9293

0.8439

2.7798

2.3790

2.3026
2.3026
0.9933

5.3019

0.4700

0.9865

0.8755

2.3026
2.3026
0.3567
1.6094
0.3365

5.3019

1.0647

5.3019

1.2809

0.1272

1.3350

2.5903

1.7918

0.1132

2.0281

0.0332
0.0111

2.1041
2.1748

0.1272

2.1972

0.2609

2.2192

3.6100

0.1823
0.1054
0.3567
0.5108
0.6419

0.4120

1.9600

0.3365

114.19
04

61.271
7
1.2765

1.4400
0.8100

1.0822
1.0822
0.8696

0.0470
2.3638

2.4516
2.9495
0.4762
2.8837
0.6824

0.1065

2.5250
1.9573

2.8094

0.3836
0.2291
0.7837
1.1336
1.8032

0.1132

2.9069

0.9781

4.0697

157.84
61

0.7198

40.783
1

21.543
3

3.2885

0.0150

0.8496

0.4488

0.1281
0.9345
0.3584
2.8394

1.5381
1.3315
5.3379

CONTAR

48

COVARIANZA
MEDIA X
MEDIA Y
VARIANZA X
VARIANZA Y
MEDIA XY
MEDIA X2
STD X
STD Y
r

0.8438521 0.8439
0.7433333
2.604375
1.8264222
15.929316
2.7797708
2.3790
1.3514519
3.9911548
0.156447
0.0244757

a1

0.6244041

Cu
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.1000
0.2000
0.2000

S
0.0100
0.1000
0.2000
0.2000
0.2000
0.2000
0.2000
0.3000
0.3000
0.3000
0.3000
0.4000
0.5000
0.6000
0.7000
1.4000
1.4000
1.4000
1.4000
1.4000
1.4000
1.6000
1.6000
1.6000
2.9000
3.6000
0.5000
6.0000

0.3000
0.3000
0.4000
0.4000
0.6000
0.7000
0.7000
0.7000
0.9000
1.0000
1.2000
1.3000
1.4000
1.4000
1.4800
1.9000
2.4000
2.7000
5.9000
7.0000

0.6000
1.5000
0.3000
0.4000
9.2000
0.4000
3.8000
9.0000
8.8000
1.5000
8.2000
1.3000
7.6000
18.3000
1.6000
16.6000
0.4000
2.4000
1.2000
1.2000

RESULTADO
CONCLUSIONES

You might also like