You are on page 1of 11

PENYELESAIAN MULTIKOLINEARITAS DENGAN METODE FORWARD SELECTION PADA DATA PENGGUNAAN AIR SUATU PERUSAHAAN

MAKALAH Untuk memenuhi tugas matakuliah Analisis Regresi Yang dibimbing oleh Bapak Drs. Hendro Permadi

Oleh : Fajar Prabowo Senja Putri Merona Bunga S Bintari Rizka Rahmawati Dewi Asrining Puri 907312410070 308312410089 308312410091 308312410095 308312410096

UNIVERSITAS NEGERI MALANG FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM JURUSAN MATEMATIKA Desember 2010

BAB I PENDAHULUAN

A. Latar belakang Air merupakan salah satu sumber daya alam yang sangat dibutuhkan oleh manusia. Dalam kehidupannya, manusia tak lepas dari penggunaan air. Begitu juga dalam kegiatan produksi suatu perusahaan. Salah satu biaya yang tinggi berasal dari penggunaan air untuk fasilitas produksi setiap bulannya. Suatu contoh seorang insinyur diberi tugas untuk menurunkan biaya penggunaan air. Ia meneliti faktor-faktor yang mempengaruhi penggunaan air di perusahaannya. Faktor-faktor tersebut adalah suhu bulan rata-rata (0F), jumlah produksi (M pound), banyaknya hari kerja per bulan, dan banyaknya karyawan. Pada data ini kita akan memilih faktor yang paling mempengaruhi penggunaan air dalam perusahaan tersebut. Kita akan menggunakan metode forward selection untuk menyelesaikannya sehingga diperoleh model terbaik. Pada data ini kita akan menyelidiki adanya kasus multikolinieritas dimana variabel-variabel bebasnya saling berkorelasi antar sesamanya.

B. Rumusan masalah Berdasarkan latar belakang masalah, maka rumusan masalahnya sebagai berikut: 1. Bagaimana cara mengidentifikasi adanya multikolinearitas? 2. Bagaimana cara mengatasi multikolinearitas dengan metode forward selection?

C. Tujuan Berdasarkan rumusan masalah, maka tujuannya sebagai berikut: 1. Mengetahui cara mengidentifikasi adanya multikolinearitas. 2. Mengetahui cara mengatasi multikolinearitas dengan metode forward selection.

BAB II LANDASAN TEORI

A. Analisis Regresi Linear Berganda Analisis regresi linier berganda merupakan bentuk umum, sedangkan regresi linier sederhana merupakan bentuk khusus dari regresi linier berganda yaitu apabila satu peubah bebas yang dilibatkannya. Dengan regresi linier berganda persamaan dalam X memberikan prediksi yang terbaik terhadap Y. Model regresi linier berbentuk Y=0+ 1X1+ 2X2++kXk+ Dengan Xi, i = 1,2,,k merupakan peubah bebas dan i, i=1,2,,k parameter regresi, dan sebagai error. Dan sebarang model yang tidak berbentuk seperti persamaan di atas disebut model tak linier. Jika pada suatu model regresi tersebut terdapat satu peubah bebas , maka model itu disebut regresi linier sederhana. Sedangkan jika terdapat lebih dari satu peubah bebas, maka model itu disebut regresi linier berganda. Dalam melakukan analisis harus diperhatikan beberapa asumsi yang mendasarinya: 1. Nilai harapan bersyarat galat yang disebabkan oleh peubah bebas X yang harus sama dengan nol. 2. 3. Setiap galat yang disebabkan peubah bebas mempunyai varian yang sama. Tidak ada multikolinieritas yang berarti tidak ada hubungan linier antara peubah bebas. Drapper n Smith (1992), menyatakan beberapa kriteria yang digunakan untuk melihat tepat tidaknya model regresi yang diperoleh, salah satunya yaitu dengan melihat koefisien determinasi berganda (Rk2). Sebuah masalah penting dalam penerapan analisis regresi linier berganda adalah pemilihan peubah peubah bebas yang dapat digunakan dalam model agar diperoleh persamaan regresi terbaik yang mengandung sebagian atau seluruh peubah bebas.

B. Multikolinieritas Multikolinieritas ditemukan oleh Ragner Frisch yang berarti adanya hubungan linier yang sempurna atau pasti diantara beberapa atau semua variabel yang menjelaskan (X1, X2,,Xk) dari model regresi.

Akibat terjadinya multikolinieritas antara lain: 1) 2) Nilai koefisien regresi berganda bias. Terjadi perubahan tanda pada koefisien regresi berganda seharusnya positif menjadi negatif. Untuk mendeteksi adanya multikolinieritas digunakan beberapa metode yaitu: 1) Koefisien korelasi antara peubah bebas. Adanya multikolinieritas seringkali diduga apabila nilai R2 cukup besar (antara 0,7 dan 1). 2) Dengan melihat elemen matrik korelasi. Jika korelasi antar variable bebas lebih besar daripada korelasi antara variabel bebas dan variabel terikatnya menandakan adanya multikolinearitas pada variable bebasnya. 3) VIF (Variance Inflation Factor ) Jika nilai VIF lebih besar atau sama dengan 10, menandakan adanya multikolinieritas pada variabel bebas.

BAB III PEMBAHASAN

Berikut adalah data mengenai faktor-faktor yang memepengaruhi penggunaan air untuk fasilitas produksi setiap bulan pada suatu perusahaan No 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Keterangan: Y : Penggunaan air untuk fasilitas produksi setiap bulan X1 : suhu bulanan rata-rata(F) X2 : jumlah produksi X3 : banyaknya hari kerja dalam bulan X4 : banyaknya orang yang tercantumdalam daftar gaji Y 3067 2828 2891 2994 3082 3898 3502 3060 3211 3286 3542 3125 3022 2922 3950 4488 3295 X1 58,8 65,2 70,9 77,4 79,3 81,0 71,9 63,9 54,5 39,5 44,5 43,6 56,0 64,7 73,0 78,9 79,4 X2 7107 6373 6796 9208 14792 14564 11964 13526 12656 14119 16691 14571 13619 14575 14556 18573 15618 X3 21 22 22 20 25 23 20 23 20 20 22 19 22 22 21 21 22 X4 129 141 153 166 193 189 175 186 190 187 195 206 198 192 191 200 200

Analisis Regresi Linier Berganda Data diolah dengan bantuan minitab, diperoleh korelasi antara variabel terikat Y dengan variabel bebas X sebagai berikut: Correlations: Y, X1, X2, X3, X4 X1 X2 X3 X4 Y 0.286 0.266 0.631 0.007 -0.089 0.735 0.413 0.099 X1 X2 X3

-0.024 0.927 0.438 0.079 -0.082 0.754 0.106 0.686 0.918 0.000 0.032 0.903

Cell Contents: Pearson correlation P-Value Dari Minitab kita dapatkan persamaan regresi Y = 6360 + 13.9 X1 + 0.212 X2 - 127 X3 - 21.8 X4 Perhatikan korelasi variabel X4 dan Y bernilai positif, sedangkan dalam persamaan regresi variabel X4 bernilai negatif. Dari sini kita menyimpulkan adanya kasus multikolinieritas. Dari analisis korelasi, kita ketahui bahwa harga mutlak nilai korelasi antara X3 dan Y lebih kecil daripada korelasi antara X3 dan X2, begitu pula dengan korelasi antara X1 dengan Y lebih kecil daripada korelasi antara X1 dengan X3. Hal ini menunjukkan bahwa X3 mempengaruhi X2 dan X1 mempengaruhi X3. Dari korelasi antara variabel X dan Y kita dapat menduga hubungan antar variabel sebagai berikut:

X2 X4

X3

X1

Metode forward selection merupakan salah satu cara dalam menyelesaikan masalah multikolinieritas. Dengan menganalisis persamaan regresinya melalui minitab, kita perlu melakukan uji parsial koefisien regresi dan uji ANOVA
Uji Parsial

Predictor Constant X1 X2 X3 X4 S = 248.964

Coef 6360 13.869 0.21170 -126.69 -21.818

SE Coef 1314 5.160 0.04554 48.02 7.285

T 4.84 2.69 4.65 -2.64 -3.00

P 0.000 0.020 0.001 0.022 0.011

R-Sq = 76.7%

R-Sq(adj) = 68.9%

H0 : i = 0 , untuk i = 1,2,3,4 H1 : i 0 Karena Thitung untuk variabel X1, X2, X3 , dan X4 lebih besar dari pada T tabel maka tolak H0 terima H1. Kita simpulkan i 0.

Uji ANOVA

Analysis of Variance Source Regression Residual Error Total Source X1 X2 X3 X4 DF 1 1 1 1 DF 4 12 16 SS 2448834 743798 3192632 MS 612209 61983 F 9.88 P 0.001

Seq SS 260702 1298824 333276 556032

H0 : regresi berganda tidak berarti H1 : regresi berganda berarti Fhitung = 9.88. Ftabel = 0.53. karena Fhitung lebih besar daripada Ftabel , maka tolak H0. Sehingga kita dapat menyimpulkan bahwa variabel X mempengaruhi variabel Y secara serentak.

Stepwise Regression: Y versus X1, X2, X3, X4

Forward selection.

Alpha-to-Enter: 0.25

Response is Y on 4 predictors, with N = 17 Step Constant X2 T-Value P-Value X4 T-Value P-Value X1 T-Value P-Value X3 T-Value P-Value S R-Sq R-Sq(adj) Mallows C-p PRESS R-Sq(pred) 358 39.78 35.77 18.0 2522415 20.99 312 57.42 51.34 10.9 2061524 35.43 301 63.19 54.70 10.0 1819283 43.02 1 2273 0.080 3.15 0.007 2 4601 0.203 3.64 0.003 -21.6 -2.41 0.030 3 3866 0.193 3.56 0.004 -19.7 -2.25 0.042 8.0 1.43 0.177 4 6360 0.212 4.65 0.001 -21.8 -3.00 0.011 13.9 2.69 0.020 -127 -2.64 0.022 249 76.70 68.94 5.0 1285238 59.74

Dari SPSS kita peroleh,

Dengan minitab dan SPSS kita ketahui bahwa variabel X yang masuk dalam model regresi adalah X2 dan X4.yaitu jumlah produksi dan banyaknya karyawan.

BAB IV PENUTUP

Kesimpulan Berdasarkan hasil pembahasan dapat disimpulkan sebagai berikut: 1. Dari data penggunaan air pada suatu perusahaan, didapat persamaan regresi sebagai berikut : Y = 6360 + 13.9 X1 + 0.212 X2 - 127 X3 - 21.8 X4 2. Terjadi kasus multikolinieritas pada data penggunaan air. 3. Dengan metode forward selection, diperoleh bahwa jumlah produksi dan banyaknya karyawan paling mempengaruhi penggunaan air pada suatu perusahaan.

Daftar Pustaka

Permadi, Hendro.1999.Teknik Analisis Regresi.Universitas Negeri Malang:JICA. Draper, Norman & Smith,H.1992. Analisis Regresi terapan. Gramedia Pustaka Utama: Jakarta.

DAFTAR PUSTAKA
Drapper N. and Smith H. 1992. Analisis Regresi Terapan. Penerbit Gramedia Pustaka Utama, Jakarta. Permadi, Hendro. 1999. Teknik Analisis Regresi. Universitas Negeri Malang: JICA. Susiswo. 2002. Analisis Regresi dan Aplikasinya Disertai dengan Penerapannya pada Minitab 12. Universitas Negeri Malang: JICA.

You might also like