You are on page 1of 4

1.

Uji Multicollinearity

Multicollinearity merupakan suatu keadaan dimana terjadinya


satu atau lebih variabel bebas yang berkorelasi sempurna atau
mendekati sempurna dengan variabel bebas lainnya.
Salah satu cara untuk mendeteksi ada tidaknya gejala
multicollinearity bisa dilihat dari Variance Inflation Factor (VIF)
dari masing-masing variabel bebas terhadap variabel terikat
(William dan Douglas, 1991).
Apabila nilai VIF tidak melebihi 4 atau 5, maka
mengindikasikan bahwa dalam model tidak terdapat
multicollinearitas.

Jika nonmulticollinearity tidak terpenuhi atau dengan kata


lain terjadi multicollinearity yang tinggi akan menyebabkan:
1. Standard error koefisien parameter yang dihasilkan akan
meningkat bila terjadi peningkatan collinearity diantara
variabel bebas.
2. Oleh karena adanya kondisi pada poin 1 akan menyebabkan
confidence interval dari parameter yang diduga akan
semakin melebar.
3. Confidence interval yang semakin melebar menyebabkan
probabilitas menerima hipotesis yang salah semakin besar.
4. Standard error sangat sensitif terhadap perubahan data
walaupun sangat kecil.
2. Uji Gejala Autokorelasi
Gejala Autokorelasi timbul sebagai akibat adanya korelasi
antara anggota serangkaian observasi yang diurutkan menurut
waktu (seperti dalam data deretan waktu) atau ruang (seperti data
dalam cross sectional). Hal ini berarti bahwa data yang tidak
diurutkan (order) tidak perlu diuji Autokorelasinya. Melalui studi
pendahuluan diketahui bahwa dengan beberapa trial and error
untuk mengacak urutan data, diketahui bahwa nilai Durbin
Watson Statistik (d ) menunjukkan nilai yang tidak konsisten
(berubah-ubah), sementara nilai-nilai lain dalam hasil regresi tidak
mengalami perubahan sedikitpun.
Untuk mengetahui ada tidaknya gejala autoregresi dalam
model analisis regresi yang digunakan, maka cara yang digunakan
dengan melakukan pengujian serial korelasi dengan menggunakan
metode Durbin Watson. Kriteria untuk mendeteksi autokorelasi
menurut Santoso (2000) adalah sebagai berikut:
Angka D W dibawah 2 berarti ada autokorelasi
negatif.
Angka D W diantara 2 sampai +2, berarti tidak ada
autokorelasi.
Angka D W diatas + 2 berarti ada autokorelasi positif.
Atau
2 < D.W < (4 D.W.upper ) berarti tidak autokorelasi atau
D.W.upper > D.W. > 2 berarti tidak terjadi autokorelasi

Jika asumsi nonautokorelasi tidak terpenuhi maka akan terjadi


autokorelasi, dalam kondisi ini akan menyebabkan:
1. Semakin melebarnya confidence interval sehingga uji
signifikan menjadi tidak akurat.
2. Adanya underestimated dari varians dan standard error dari
residual.
3. Hasil uji t dan uji F menjadi tidak valid sehingga dapat
menghasilkan kesimpulan yang bias.
4. Estimator regresi menjadi sangat peka bila terdapat sampel
yang berfluktuasi.
3. Uji Heteroskedastisitas
Heteroskedastisitas merupakan suatu keadaan yang masing-
masing kesalahan pengganggu mempunyai varian yang berlainan.
Uji ini dilakukan untuk menguji apakah varian dari kesalahan
pengganggu tidak konstan untuk semua nilai variabel bebas. Cara
untuk mendeteksi gejala ini antara lain dengan menggunakan uji
rank korelasi (rs) dari Spearman yang diformulasikan sebagai
berikut (Gujarati, 1995) :

[ di2 ]
rs = 1 -----------
n(n2 1)
Dimana :
d = Selisih rank (ei) dengan rank xi
n = Jumlah pengamatan

Gejala ini dapat diketahui dengan membandingkan t hitung dan t tabel

dimana
t hitung dicari dengan rumus berikut :

rs n - 2
t = -------------
1 rs2

Apabila hasil perbandingan t hitung dan t tabel (df = N-2) menunjukkan


t hitung lebih besar atau lebih kecil minus t tabel berarti Ho ditolak dan
Ha diterima.
Jika terjadi nonheteroskedastisitas tidak terpenuhi, maka akan
timbul heteroskedastisitas yang akan menyebabkan:
1. Varian koefisien parameter menjadi tidak minus.
2. Confidence interval menjadi semakin lebar, sehingga uji
signifikansi menjadi tidak akurat.
3. Adanya kesalahan dalam mengambil kesimpulan, karena uji
parsial dan simultan tidak menunjukkan adanya kebenaran
signifikansi.
4. Uji Normalitas
Tujuan dari uji normalitas adalah menguji apakah dalam
sebuah model regresi, variabel dependent, variabel independent
atau keduanya mempunyai distribusi normal ataukah tidak. Model
regresi yang baik adalah distribusi data normal atau mendekati
normal (Santoso, 2001). Untuk mengetahui normal tidaknya
distribusi dari data dapat dideteksi dengan melihat penyebaran
data (titik) pada sumbu diagonal dari grafik (Santoso, 2001). Dasar
pengambilan keputusan.
Jika data menyebar di sekitar garis diagonal dan mengikuti
arah garis diagonal, maka model regresi memenuhi asumsi
normalitas.
Jika data menyebar jauh dari garis diagonal dan/atau tidak
mengikuti arah garis diagonal, maka model regresi tidak
memenuhi asumsi normalitas.

You might also like