Professional Documents
Culture Documents
Regresi data panel dapat dilakukan dengan aplikasi STATA dan caranya mudah
sekali. Dalam artikel ini kita akan coba mempelajari tutorialnya. Tentunya agar anda
dapat dengan mudah memahaminya, maka pelajari dulu artikel kami tentang
Regresi Data Panel.
Dalam tutorial ini kita asumsikan akan melakukan uji regresi data panel dengan 3
variabel bebas, yaitu x1, x2 dan x3 serta 1 variabel terikat yaitu y. Di mana
melibatkan 50 subject atau yang disebut dengan panel dan masing-masing subject
mempunyai data runtut waktu selama 10 tahun (per tahun). Jadi bila kita hitung
maka 50 x 10 = 500 observasi.
Silahkan buka aplikasi STATA anda dan kemudian isi data editor sesuai contoh di
bawah ini atau anda bisa langsung download file kerja tutorial ini DI SINI.
Perintah (command) di atas bertujuan untuk membentuk atau declare dataset panel
data time series agar pengujian data panel dapat dilakukan. Hasilnya adalah
sebagai berikut:
Fixed Effect
Selanjutnya lakukan uji regresi data panel Random Effect Model (RE), yaitu:
. xtreg y x1 x2 x3
Perhatikan command di atas:
xtreg: perintah fixed atau random effect
Tanpa adanya options memilih fixed effect, maka secara default pilihan uji adalah
random effect
y: Variabel terikat
x1: Variabel bebas x1
x2: Variabel bebas x3
x3: Variabel bebas x3
Lihat outputnya!
Random Effect
Untuk membandingkan ketiga hasil di atas, terlebih dulu menyimpan hasil regresi
masing-masing metode dengan command : . estimates store (nama)
Caranya pada kotak command ketikkan lalu enter:
. estimates store fe
. estimates store re
. estimates store ols
. estimates table fe re ols, star stats(N r2 r2_a)
Perhatikan command di atas:
estimates: perintah melakukan estimasi
store: menyimpan data
fe: fixed effect
re: random effects
ols: ordinary least square
estimates table fe re ols, star stats(N r2 r2_a): memunculkan table yang berisi data
hasil uji t parsial fixed effects, random effects dan PLS.
Star berarti memberi tanda bintang bagi yang menerima H1
stats(N r2 r2_a) berarti memunculkan jumlah sampel, nilai r square dan adjusted r
square
Estimate Output
Maka akan muncul variabel baru pada data editor, yaitu secara berurutan
variabel: _est_ols, _est_fe dan _est_re.
Estimate Dataset
Kemudian interprestasikan dan ambil kesimpulan sesuai Diagram Pilihan Metode
Estimasi pada artikel sebelumnya. Caranya adalah sebagai berikut:
Chow Test
Chow Test, untuk menentukan pilihan antara PLS dan FE. Maka lihat output FE!
Chow Test
(Lihat pada tanda panah merah!) Karena P Value (Prob>F) < Alpha 0,05 maka
H1 diterima yang artinya pilihan yang terbaik adalah FE.
Hausman Test
Karena pilihan jatuh pada FE, maka selanjutnya kita tentukan apakah lebih baik FE
atau RE. Caranya adalah melalui Hausman Test, yaitu ketikkan command dan enter:
. quietly xtreg y x1 x2 x3, fe
. estimates store fe
. quietly xtreg y x1 x2 x3, re
. estimates store re
. hausman fe re
Perhatikan command di atas:
6
y: Variabel terikat
x1: Variabel bebas x1
x2: Variabel bebas x3
x3: Variabel bebas x3
Hausman Test
(Lihat pada tanda panah merah!) Karena P Value (Prob>Chi2)<Alpha 0,05 maka
H1 diterima atau yang berarti pilihan terbaik adalah FE dari pada RE.
Lagrange Multiplier Test
Bagaimana seandainya pada Chow Test pilihan terbaik adalah PLS atau pada
Hausman Test ternyata pilihan terbaik adalah RE? Maka kita harus melanjutkan ke
tahap berikutnya untuk menentukan pilihan terbaik apakah PLS atau RE, yaitu
dengan uji Lagrange Multiplier Test. Caranya ketikkan command dan enter:
. xtreg y x1 x2 x3, re
. xttest0
Perhatikan command di atas:
xtreg dengan options re: perintah random effects
y: Variabel terikat
x1: Variabel bebas x1
x2: Variabel bebas x3
x3: Variabel bebas x3
xttest0: perintah Lagrange Multiplier Test
10
masalah
heteroskedastisitas
apabila
nilai
apabila
nilai
masalah
heteroskedastisitas
11
Pada pembahasan kali ini adalah melanjutkan kedua artikel di atas, yaitu
bagaimana menginterprestasikan asumsi klasik pada regresi linear dengan
menggunakan aplikasi STATA.
Sedikit review: Asumsi klasik yang akan kita uji antara lain uji normalitas,
heteroskedastisitas dan multikolinearitas.
Normalitas
Ingat bahwa asumsi normalitas pada regresi linear adalah pada residualnya.
Residual adalah beda antara Y dan Y Prediksi. Sedangkan Y Prediksi adalah
Nilai Y atau variabel dependen yang diperkirakan berdasarkan persamaan
regresi yang didapat.
Lihat nilai Prob>Z pada shapiro-wilk w test for Normal data. Apabila
nilainya lebih dari 0,05 maka residual berdistribusi normal. Di atas
nilainya 0,65937 maka residual berdistribusi normal. Sehingga
berdasarkan uji Shapiro Wilk, residual dinyatakan berdistribusi normal.
Lihat nilai Prob>Z pada shapiro-Francia w test for Normal data. Apabila
nilainya lebih dari 0,05 maka residual berdistribusi normal. Di atas
nilainya 0,88523 maka residual berdistribusi normal. Sehingga
berdasarkan uji Shapiro Wilk, residual dinyatakan berdistribusi normal.
Mengapa ada 3 jenis uji? seharusnya 1 uji saja sudah cukup. Pilihannya
adalah bila jumlah sample atau observasi kecil < 50 sebaiknya
menggunakan Shapiro-Wilk atau Shapiro-Francia. Sedangkan untuk
sampel besar > 5.000, lebih baik menggunakan skewness kurtosis.
Shapiro Wilk valid hanya sampai 1000 observasi sedangkan Shapiro
Francia hingga 5000.
Berikut di bawah ini juga dilampirkan hasil uji dengan metode grafik
Histogram.
Dinyatakan berdistribusi normal apabila diagram menyerupai "Bel/Lonceng"
menghadap ke atas.
13
Heteroskedastisitas
Uji regresi linear harus mempunyai sifat homoskedastisitas. Untuk uji
heteroskedastisitas banyak metode, tetapi dalam hal ini kita menggunakan
metode Breusch-Pagan. Dikatakan tidak terjadi gejala heteroskedastisitas
apabila nilai P value yang ditunjukkan dengan "Prob > chi2" nilainya > 0,05.
Di atas nilai p value sebesar 0,7451 di mana > 0,05 maka model regresi
bebas dari gejala heteroskedastisitas atau disebut juga bersifat
homoskedastisitas.
Berikut juga dilampirkan hasil uji dengan metode grafik scatter antara fitted
value dan residual. Apabila plot menyebar merata di atas dan di bawah
sumbu 0 dan tidak membentuk sebuah pola tertentu, maka dinyatakan tidak
ada gejala heteroskedastisitas.
14
Pada Diagram di atas, plot menyebar merata di atas dan di bawah sumbu 0
dan tidak membentuk sebuah pola tertentu, maka dinyatakan tidak ada
gejala heteroskedastisitas. Untuk menambah wawasan sebaiknya anda baca
artikel kami yang berjudul Uji Heteroskedastisitas.
Multikolinearitas
Multikolinearitas bisa diartikan dengan mudah yaitu terdapat korelasi kuat
antar variabel independen. Model regresi yang bagus harus bebas dari gejala
multikolinearitas. Karena multikolinearitas adalah korelasi antar variabel
independen, maka asumsi ini hanya berlaku pada uji regresi linear berganda
di mana terdapat lebih dari satu variabel independen.
Lihat nilai VIF dan 1/VIF di atas, apabila VIF < 10 dan 1/VIF > 0,1 maka dapat
dikatakan
bahwa
model
regresi
linear
berganda
bebas
gejala
multikolinearitas. Nilai 1/VIF bisa disebut juga dengan istilah "Tolerance".
Apabila anda menggunakan aplikasi SPSS maka istilah Tolerance yang
digunakan.
Demikianlah serangkaian tutorial dan penjelasan tentang uji regresi linear
dengan menggunakan aplikasi STATA.
15