• Tidak ada hasil yang ditemukan

Uji Statistika dan Ekonometrika

METODE PENELITIAN

3.3 Uji Statistika dan Ekonometrika

Uji statistik dan ekonometrika dilakukan untuk melihat hasil regresi yang didapatkan setelah melakukan pengujian-pengujian, apakah hasil regresi tersebut telah memenuhi asumsi-asumsi dalam uji statistik dan ekonometrika sehingga didapatkan model yang dikatakan baik.

Pertama, pengujian-pengujian yang dilakukan menggunakan uji statistik

terhadap model penduga melalui uji F dan pengujian untuk parameter-parameter regresi melalui uji t, serta pengujian koefisien determinasi R2 yang mengukur

seberapa besar variabel independen menjelaskan variabel dependennya (Supranto, 1983).

a. Uji t

Pengujian ditujukan untuk mengetahui tingkat signifikansi variabel bebas atau menguji secara statistik apakah regresi dari masing-masing variabel independen berpengaruh signifikan atau tidak terhadap variabel dependen. Hipotesis :

H0: b1= 0 atau b1= 0

Hipotesis ini berarti apakah suatu variabel independen bukan merupakan penjelas yang signifikan terhadap variabel dependen.

H1: b1 ≠ 0 atau b1≠ 0

Hipotesis alternatifnya, suatu variabel tidak sama dengan nol (H1: b1 ≠ 0), artinya

apakah suatu variabel independen merupakan penjelas yang signifikan terhadap variabel dependen.

Cara melakukan uji t adalah dengan membandingkan nilai t-hitung dengan nilai t-tabel pada taraf nyata (α) sebesar 0,05. Apabila hasilnya menunjukkan :

1. t-hitung ≥ t-tabel, maka H0 ditolak dan H1 diterima. 2. t-hitung ≤ t-tabel, maka H0 diterima dan H1 ditolak.

Pada aplikasi Eviews 6.0 yang digunakan peneliti, uji t dapat dilihat dari nilai masing-masing variabel independen dengan probabilitas tingkat kesalahan 0,05. Jika nilai probabilitas lebih kecil dari 0,05 maka variabel independen berpengaruh signifikan terhadap variabel dependen.

b. Uji F

Pengujian ini bertujuan untuk mengetahui apakah variabel independen secara serempak berpengaruh terhadap variabel dependen. Uji ini dilakukan dengan membandingkan nilai F-hitung dengan nilai F-tabel pada taraf nyata (α) sebesar 0,05. Uji F signifikan jika, F-hitung > F-tabel atau jika nilai probabilitas lebih kecil dari taraf nyata (α) 0,05. Tetapi jika nilai probabilitas lebih dari taraf nyata (α) 0,05 maka tidak signifikan berpengaruh pada variabel dependen.

c. Uji Koefisien Determinasi (R2)

Uji koefisien determinasi (R2) adalah parameter dalam menerangkan

besarnya daya pengaruh variabel independen terhadap variabel dependen pada model tersebut (Supranto, 1983). Nilai R2 berkisar antara 0 < R2 < 1. Semakin

besar R2 atau mendekati nilai 1, maka hubungan kedua variabel semakin kuat, dan model estimasi dapat dikatakan baik. Sedangkan R2 yang bernilai 0, atau

mendekati 0, berarti tidak ada hubungan antara variabel dependen dengan variabel independen.

Kedua, kriteria ekonometrika yaitu menyangkut pelanggaran asumsi

klasik dalam Ordinary Least Square (OLS) yaitu meliputi uji autokorelasi, uji heteroskedastisitas, uji multikolinearitas, dan uji normalitas. Jika asumsi tersebut telah dipenuhi maka akan memperoleh nilai parameter yang disebut, BLUE (Best

Linear Unbiased Estimator).

a. Uji autokorelasi

Uji autokorelasi bertujuan untuk menguji apakah hasil estimasi model tidak mengandung korelasi serial diantara disturbance term. Autokorelasi adalah tingkat hubungan linear antara pengamatan ke-t dengan pengamatan ke t + k, dimana k adalah selisih waktu (lag). Autokorelasi terjadi jika nilai error tidak

bersifat bebas antara yang satu dengan yang lainnya. Artinya terjadi korelasi antar error, sehingga model yang baik menghasilkan error yang acak dan tidak berpola. Akibatnya varian (keragaman) yang diperoleh under estimate. Untuk mendeteksi autokorelasi, dapat digunakan uji Durbin-Watson atau dengan melihat nilai Obs* R-squared pada Breusch-Godfrey Serial Correlation LM Test, jika nilai Obs*R-squared lebih besar dari taraf nyata yang digunakan (0,05) maka persamaan tidak memiliki autokorelasi. Hipotesis :

H0: ρ = 0

H1: ρ ≠ 0

Kriteria uji :

probability Obs*R-square < α, maka H0 ditolak

probability Obs*R-square > α, maka H0 diterima

Jika H0 ditolak maka terjadi autokorelasi (positif atau negatif) dalam

model. Sebaliknya jika H0diterima maka tidak ada autokorelasi dalam model.

b. Uji Heteroskedastisitas

Uji heteroskedastisitas merupakan suatu kondisi dimana nilai varian dari variabel eksogen tidak memiliki nilai yang sama. Untuk mengetahui ada tidaknya masalah heteroskedastisitas yaitu dengan melihat nilai Obs* R-squared, jika nilai

Obs*R-squared lebih besar dari taraf nyata yang digunakan, maka persamaan

tidak memiliki masalah heteroskedastisitas (Santoso, 1999).

Namun dengan adanya heteroskedastisitas, taksiran parameter berdasarkan Ordinary Least Square (OLS) akan tetap unbiased dan konsisten tetapi tidak efisien, artinya memiliki varians yang lebih besar dari varian yang minimum. Gejala adanya Heteroskedastisitas dapat ditunjukkan oleh probability

signifikansi uji glesjer untuk semua variabel independen lebih besar dari α (0,05). Atau jika chi square pada Obs*R-square lebih besar dari α, maka model regresi tidak terdapat gejala heteroskedastisitas. Jika chi square pada

Obs*R-square lebih kecil dari α, maka model regresi terdapat gejala heteroskedastisitas.

c. Uji Multikolinearitas

Multikolinearitas muncul apabila diantara masing-masing variabel independen saling berhubungan secara linear, artinya ada korelasi yang kuat pada sesama variabel independen. Uji Multikolinearitas dilakukan dengan melihat koefisien korelasi antar variabel independen yang terdapat pada matriks korelasi. Suatu model mengandung gejala multikolinearitas apabila nilai mutlak koefisien korelasi antar variabel independen lebih besar dari |0.8| (Gujarati, 1997).

Multikolinearitas muncul apabila di antara masing-masing variabel independen saling berhubungan secara linear. Jika hubungan itu sangat erat yaitu (r= 1), berarti terjadi multikolinearitas sempurna, yang berakibat tidak dapat ditentukannya koefisien dari variabel independen dan standar deviasi dari koefisien tersebut menjadi sangat besar. Jika dari hasil pengujian statistikanya didapatkan R

2

besar, F-test besar, dan t-test juga besar, berarti tidak terjadi multikolinearitas. Kalaupun terjadi, maka derajat multikolinearitasnya rendah.

d. Uji Normalitas

Uji normalitas digunakan untuk mengetahui apakah dalam suatu model, variabel independen dan variabel dependen terdistribusi secara normal atau tidak. Untuk mengetahui ada atau tidaknya asumsi normalitas adalah dengan melihat grafiknya. Apabila plot grafik menunjukkan pola penyebaran disekitar garis diagonal dan mengikuti arah garis diagonal, maka model regresi tersebut

memenuhi asumsi normalitas. Normalitas data dapat diuji dengan test Jarque-bera. Pada penelitian ini taraf nyata lima persen yang digunakan untuk menyatakan variabel tersebut normal. Hipotesis dalam uji normalitas adalah sebagai berikut :

H0 = data terdistribusi normal

H1 = data tidak terdistribusi normal

Syarat : probabilitas > 0,05 maka H0 diterima dan H1 ditolak

Model regresi lolos uji normalitas jika residual yang diperoleh dari model regresi terdistribusi normal. Cara melihatnya yaitu dengan melihat nilai probabilitas lebih besar dari taraf nyata lima persen maka dapat disimpulkan variabel tersebut terdistribusi secara normal.

47

BAB IV

Dokumen terkait