• Tidak ada hasil yang ditemukan

METODE PENELITIAN

3.8 Pengujian Asumsi Klasik

Pengujian asumsi klasik dimaksudkan untuk memastikan bahwa dalam model regresi yang digunakan tidak terdapat heterokedastisitas, autokorelasi, dan multikolinieritas serta untuk memastikan data yang dihasilkan memiliki distribusi normal. Metode OLS (Ordinary Least Square) digunakan berlandaskan pada sejumlah asumsi tertentu. Pada prinsipnya model regresi linier yang dibangun sebaiknya tidak boleh menyimpang dari asumsi BLUE (Best, Lininer, Unbiased dan Estimator) (Widarjono, 2013:23). Berikut penjelasan pengujian kelayakan model regresi yang digunakan dalam uji asumsi klasik :

3.8.1 Uji Normalitas

Uji normalitas digunakan untuk melihat apakah data yang digunakan memiliki distribusi normal sehingga dapat dipakai dalam stastistik parametrik (statistik inferensial). Uji normalitas terdapat dalam analisis regresi berganda untuk melihat nilai residual dalam sebuh model. Pendugaan persamaan dengan menggunakan metode OLS harus memenuhi sifat kenormalan, karena jika tidak normal dapat menyebabkan varians infinitif (ragam tidak hingga atau ragam yang sangat besar).

Hasil Pendugaan yang memiliki varians infinitif menyebabkan pendugaan dengan metode OLS akan menghasilkan nilai dugaan yang tidak berarti. Metode yang digunakan untuk menguji normalitas dalam penelitian ini adalah metode Jarque-Bera test dengan Eviews 7.2. Jarque-Bera test mempunyai distribusi chi-square dengan derajat bebas dua. Jika hasil Jarque-Bera test lebih besar dari nilai chi-square pada α = 5 persen, maka hipotesis nol ditolak yang

berarti tidak berdistribusi normal. Jika Jarque-Beratest lebih kecil dari chi-square pada α = 5 persen, maka hipotesis nol diterima yang berarti error term berdistribusi normal.

3.8.2 Uji Multikolinieritas

Uji multikolinieritas digunakan untuk menguji apakah dalam model regresi ditemukan adanya korelasi antar variabel bebas (independen). Variabel-variabel bebas tersebut dalam hal ini disebut Variabel-variabel-Variabel-variabel bebas orthogonal atau variabel bebas yang nilai korelasi diantara sesamanya sama dengan nol. Model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel independen.

Jika dalam model terdapat multikolinieritas maka model tersebut memiliki kesalahan standar yang besar sehingga koefisien tidak dapat ditaksir dengan ketepatan tinggi. Dampak yang diakibatkan dengan adanya multikolinieritas antara lain :

1. Nilai standart error untuk masing-masing koefisien menjadi tinggi, sehingga t hitung menjadi rendah.

2. Standart error of estimate akan semakin tinggi dengan bertambahnya variabel independen.

3. Pengaruh masing-masing variabel sulit dideteksi (Priyatno, 2013:59-60). Untuk mendeteksi ada tidaknya multikolinieritas dalam penelitian ini dilakukan tahapan pengujian melalui Eviews 7.2 dengan pendekatan korelasi parsial pada metode deteksi Klien yang mana nantinya akan memperbandingkan R2 dari regresi inti persamaan linier dengan R2 dari regresi korelasi antara

masing-masing variabel independen. Dengan ketentuan apabila R2 pada regresi inti lebih besar dari R2 regresi korelasi parsial masing-masing variabel independen maka tidak ditemukan adanya multikolinieritas. Dan sebaliknya, apabila R2 pada regresi inti lebih kecil dari R2 regresi korelasi parsial masing-masing variabel independen maka ditemukan adanya multikolinieritas.

3.8.3 Uji Heterokedastisitas

Heterokedastisitas adalah keadaan dimana terjadinya ketidaksamaan varian dari residual pada model regresi. Pada metode Park, varian variabel gangguan yang tidak konstan atau masalah heterokedastisitas muncul karena residual tersebut tergantung dari variabel independen yang ada di dalam model (Widarjono, 2013:116-119).

Sejalan dengan Park, ahli ekonometrika yang lain yakni Glejser mengatakan bahwa varian variabel gangguan tergantung dari variabel independen yang ada di dalam model dan menyarankan untuk melakukan regresi nilai absolut residual dengan variabel independennya. Uji ini bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan varian dari residual suatu pengamatan ke pengamatan yang lain. Heterokedastisitas terjadi apabila variabel gangguan tidak mempunyai varian yang sama untuk semua observasi.

Konsekuensi logis dari adanya heterokedastisitas ialah bahwa penaksir tetap tidak bias dan konsisten tetapi menjadi tidak efisien baik dalam sampel kecil maupun sampel besar. Terdapat beberapa metode untuk mengidentifikasi adanya heterokedastisitas, antara lain: metode grafik, metode Park, metode rank Spearman, metode Langrangian Multiflier ( LM test) dan white heteroscedasticity

test. Pada penelitian ini, uji heterokedastisitas dilakukan dengan menggunakan metode Glejserpada program eviews 7.2.

Persamaan dengan mengabsolutkan residual sebagai variabel dependen dalam persamaan linier permintaan impor bawang merah dala penelitian ini adalah:

| ẽt | = α0 + α1 X1t + α2 X2t+ α3 X3t+ α4 X4t+ α5 X5t+ α6 X6t + ⱱt

Kelemahan metode tersebut terletak pada kaitannya dengan residual ⱱ t yang kemungkinan tidak sesuai dengan asumsi metode OLS.

Namun metode tersebut baik untuk penelitian dengan sampel besar atau pada persamaan dengan variabel independen yang cukup banyak termasuk pada penelitian ini. Dasar analisis yang digunakan jika hasil regresi menunjukkan variabel independen signifikan secara statistik mempengaruhi variabel dependen, maka ada indikasi terjadi heterokedastisitas, dan demikian juga sebaliknya.

Hipotesis yang akan diuji adalah:

H0: secara keseluruhan variabel bebas dalam model tidak baik menyebabkan gejala heterokedastisitas (α : 5%).

H1: secara keseluruhan variabel bebas dalam model menyebabkan gejala

Heterokedastisitas (α : 5%). 3.8.4 Uji Autokorelasi

Menurut Priyatno (2013:61) “Autokorelasi didefinisikan sebagai kejadian dimana terjadinya korelasi dari residual untuk pengamatan satu dengan pengamatan yang lain yang disusun menurut runtun waktu”. Model regresi yang baik mensyaratkan tidak adanya masalah autokorelasi. Dampak yang diakibatkan

dengan adanya autokorelasi yaitu varian sampel tidak dapat menggambarkan varian populasinya. Untuk mendeteksi ada atau tidaknya autokorelasi dalam penelitian ini dilakukan dengan uji Durbin-Watson dengan langkah sebagai berikut:

1. Menentukan hipotesis nol dan hipotesis alternatif H0 : Tidak terjadi autokorelasi

Ha : Terjadi autokorelasi

2. Menentukan taraf signifikansi. Taraf signifikansi menggunakan 0,05

3. Menentukan nilai d (Durbin-Watson) yang didapat dari hasil regresi dengan menggunakan Eviews 7.2 .

4. Menentukan nilai dL dan dU pada penelitian ini yang dapat dilihat pada tabel Durbin-Watson . Pada signifikansi 0,05 , n = 11 dan k = 6 (n adalah jumlah data dan adalah jumlah variabel independen). Di dapat dL=0,203 dan dU=3,005. Jadi dapat dihitung 4-dU=0,995 dan 4-dL=3,797.

Pengambilan keputusan:

dU < DW < (4-dU) maka H0 diterima (tidak terjadi autokorelasi) DW < dL atau DW > (4-dL) maka H0 ditolak (terjadi autokorelasi)

dL ≤ dW ≤ dU atau (4-dU) ≤ DW ≤ (4- dL) maka ada keraguan dalam pengambilan kesimpulan.

Atau secara umum dapat disimpulkan dengan ketentuan apabila DW : Kurang dari 1,10 = Ada autokorelasi negatif

1,0 s/d 1,54 = Tanpa kesimpulan 1,55 s/d 2,46 = Tidak Ada autokorelasi

2,46 s/d 2,90 = Tanpa kesimpulan Lebih dari 2,91 = Ada autokorelasi positif

Dokumen terkait