• Tidak ada hasil yang ditemukan

BAB I PENDAHULUAN

F. Metode Analisis Data

1. Uji Asumsi Klasik

Pengujian data dilakukan dengan uji asumsi klasik yang meliputi :

a. Uji Normalitas

Menurut Erlina dan Mulyani (2007 : 103), ”uji ini berguna untuk tahap awal dalam metode pemilihan analisis data. Jika data normal, gunakan statistik parametrik dan jika data tidak normal gunakan statistik non parametrik atau lakukan treatment agar data normal.”

Menurut Ghozali (2005 : 110), ”uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal. Seperti diketahui bahwa uji t dan F mengasumsikan bahwa nilai residual mengikuti distribusi normal. Kalau asumsi ini dilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel kecil.”

Ada dua cara untuk mendeteksi apakah residual berdistribusi normal atau tidak menurut Ghozali (2005 : 110), yaitu :

1) Analisis grafik

Salah satu cara termudah untuk melihat normalitas residual adalah dengan melihat grafik histogram yang membandingkan antara data observasi dengan distribusi yang mendekati distribusi normal. Metode yang lebih handal adalah dengan melihat normal probability

plot yang membandingkan distribusi kumulatif dari distribusi

normal. Distribusi normal akan membentuk satu garis lurus diagonal dan plotnya data residual akan dibandingkan dengan garis diagonal. Jika distribusi data residual normal, maka garis yang menggambarkan data sesungguhnya akan mengikuti garis diagonalnya.

2) Analisis statistik

Uji statistik sederhana dapat dilakukan dengan melihat nilai kurtosis dan nilai Z-skewness. Uji statistik lain yang dapat digunakan untuk menguji normalitas residual adalah uji statistik non parametrik Kolmogorov-Smirnov (K-S).

Pedoman pengambilan keputusan tentang data tersebut mendekati atau merupakan distribusi normal berdasarkan uji Kolmogorov Smirnov dapat dilihat dari :

a) Nilai Sig. atau signifikan atau probabilitas < 0,05, maka distribusi data

adalah tidak normal.

b). Nilai Sig. atau signifikan atau probabilitas > 0,05, maka distribusi data adalah normal.

b. Uji Multikolinearitas

             Multikolinieritas adalah situasi adanya korelasi variabel-variabel independen antara yang satu dengan yang lainnya. Dalam hal ini kita sebut variabel-variabel bebas ini tidak ortogonal. Variabel-variabel bebas yang bersifat ortogonal adalah variabel bebas yang memiliki nilai korelasi diantara sesamanya sama dengan nol. Jika terjadi korelasi sempurna diantara sesama variabel bebas, maka konsekuensinya adalah: (1). Koefisien-koefisien regresi

menjadi tidak dapat ditaksir. (2). Nilai standar error setiap koefisien regresi

menjadi tak terhingga. Pengujian ini bermaksud untuk menguji apakah pada model regresi ditemukan adanya korelasi antar variabel independent. Jika terjadi korelasi, maka dinamakan terdapat problem multikolinieritas.

Pengujian multikolinearitas dilakukan dengan melihat nilai VIF dan korelasi diantara variabel independen. Jika nilai VIF lebih besar dari 10, maka terjadi multikolinearitas diantara variabel independent. Disamping itu, suatu

model dikatakan terdapat gejala multikolinearitas, jika korelasi diantara variabel independen lebih besar dari 0,1 (Ghozali, 2005 :92).

Ada dua cara yang dapat dilakukan jika terjadi multikolinieritas, yaitu :

a). Mengeluarkan salah satu variabel, misalnya variabel independent A dan B saling berkolerasi dengan kuat, maka bisa dipilih A atau B yang dikeluarkan dari model regresi.

b). Menggunakan metode lanjut seperti Regresi Bayesian atau Regresi Ridge.

c. Uji Heteroskedastisitas

Uji heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Jika variance dari residual satu pengamatan ke pengamatan lain tetap, maka disebut homoskedastisitas dan jika berbeda disebut heteroskesdatisitas. Model regresi yang baik adalah yang homoskedastisitas atau tidak terjadi heteroskesdatisitas. (Ghozali, 2005 : 105).

Menurut Ghozali (2005 : 105), ada beberapa cara untuk mendeteksi ada atau tidaknya heteroskesdatisitas :

Melihat grafik plot antara nilai prediksi variabel terikat (dependen) yaitu ZPRED dengan residualnya SRESID. Deteksi ada tidaknya heteroskesdatisitas dapat dilakukan dengan melihat ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan ZPRED dimana sumbu Y adalah Y yang telah diprediksi, dan sumbu X adalah residual (Y prediksi – Y sesungguhnya) yang telah di-studentized.

Dasar analisis :

a) Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola

tertentu yang teratur (bergelombang, melebar kemudian menyempit), maka mengindikasikan telah terjadi heteroskesdatisitas.

b) Jika tidak ada pola yang jelas, serta titik-titik menyebar di atas dan di

bawah angka 0 pada sumbu Y, maka tidak terjadi heteroskesdatisitas. Menurut Gujarati (1995) dalam Hadi (2006 : 172), “untuk mengetahui adanya masalah heteroskesdatisitas ini kita bisa menggunakan korelasi jenjang Spearman, tes Park, tes Goldfeld-Quandt, tes BPG, tes White atau tes

Glejser.” Bila menggunakan korelasi jenjang Spearman, maka kita harus menghitung nilai korelasi untuk setiap variabel independen terhadap nilai residu, baru kemudian dicari tingkat signifikansinya. Park dan Glejser test memiliki dasar test yang sama yaitu meregresikan kembali nilai residu ke variabel independen.

Menurut Hadi (2006 : 174), salah satu cara untuk mengurangi masalah heteroskesdatisitas adalah “menurunkan besarnya rentang (range) data. Salah satu cara yang bisa dilakukan untuk menurunkan rentang data adalah melakukan transformasi (manipulasi) logaritma. Tindakan ini bisa dilakukan bila semua data bertanda positif.”

d. Uji Autokorelasi

Masalah autokorelasi akan muncul bila data yang dipakai adalah data

runtut waktu (timeseries). “Autokorelasi akan muncul bila data sesudahnya

merupakan fungsi dari data sebelumnya atau data sesudahnya memiliki korelasi yang tinggi dengan data sebelumnya pada data runtut waktu dan besaran data sangat tergantung pada tempat data tersebut terjadi.”(Hadi, 2006 : 175).

Untuk mendeteksi adanya autokorelasi bisa digunakan tes Durbin Watson (DW). Deteksi autokorelasi dengan cara ini dimulai dengan menghitung nilai d, setelah nilai d diketemukan maka tahapan berikutnya adalah menentukan nilai du dan dl dengan menggunakan tabel Durbin Watson.

Ketentuan :

d < dl Terdapat autokorelasi positif

d > 4-dl Terdapat autokorelasi negatif

dl < d < du Tidak ada keputusan tentang autokorelasi

4-du < d < 4-dl Tidak ada keputusan tentang autokorelasi

(Hadi, 2006 : 176)

“Salah satu cara untuk mengatasi adanya masalah autokorelasi (bila ada) adalah dengan cara menambahkan satu variabel baru, yaitu variable lag -1.” (Hadi, 2006 : 176).

Dokumen terkait