• Tidak ada hasil yang ditemukan

METODE PENELITIAN

4.6. Model dan Teknik Analisis Data

4.6.2. Pengujian Asumsi Klasik

Dalam suatu penelitian, kemungkinan munculnya masalah dalam analisis regresi cukup sering dalam mencocokkan model prediksi kedalam sebuah model yang telah dimasukkan ke dalam serangkaian data. Masalah ini sering disebut dengan pengujian normalitas, multikolinearitas, autokorelasi, dan heterokedasitas.

4.6.2.1. Uji normalitas

Uji normalitas data bertujuan untuk menguji apakah model regresi dalam penelitian, antara variabel dependen dengan variabel independen keduanya memiliki distribusi normal atau tidak. Untuk dapat dianalisis data harus berdistribusi normal atau mendekati normal. Cara mendeteksi normalitas adalah dengan pengamatan melalui nilai residual. Cara lain adalah dengan melihat distribusi dari variabel-variabel yang akan diteliti. Jika variabel-variabel tidak berdistribusi secara normal (menceng kekiri atau menceng kekanan) maka hasil uji statistik akan terdegradasi. Normalitas suatu variabel umumnya dideteksi dengan grafik atau uji statistik sedangkan normalitas nilai residual dideteksi dengan metode grafik. Secara statistik ada dua komponen normalitas yaitu skewness dan kurtosis. Skewness berhubungan dengan simetris distribusi. Skewed variabel (variabel menceng) adalah variabel yang nilai

mean-nya tidak di tengah-tengah distribusi. Sedangkan kurtosis berhubungan dengan

puncak dari suatu distribusi. Jika variabel terdistribusi secara normal maka nilai skewness dan kurtosis sama dengan nol (Ghozali dalam Pratisto, 2009: 27-28). Normalitas variabel dideteksi juga dengan menggunakan uji statistik Kolmogorov-Smirnov dengan cara melihat nilai probabilitas signifikan yang bernilai di atas nilai

0.05 maka data berdistribusi normal dan selain itu juga dengan metode grafik histogram data. Jika data tidak berdistribusi normal, maka dapat dilakukan transformasi agar menjadi normal. Untuk menormalkan data harus diketahui terlebih dahulu bagaimana bentuk grafik histogram dari data yang ada apakah moderate

positive skewness, subtansial positive skewness, severe positive skewness dengan

bentuk L dan sebagainya. Dengan mengetahui bentuk grafik histogram data, maka dapat ditentukan bentuk transformasinya. Berikut ini bentuk transformasi yang dapat dilakukan sesuai dengan grafik histogram.

Tabel 4.2. Bentuk Transformasi Data

Bentuk Grafik Histogram Bentuk Transformasi

Moderate Positive Skewness SQRT (x) atau akar kuadrat

Subtansial Positive Skewness LG10(x) atau logaritma 10 atau LN

Severe Positive Skewness dengan bentuk L 1/x atau inverse

Moderate negative skewness SQRT (k-x)

Subtansial Negative Skewness LG10 (k-x)

Severe Negative Skewness dengan bentuk L 1/(k-x)

Di mana k adalah konstanta yang berasal dari setiap skor dikurangkan sehingga skor terkecil adalah 1 (Ghozali dalam Pratisto, 2009: 32). Setelah dilakukan transformasi data maka, normalitas data dilihat kembali dengan menggunakan uji statistik Kolmogorov-Smirnov dan dilanjutkan dengan melihat metode grafik histogram data. Normalitas nilai residual dilihat dengan menggunakan metode grafik normalitas P-P Plot dengan aturan melihat sebaran data yang mengikuti garis diagonal maka data berdistribusi normal atau mendekati distribusi normal.

4.6.2.2. Uji autokorelasi

Pada asumsi OLS didapati kesepakatan bahwa persamaan regresi yang terbentuk tidak boleh ada autokorelasi. Uji autokorelasi merupakan korelasi antara anggota dalam runtut waktu (time series) atau antara space data cross section (Hakim, 2004: 253).

Cara mendeteksi adanya gejala autokorelasi adalah dengan melihat nilai Durbin-Watson. Asumsi penggunaan analisis DW ini jika digunakan untuk autokorelasi tingkat pertama dan model regresi yang ada mempunyai intercept

(constant) serta tidak terdapat variabel lagi. Penggambilan keputusan bila

menggunakan uji DW adalah sebagai berikut:

a. Nilai DW terletak di antara du dan 4-du maka autokorelasi sama dengan nol, dan dapat diartikan tidak ada autokorelasi. du < DW < 4-du.

b. Nilai DW terletak di bawah lower boud (dl), maka akan mempunyai koefisien korelasi lebih besar dari nol dan memiliki autokorelasi positif.

c. Nilai DW > (4-dl), maka koefisien korelasi kurang dari nol, sehingga memiliki autokorelasi negatif.

d. Nilai DW terletak di antara batas atas (du) dan batas bawah (dl) atau terletak antara (4-du) dan (4-dl) sehingga hasilnya tak dapat disimpulkan.

Cara untuk mengatasi autokorelasi adalah banyak cara salah satunya adalah dengan menggunakan metode Hidrent-Lu, yaitu jika menemukan autokorelasi yang positif atau negatif dari model yang ditelitinya maka dapat menggunakan ñ dimulai dari -0.9, -0.8,…, 0.8, 0.9. Untuk setiap nilai ñ yang di coba, dilakukan proses

transformasi yang diikuti dengan perhitungan regresi yang bersangkutan. Dari setiap hasil regresi kemudian diperoleh dan yang terbaik adalah melihat jumlah kuadrat yang terkecil (sum of square residuals) dari model regresinya (Arief, 2006: 44).

4.6.2.3. Uji multikolinearitas

Multikolinearitas merupakan fenomena situasi di mana ada korelasi antara variabel independen satu dengan yang lainnya. Konsekuensi praktis yang timbul sebagai akibat adanya multikolinearitas ini adalah kesalahan standar penaksir semakin besar dan probabilitas untuk menerima hipotesis yang salah semakin besar sehingga mengakibatkan diperolehnya kesimpulan yang salah. Dalam asumsi klasik OLS (ordinary least square) diterangkan bahwa tidak ada multikolinearitas yang sempurna antar variabel independen. Jika terdapat nilai korelasi di antara variabel independen adalah satu maka koefisiennya: (a) Koefisien untuk nilai-nilai regresi tidak dapat diperkirakan (b) Nilai standard error dari setiap koefisien regresi menjadi nilai yang tak terhingga (Arief, 2006: 23).

Cara mendeteksi adanya gejala multikolinearitas adalah dengan menggunakan metode Varian Inflation Factor (VIF). Adapun kriteria yang digunakan dalam pengujian metode VIF ini adalah jika VIFj > 10 terjadi multikolinearitas yang tinggi antara variabel independen dengan variabel independen lainnya (Hakim, 2004: 301).

Cara mengatasi multikolinearitas adalah: (a) Transformasi variabel. Jika terlihat pada model awal dengan adanya gejala multikolinieritas maka dapat dilakukan transformasi variabel yang bersangkutan ke dalam bentuk logaritma natural atau bentuk-bentuk transformasi lainnya, sehingga nilai t hitung yang dihasilkan

secara individu variabel independen dapat secara signifikan mempengaruhi variabel terkait, (b) Meningkatkan jumlah data sampel. Dengan adanya peningkatan jumlah data sampel diharapkan mampu menurunkan standard error disetiap variabel independen dan akan diperoleh model yang benar-benar bisa menaksir koefisien regresi secara tepat (Arief, 2006: 30-31).

4.6.2.4. Uji heterokedastisitas

Langkah ini bertujuan untuk menguji apakah di dalam model regresi yang kita miliki mengandung perbedaan variansi residu dari kasus pengamatan satu kasus ke kasus pengamatan yang lainnya. Jika variansi residu dari kasus pengamatan satu ke kasus pengamatan yang lainnya mempunyai nilai tetap maka disebut homokedastisitas dan jika mempunyai perbedaan maka disebut heteroskedastisitas. Model regresi yang baik adalah model regresi yang memiliki homoskedastisitas dan bukan memiliki heteroskedastisitas.

Cara untuk mendeteksi ada tidaknya heteroskedastisitas adalah dengan melihat grafik plot antara nilai residu variabel dependen (SRESID) dengan nilai prediksi (ZPRED) (Santoso, 2006: 251). Dasar analisisnya: (a) Jika ada pola tertentu, seperti titik-titik yang membentuk pola yang teratur (bergelombang, melebar kemudian menyempit), maka mengidentifikasikan telah terjadi heteroskedastisitas. (b) Jika tidak ada pola yang jelas, serta titik-titik menyebar di atas dan di bawah angka pada sumbu Y, maka tidak terjadi heteroskedastisitas.

Cara untuk mengatasi masalah heteroskedastisitas adalah: (a) Melakukan transformasi dalam bentuk membagikan model regresi asal dengan salah satu variabel

independen yang digunakan dalam model ini. (b) Melakukan transformasi log (Arief, 2006: 37).

Dokumen terkait