BAB IV ANALISIS HASIL PENELITIAN
2. Uji Asumsi Klasik
Budi (2005:231) memberikan pengertian terhadap pengujian normalitas sebagai pengujian tentang kenormalan distribusi data. Penggunaan uji normalitas adalah kerena pada analisis statistik parametrik, asumsi yang harus dimiliki oleh data bahwa data tersebut terdistribusi secara normal.Data yang mempunyai distribusi yang normal berarti mempunyai sebaran yang normal pula.Dengan profil data semacam ini maka data tersebut dianggap bisa mewakili populasi. Uji normalitas dalam penelitian ini dilakukan dengan menggunakan uji Kolomogrov-Smirnov, dimana apabila nilai Sig. atau Signifikan atau probabilitas <0,05, maka distribusi data adalah tidak normal. Selain itu, kita juga akan melihat grafik histogram dam grafik PP Plots dari data yang dimaksud untuk menguji kenormalan data. Apabila data terdistribusi tidak normal, maka akan dilakukan
treatment agar data normal.
2.2 Multikolineritas
Santoso (2002:203) menyatakan bahwa:
Multikolinearitas adalah situasi adanya korelasi variabel-variabel
independen antara yang satu dengan yang lainnya. Dalam hal ini kita sebut
variabel-variabel bebas ini tidak ortogonal. Variabel-variabel bebas yang
bersifat ortogonal adalah variabel bebas yang memiliki nilai korelasi diantara
sesamanya sama dengan nol. Jika terjadi korelasi sempurna diantara variabel
dapat ditaksir; (2) nilai standar error setiap koefesien regresi menjadi tak
terhingga. Pengujian ini bermaksud untuk menguji apakah model regresi
ditemukan adanya korelasi antar variabel independen. Jika terjadi korelasi, maka
dinamakan terdapat problem multikolinearitas.
Uji multikolineritas diperlukan untuk mengetahui ada tidaknya variabel independen yang memiliki kemiripan dengan variabel independen lain dalam satu model. Kemiripan antar variabel independen dalam suatu model akan menyebabkan terjadinya korelasi yang sangat kuat antara suatu variabel independen dengan variabel independen lain. Selain itu, deteksi terhadap multikolineritas juga bertujuan untuk menghindari kebiasaan dalam proses pengambilan kesimpulan mengenai pengaruh pada uji parsial masing-masing variabel independen terhadap variabel dependen.
Deteksi Multikolineritas pada suatu model dapat dilihat dari beberapa hal,antara lain :
a. Jika nilai Variace Inflation Factor (VIF) tidak lebih dari 10 dan nilai tolerance tidak kurang dari 0.1, maka model dapat dikatakan terbebas dari multikolineritas VIF = 1/ Tolerance, jika VIF = 10 maka
Tolerance = 1/10= 0.1. Semakin tinggi VIF maka semakin rendah
Tolerance.
b. Jika nilai koefesian antar masing-masing variabel independen kurang dari 0.70, maka madel dapat dinyatakan bebas dari asumsi klasik multikolineritas. Jika lebih dari 0.7 maka diasumsikan terjadi korelasi
yang sangat kuat antar variabel independen sehingga terjadi multikolineritas.
c. Jika nilai koefesien determinan, baik dilihat dari R2 maupun R-Squre diatas 0.50 namun tidak ada variabel independen yang berpengaruh terhadap variabel dependen, maka ditengarai model terkena multikolineritas.
2.3 Autokorelasi
Ghozali (2005:95) menyatakan bahwa :
Uji autokorelasi bertujuan untuk menguji apakah dalam model regresi linier ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pengganggu pada periode t-1 (sebelumnya). Jika terjadi korelasi, maka dinamakan ada problem autokorelasi. Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu sama lainnya. Masalah ini timbul karena residual (kesalahan penganggu) tidka bebas dari suatu obsevasi ke observasi lainnya. Hal ini sering ditemukan pada data runtut waktu (time series) karena “gangguan” pada seseorang individu/kelompok cenderung mempengaruhi “gangguan” pada individu atau kelompok yang sama pada periode berikutnya.
Untuk mengetahui apakah data yang kita miliki terjadi autokorelasi atau tidak, kita menggunakan uji Durbin-Watson (DW test). Ghozali (2005:96) memberikan pedoman dalam pengambilan keputusan ada tidaknya autokorelasi sebagai berikut :
a. apabila nilai Durbin-Watson (DW) terletak antara 0 dan batas bawah atau
b. Apabila nilai DW terletak antar DL dan batas atas atau Upper Bound (DU) berarti kita tidak dapat memutuskan apakah terjadi autokorelasi positif atau tidak.
c. Apabila nilai DW terletak antara 4-DL dan 4, berarti ada autokorelasi negatif.
d. Apabila nilai DW terlatak antara 4-DU dan 4-DL, berarti kita tidak dapat memutuskan apakah terjadi autokorelasi negatif atau tidak.
Apabila nilai Durbin Watson (DW) terletak diantara batas atas atau upper bound (DU) dan 4-DU, maka koefesien autokorelasi sama dengan nol, berarti tidak ada autokorelasi baik posif maupun negatif. Menguji autokorelasi dalam suatu model bertujuan untuk mengetahui ada tidaknya korelasi antara variabel penggangu (et) pada periode tertentu dengan variabel penggangu periode sebelumnya (et-1). Autokorelasi sering terjadi pada sampel dengan data time series
dengan n-sampel adalah periode waktu. Sedangkan untuk sampel data crossection
dengan n-sampel item seperti perusahaan, orang, wilayah, dan lain sebagainya jarang terjadi, karena variabel pengganggu item sampel yang satu berbeda dengan yang lain.
2.4 Heteroskesdastisitas
Budi (2005:242) menyatakan bahwa:
Asumsi heteroskedastisitas adalah asumsi dalam regresi dimana varians dari residual tidak sama untuk satu pengamatan ke pengamatan yang lain. Dalam
regresi, salah satu asumsi yang dipenuhi adalah bahwa varians dan residual dari
suatu pengamatan ke pengamatan yang lain tidak memiliki pola tertentu. Pola
yang tidak sama ini ditunjukkan dengan nilai yang tidak sama antar satu varians
dari residual. Gejala varians yang tidak sama ini disebut dengan gejala
heteroskedastisitas, sedangkan adanya gejala varians residual yang sama dari
satu pengamatan kepengamatan yang lain disebut dengan homokedastisitas ini
adalah dengan melihat penyebaran varians residual.
Heteroskesdastisitas menguji terjadinya perbedaan variance residual suatu periode pengamatan ke periode pengamatan yang lain, atau gambaran hubungan antara nilai yang diprediksi dengan Studentized Delete Residual nilai tersebut sehingga dapat dikatakan model tersebut homokesdastisitas. Cara memprediksi ada tidaknya Heterokesdastisitas pada suatu model adalah menggunakan
spearman rank correlation. Dengan menggunakan program SPSS 15 dapat dketahui korelasi variabel independen dengan nilai residual (Res-1).
Apabila nilai korelasi variabel independen dalam model dengan nilai residu kurang dari 0,7 maka tidak terjadi heteroskedastisitas. Hal ini dapat pula diihat dari nilai signifikan t masing-masing variabel independen dalam model diatas nilai alfa yang ditetapkan maka tidak terjadi heteroskedastisitas.