BAB III METODE PENELITIAN
3.6 Metode Analisis Data
3.6.2 Regresi Linear Berganda
3.6.2.1 Uji Asumsi Klasik
Uji asumsi klasik digunakan untuk menguji apakah model regresi
benar-benar menunjukkan hubungan yang signifikan dan representatif. Ada empat
pengujian dalam uji asumsi klasik, yaitu:
a. Uji Normalitas
Uji normalitas data bertujuan untuk menguji apakah dalam sebuah model
regresi, variabel pengganggu atau residual mempunyai distribusi normal atau
tidak. Pengujian ini diperlukan karena untuk melakukan uji t dan uji F
mengasumsikan bahwa nilai residual mengikuti distribusi normal (Erlina,
2007:103). Uji normalitas dalam penelitian ini dilakukan dengan cara analisis
grafik. Normalitas dapat dideteksi dengan melihat penyebaran data (titik) pada
sumbu diagonal dari grafik pada Normal P- Plot of Regression Standardized atau
a. Jika data menyebar di sekitar garis diagonal dan mengikuti garis diagonal
atau grafik histogramnya menunjukkan pola distribusi normal regresi
memenuhi asumsi normalitas.
b. Jika data menyebar jauh dari garis diagonal dan atau tidak mengikuti arah
garis diagonal atau grafik histogram tidak menunjukkan pola distribusi
normal, maka model regresi tidak memenuhi asumsi normalitas.
Uji normalitas dengan grafik dapat menyesatkan kalau tidak hati-hati.
Secara visual kelihatan normal, padahal secara statistik bisa sebaliknya. Oleh
sebab itu disamping uji grafik sebaiknya dilengkapi dengan uji statistik. Uji
statistik yang dapat digunakan untuk menguji normalitas adalah uji statistik
Kolmogorov-Smirnov, kriteria pengujian normalitas data dengan melihat nilai signifikan data. Dengan menggunakan alfa 5%, data dikatakan normal jika angka
signifikansi > 0.05 (Imam Ghozali, 2009).
b. Uji Multikolinearitas
Uji multikolinearitas bertujuan untuk menguji apakah model regresi
mempunyai korelasi antar variabel bebas. Model regresi yang baik seharusnya
tidak terjadi korelasi diantara variabel independen. Multikolinearitas adalah
situasi adanya korelasi variabel – variabel independen antara yang satu dengan
yang lainnya. Dalam hal ini disebut variabel – variabel bebas ini tidak ortogonal.
Variabel – variabel bebas yang bersifat ortogonal adalah variabel bebas yang
Jika terjadi korelasi sempurna diantara sesama variabel bebas, maka
konsekuensinya adalah:
a. Koefisien – koefisien regresi menjadi tidak dapat ditaksir,
b. Nilai standar error setiap koefisien regresi menjadi tak terhingga.
Menurut Ghozali (2005:91), untuk mendeteksi ada tidaknya
multikolinearitas di dalam model regresi adalah sebagai berikut:
1. nilai R2 yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi secara individual variabel – variabel independennya banyak yang tidak signifikan mempengaruhi variabel dependen,
2. menganalisis matrik korelasi variabel – variabel independen. Jika antar variabel independen ada korelasi yang cukup tinggi (umumnya diatas 0.90), maka hal ini merupakan indikasi adanya multikolinearitas. Tidak adanya korelasi yang tinggi antar variabel independen tidak berarti bebas dari multikolinearitas. Multikolinearitas dapat disebabkan karena adanya efek kombinasi dua atau lebih variabel independen,
3. multikolinearitas dapat juga dilhat dari a) nilai tolerance dan lawannya b)variance inflation factor (VIF). Kedua ukuran ini menunjukan setiap variabel independen manakah yang dijelaskan oleh variabel independen lainnya Dalam pengertian sederhana setiap variabel independen menjadi variabel dependen (terikat) dan diregres terhadap variabel independen lainnya. Tolerance mengukur variabilitas variabel independen yang terpilih yang tidak dijelaskan oleh variabel independen lainnya. Jadi nilai tolerance yang rendah sama dengan nilai VIF tinggi (karena VIF=1/Tolerance). Nilai cutoff yang umum dipakai untuk menunjukan adanya multikolinearitas adalah nilai tolerance < 0.10 atau sama dengan nilai VIF > 10.
Cara yang dapat dilakukan untuk mengatasi masalah multikolinearitas :
1) Mengeluarkan satu atau lebih variabel independen yang mempunyai
korelasi tinggi dari model regresi dan identifikasikan variabel independen
lainnya untuk membantu prediksi,
2) Menggabungkan data cross section dan time series (pooling data) 3) Menambah data penelitian.
c. Uji Autokorelasi
Autokorelasi adalah korelasi (hubungan) yang terjadi di antara
anggota-anggota dari serangkaian pengamatan yang tersusun dalam rangkaian waktu atau
tersusun dalam rangkaian ruang (Ghozali, 2004). Uji Autokorelasi bertujuan
untuk menguji apakah dalam suatu model regresi linier ada korelasi antara
kesalahan pengganggu pada periode t dengan kesalahan pada periode t-1
(sebelumnya). Jika terjadi korelasi, maka dinamakan terjadi problem autokorelasi
(Ghozali, 2009:79). Pengujian ini dilakukan dengan menggunakan uji
Durbin-Watson (DW-test). Uji ini digunakan untuk autokorelasi tingkat satu (first order autocorrelation) dan mensyaratkan adanya intercept (konstanta) dalam model regresi dan tidak ada variabel lag diantara variabel independen. Pengambilan keputusan ada tidaknya autokorelasi dalam uji Durbin-Watson test adalah sebagai berikut (Ghozali, 2009:80).
1. Bila nilai DW terletak antara batas atas atau upper bound (du) dan (4-du), maka koefisien korelasi sama dengan nol, berarti tidak ada autokorelasi.
2. Bila nilai DW lebih rendah daripada batas bawah atau lower bound (dl), maka koefisien autokorelasi lebih besar daripada nol, berarti ada
autokorelasi positif.
3. Bila nilai DW lebih besar daripada (4-dl), maka koefisien autokorelasi
lebih kecil daripada nol, berarti ada autokorelasi negatif.
4. Bila nilai DW terletak diantara batas atas (du) dan batas bawah (dl) atau
DW terletak antara (4-du) dan (4-dl) maka hasilnya tidak dapat
Menurut Makridakis (1983) untuk mendeteksi ada atau tidaknya
autokorelasi maka dilakukan pengujian Durbin-Watson (DW) dengan ketentuan
sebagai berikut (Wahid Sulaiman, 2004: 89):
a. 1,65 < DW < 2,35 berarti tidak terjadi autokorelasi
b. 1,21 < DW < 1,65 atau 2,35 < DW < 2,79 berarti tidak dapat disimpulkan
c. DW < 1,21 atau DW > 2,79 berarti terjadi autokorelasi
d. Uji Heteroskedastisitas
Uji heterokedastisitas bertujuan untuk menguji apakah dalam model
regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke
pengamatan yang lain. Jika residual dari satu pengamatan ke pengamatan lain
tetap, maka disebut homoskedastisitas dan jika berbeda disebut heteroskedastisitas
(Erlina, 2007:108). Model regresi yang baik adalah yang homoskedastisitas atau
tidak terjadi heteroskedastisitas.
Cara untuk mendeteksi ada atau tidaknya heteroskedastisitas dapat
diketahui dengan melihat ada tidaknya pola tertentu pada grafik scatterplot antara nilai prediksi variabel terikat (ZPRED) dengan residualnya (SRESID). Menurut
Husein Umar (2011:181) sumbu X adalah data X yang telah diprediksi dan sumbu
Y adalah residual (Y prediksi - Y sesungguhnya) yang telah di-studentdized.
Dasar analisis dari uji heteroskedastis melalui grafik plot adalah sebagai berikut
(Imam Ghozali, 2009: 37):
1) Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola tertentu
yang teratur (bergelombang, melebar kemudian menyempit), maka
2) Jika tidak ada pola yang jelas, serta titik-titik menyebar di atas dan di
bawah angka 0 pada sumbu Y secara acak, maka tidak terjadi
heteroskedastisitas.