• Tidak ada hasil yang ditemukan

BAB III METODE PENELITIAN

3.6 Metode Analisis Data

3.6.2 Regresi Linear Berganda

3.6.2.1 Uji Asumsi Klasik

Uji asumsi klasik digunakan untuk menguji apakah model regresi

benar-benar menunjukkan hubungan yang signifikan dan representatif. Ada empat

pengujian dalam uji asumsi klasik, yaitu:

a. Uji Normalitas

Uji normalitas data bertujuan untuk menguji apakah dalam sebuah model

regresi, variabel pengganggu atau residual mempunyai distribusi normal atau

tidak. Pengujian ini diperlukan karena untuk melakukan uji t dan uji F

mengasumsikan bahwa nilai residual mengikuti distribusi normal (Erlina,

2007:103). Uji normalitas dalam penelitian ini dilakukan dengan cara analisis

grafik. Normalitas dapat dideteksi dengan melihat penyebaran data (titik) pada

sumbu diagonal dari grafik pada Normal P- Plot of Regression Standardized atau

a. Jika data menyebar di sekitar garis diagonal dan mengikuti garis diagonal

atau grafik histogramnya menunjukkan pola distribusi normal regresi

memenuhi asumsi normalitas.

b. Jika data menyebar jauh dari garis diagonal dan atau tidak mengikuti arah

garis diagonal atau grafik histogram tidak menunjukkan pola distribusi

normal, maka model regresi tidak memenuhi asumsi normalitas.

Uji normalitas dengan grafik dapat menyesatkan kalau tidak hati-hati.

Secara visual kelihatan normal, padahal secara statistik bisa sebaliknya. Oleh

sebab itu disamping uji grafik sebaiknya dilengkapi dengan uji statistik. Uji

statistik yang dapat digunakan untuk menguji normalitas adalah uji statistik

Kolmogorov-Smirnov, kriteria pengujian normalitas data dengan melihat nilai signifikan data. Dengan menggunakan alfa 5%, data dikatakan normal jika angka

signifikansi > 0.05 (Imam Ghozali, 2009).

b. Uji Multikolinearitas

Uji multikolinearitas bertujuan untuk menguji apakah model regresi

mempunyai korelasi antar variabel bebas. Model regresi yang baik seharusnya

tidak terjadi korelasi diantara variabel independen. Multikolinearitas adalah

situasi adanya korelasi variabel – variabel independen antara yang satu dengan

yang lainnya. Dalam hal ini disebut variabel – variabel bebas ini tidak ortogonal.

Variabel – variabel bebas yang bersifat ortogonal adalah variabel bebas yang

Jika terjadi korelasi sempurna diantara sesama variabel bebas, maka

konsekuensinya adalah:

a. Koefisien – koefisien regresi menjadi tidak dapat ditaksir,

b. Nilai standar error setiap koefisien regresi menjadi tak terhingga.

Menurut Ghozali (2005:91), untuk mendeteksi ada tidaknya

multikolinearitas di dalam model regresi adalah sebagai berikut:

1. nilai R2 yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi secara individual variabel – variabel independennya banyak yang tidak signifikan mempengaruhi variabel dependen,

2. menganalisis matrik korelasi variabel – variabel independen. Jika antar variabel independen ada korelasi yang cukup tinggi (umumnya diatas 0.90), maka hal ini merupakan indikasi adanya multikolinearitas. Tidak adanya korelasi yang tinggi antar variabel independen tidak berarti bebas dari multikolinearitas. Multikolinearitas dapat disebabkan karena adanya efek kombinasi dua atau lebih variabel independen,

3. multikolinearitas dapat juga dilhat dari a) nilai tolerance dan lawannya b)variance inflation factor (VIF). Kedua ukuran ini menunjukan setiap variabel independen manakah yang dijelaskan oleh variabel independen lainnya Dalam pengertian sederhana setiap variabel independen menjadi variabel dependen (terikat) dan diregres terhadap variabel independen lainnya. Tolerance mengukur variabilitas variabel independen yang terpilih yang tidak dijelaskan oleh variabel independen lainnya. Jadi nilai tolerance yang rendah sama dengan nilai VIF tinggi (karena VIF=1/Tolerance). Nilai cutoff yang umum dipakai untuk menunjukan adanya multikolinearitas adalah nilai tolerance < 0.10 atau sama dengan nilai VIF > 10.

Cara yang dapat dilakukan untuk mengatasi masalah multikolinearitas :

1) Mengeluarkan satu atau lebih variabel independen yang mempunyai

korelasi tinggi dari model regresi dan identifikasikan variabel independen

lainnya untuk membantu prediksi,

2) Menggabungkan data cross section dan time series (pooling data) 3) Menambah data penelitian.

c. Uji Autokorelasi

Autokorelasi adalah korelasi (hubungan) yang terjadi di antara

anggota-anggota dari serangkaian pengamatan yang tersusun dalam rangkaian waktu atau

tersusun dalam rangkaian ruang (Ghozali, 2004). Uji Autokorelasi bertujuan

untuk menguji apakah dalam suatu model regresi linier ada korelasi antara

kesalahan pengganggu pada periode t dengan kesalahan pada periode t-1

(sebelumnya). Jika terjadi korelasi, maka dinamakan terjadi problem autokorelasi

(Ghozali, 2009:79). Pengujian ini dilakukan dengan menggunakan uji

Durbin-Watson (DW-test). Uji ini digunakan untuk autokorelasi tingkat satu (first order autocorrelation) dan mensyaratkan adanya intercept (konstanta) dalam model regresi dan tidak ada variabel lag diantara variabel independen. Pengambilan keputusan ada tidaknya autokorelasi dalam uji Durbin-Watson test adalah sebagai berikut (Ghozali, 2009:80).

1. Bila nilai DW terletak antara batas atas atau upper bound (du) dan (4-du), maka koefisien korelasi sama dengan nol, berarti tidak ada autokorelasi.

2. Bila nilai DW lebih rendah daripada batas bawah atau lower bound (dl), maka koefisien autokorelasi lebih besar daripada nol, berarti ada

autokorelasi positif.

3. Bila nilai DW lebih besar daripada (4-dl), maka koefisien autokorelasi

lebih kecil daripada nol, berarti ada autokorelasi negatif.

4. Bila nilai DW terletak diantara batas atas (du) dan batas bawah (dl) atau

DW terletak antara (4-du) dan (4-dl) maka hasilnya tidak dapat

Menurut Makridakis (1983) untuk mendeteksi ada atau tidaknya

autokorelasi maka dilakukan pengujian Durbin-Watson (DW) dengan ketentuan

sebagai berikut (Wahid Sulaiman, 2004: 89):

a. 1,65 < DW < 2,35 berarti tidak terjadi autokorelasi

b. 1,21 < DW < 1,65 atau 2,35 < DW < 2,79 berarti tidak dapat disimpulkan

c. DW < 1,21 atau DW > 2,79 berarti terjadi autokorelasi

d. Uji Heteroskedastisitas

Uji heterokedastisitas bertujuan untuk menguji apakah dalam model

regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke

pengamatan yang lain. Jika residual dari satu pengamatan ke pengamatan lain

tetap, maka disebut homoskedastisitas dan jika berbeda disebut heteroskedastisitas

(Erlina, 2007:108). Model regresi yang baik adalah yang homoskedastisitas atau

tidak terjadi heteroskedastisitas.

Cara untuk mendeteksi ada atau tidaknya heteroskedastisitas dapat

diketahui dengan melihat ada tidaknya pola tertentu pada grafik scatterplot antara nilai prediksi variabel terikat (ZPRED) dengan residualnya (SRESID). Menurut

Husein Umar (2011:181) sumbu X adalah data X yang telah diprediksi dan sumbu

Y adalah residual (Y prediksi - Y sesungguhnya) yang telah di-studentdized.

Dasar analisis dari uji heteroskedastis melalui grafik plot adalah sebagai berikut

(Imam Ghozali, 2009: 37):

1) Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola tertentu

yang teratur (bergelombang, melebar kemudian menyempit), maka

2) Jika tidak ada pola yang jelas, serta titik-titik menyebar di atas dan di

bawah angka 0 pada sumbu Y secara acak, maka tidak terjadi

heteroskedastisitas.

Dokumen terkait