• Tidak ada hasil yang ditemukan

BAB I PENDAHULUAN

F. Metode Pengujian Kuesioner

4. Uji Asumsi Klasik

100

x

N

X

P =

Keterangan: P = Proporsi populasi X = Jumlah itemproporsi

N = Jumlah item keseluruhan

4. Uji Asumsi Klasik

Uji asumsi klasik digunakan sebagai persyaratan, apakah variabel independen dan variabel dependen layak untuk diuji dalam analisis regresi linier berganda. Dalam uji ini, dilakukan dalam tiga tahapan pengujian, yaitu:

a. Uji Multikloneritas

Uji multikolonieritas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar veriabel bebas (independen). Model regresi yang baik seharusnya tidak terjadi korelasi di antara

variabel independen. Untuk mendeteksi ada atau tidaknya multikolonieritas di dalam model regresi, dapat dilihat dari: (1) nilai tolerance dan lawannya, (2) Variance Inflation Factor (VIF). Kedua ukuran ini menunjukkan setiap variabel independen manakah yang dijelaskan oleh variabel independen lainnya.

Dalam pengertian sederhana, setiap variabel independen menjadi variabel dependen (terikat) dan diregres terhadap variabel independen

lainnya. Tolerance mengukur variabilitas variabel independen yang

terpilih, yang tidak dijelaskan oleh variabel independen lainnya. Jadi,

nilai tolerance yang rendah sama dengan nilai VIF tinggi (karena

VIF=1 atau tolerance). Nilai cutoff yang umum dipakai untuk

menunjukkan adanya multikolonieritas, adalah nilai tolerance < 0,10 sama dengan nilai VIF > 10 (Ghozali, 2005:92).

b. Uji Autokorelasi

Uji autokorelasi, bertujuan untuk menguji apakah dalam model regresi linier ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pengganggu pada pada periode t-1 (sebelumnya). Model regresi yang baik adalah model regresi yang bebas dari gangguan autokorelasi. Jika terjadi korelasi, maka dinamakan adanya problem autokorelasi. Autokorelasi muncul karena observasi yang beruntun sepanjang waktu, berkaitan satu sama lainnya. Masalah ini timbul karena residual (kesalahan pengganggu) tidak bebas dari satu observasi ke observasi lainnya.

atau tidaknya autokorelasi dengan cara uji Durbin-Watson (DW test). Dengan ketentuan apabila nilai DW yang didapat lebih besar dari batas 1,758 (dU) dan kurang dari 4-1,758 (4- dU), maka dapat disimpulkan bahwa, tidak ada autokorelasi positif atau negatif, atau dapat disimpulkan tidak terdapat autokorelasi (Ghozali 2005:98).

Menentukan Hipotesa nol (Ho) dan Hipotesa alternatif (Ha): Ho: Tidak ada autokorelasi antar residual

Ha: Ada autokorelasi antar residual

Tabel III.1

Kriteria Pengujian Hipotesis Autokorelasi Uji Durbin – Watson

Hipotesis Nol Keputusan Jika Tdk ada autokorelasi positif

Tdk ada autokorelasi positif Tdk ada autokorelasi negatif Tdk ada autokorelasi negatif

Tdk ada autokorelasi positif atau negatif

Tolak No decision Tolak No decision Tidak Ditolak 0 < d < dl dl ≤ d ≤ du 4 - dl - < d < 4 4 - du ≤ d ≤ 4 – dl du < d < 4 - du

Sumber: Ghozali, Imam, Aplikasi Analisis Multivariate dengan Program SPSS, Badan Penerbit Universitas Diponegoro, Semarang, 2006: 96

Gambar III.2 Kurva Autokorelasi

Sumber: Ghozali, Imam, Aplikasi Analisis Multivariate dengan Program SPSS, Badan Penerbit Universitas Diponegoro, Semarang, 2006: 96).

dL Ada Autokorelasi Ada Autokorelasi Tidak ada kesimpulan Tidak ada kesimpulan Tidak ada Autokorelasi dU 4- dU 4- dL

c. Uji Heterodeksitas

Uji Heteroskedastisitas (Heteroscedasticity) bertujuan untuk

menguji apakah dalam model regresi terjadi ketidaksamaan variance

dari residual satu pengamatan ke pengamatan lain. Jika variance dari residual satu ke pengamatan ke pengamatan lain tetap, maka disebut homoskedastisitas dan jika terjadi berbeda disebut heteroskedastisitas.

Model regresi yang baik adalah yang homoskedastisitas (Homoscedasticity) atau tidak terjadi heteroskedastisitas. Dengan ketentuan apabila koefisien parameter beta dari persamaan regresi tersebut signifikan secara statistik, hal ini menunjukkan bahwa dalam data model empiris yang diestimasi terdapat heteroskedastisitas, dan sebaliknya jika parameter beta tidak signifikan secara statistik, maka hal ini menunjukan adanya homoskedastisitas (Ghozali 2006: 105).

Uji heteroskedastisitas dalam penelitian ini, menggunakan uji korelasi ” Rank Spearman”.pengujian ini bersifat perkiraan dan paling sederhana untuk menyelidiki heteroskedastisitas.

Langkah-langkah uji korelasi Rank Spearman:

1) Estimasi y terhadap x (variabel bebas) untuk mendapat

residu-residu (e) merupakan taksiran bagi faktor-faktor gangguan (u).

2) Susunan nilai-nilai e (dengan mengabaikan tandanya) dan nilai x,

menurut susunan yang meningkat (kecil ke besar) atau sebaliknya. Untuk menghitung koefisien korelasi yang berdasarkan ranking antara x dan e.

Koefisien korelasi selalu nol, karena ∑ex = 0 dalam 0 (s). Koefisien korelasi ranking yang tinggi menandakan adanya heteroskedastisitas. Koefisien korelasi ranking juga dapat dihitung

antara ei dan setiap satu variabel bebas dalam kasus model yang

mengadung lebih dari satu variabel bebas.

d. Uji Normalitas

Uji Normalitas digunakan untuk menguji data variabel bebas (X) dan data variabel terikat (Y) pada persamaan regresi yang dihasilkan, berdistribusi normal atau tidak normal.

Persamaan regresi dikatakan baik jika mempunyai data variabel bebas dan data variabel terikat berdistribusi mendekati normal atau normal sama sekali. Ada dua cara untuk melakukan uji normalitas (Danang, 2007:96-102) yaitu :

1) Cara Statistik

Cara statistik yang dipakai untuk menguji data variabel bebas dan variabel terikat berdistribusi normal atau tidak adalah melalui nilai kemiringan kurva (skewness = α3) atau nilai keruncingan kurva (kurtosis = α4) dibandingkan dengan nilai Z tabel.

Rumus nilai Z untuk kemiringan kurva (skewness) : Z skewness = Skewness / √ 6 / N atau Zα3 = α3/ √ 6 / N

Rumus nilai Z untuk keruncingan kurva (kurtosis) : Z kurtosis = kurtosis / √ 24 / N atau Zα4 = α4/ √ 24 / N

Dimana:

N = banyaknya data.

Ketentuan analisis yaitu :

a) Variabel bebas atau terikat berdistribusi normal jika Z hitung (Zα3 atau Zα4) < Z tabel.

b) Variabel bebas atau terikat berdistribusi tidak normal jika Z hitung (Zα3 atau Zα4) > Z tabel.

2) Cara Grafik Histogram dan Normal Probability Plots

Cara grafik histogram dalam menentukan suatu data berdistribusi normal atau tidak, cukup dengan membandingkan antara data riil (nyata) dengan garis kurva yang terbentuk, apakah mendekati normal atau memang normal sama sekali. Jika data riil

membentuk garis kurva cenderung tidak simetris terhadap mean

(U), maka dapat dikatakan data berdistribusi tidak normal. Jika data riil membentuk garis kurva cenderung simetris terhadap mean (U), maka dapat dikatakan data berdistribusi normal.

Cara normal probability plots lebih handal daripada cara

grafik histogram, karena cara ini membandingkan data riil dengan data distribusi normal (otomatis oleh komputer) secara kumulatif. Suatu data dikatakan berdistribusi normal ketika garis data riil mengikuti garis diaogonal.

Dokumen terkait