• Tidak ada hasil yang ditemukan

3.4 Metode dan Teknik Analisis Data

3.4.1 Uji Asumsi Klasik .1 Uji Normalitas Data .1 Uji Normalitas Data

Uji normalitas bertujuan untuk menguji apakah dalam model regressi

variabel penganggu atau residual memiliki distribusi normal atau tidak dengan menggunakan hipotesis sebagai berikut:

H

0

H

: data residua l berdistribusi normal

Ada dua cara yang dapat digunakan untuk mendeteksi apakah residual berdistribusi normal atau tidak, yaitu dengan analisis grafik dan uji statistik. Pada penelitian ini akan digunakan kedua cara tersebut.

1. Uji Analisis Grafik 1) Histogram

Pengujian dengan model histogram memiliki ketentuan bahwa data normal berbentuk lonceng. Data yang baik adalah data yang memiliki pola distribusi normal. Jika data melenceng ke kanan atau melenceng ke kiri berarti data tidak terdistribusi secara normal.

2) Grafik Normality P-Plot

Normalitas dapat dideteksi dengan melihat penyebaran data (titik) pada sumbu diagonal dan grafik dengan melihat histogram dari residualnya”. Kriteria pengambilan keputusannya adalah:

1. Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal maka menunjukkan pola distribusi normal.

2. Jika data menyebar jauh dari garis diagonal atau tidak mengikuti arah garis diagonal maka tidak menunjukkan pola distribusi normal.

Penyimpangan asumsi normalitas ini akan semakin kecil pengaruhnya apabila jumlah sampel diperbesar. Salah satu penyelesaiannya adalah dengan cara mengubah bentuk variabel yang semula nilai absolut ditransformasikan menjadi bentuk lain (kwadratik, resiprokal) sehingga distribusi menjadi normal.

2. Uji Statistik

Ghozali (2005:115) menjelaskan bahwa “Uji satatistik yang dapat digunakan untuk menguji normalitas residual adalah uji statistik Kolmogorov-Smirnov (K-S)”. Uji K-S dibuat dengan membuat hipotesis:

H

0

H

: Data residua l berdistribusi normal

A

Bila signifikansi > 0,05 dengan = 5% berarti distribusi data normal dan diterima, sebaliknya bila nilai signifikan < 0,05 berarti distribusi data tidak normal dan diterima. Menurut Jogiyanto (2004:172), Jika data tidak normal, ada beberapa cara mengubah model regresi menjadi normal yaitu:

: Data residua l tidak berdistribusi normal

1. Dengan melakukan transformasi data ke bentuk lain, yaitu: logaritma natural, akar kuadrat, logaritma 10,

2. Melakukan trimming, yaitu memangkas observasi yang bersifat outlier, 3.Melakukan winsorizing, yaitu mengubah nilai-nilai data outliers

menjadinilai-nilai minimum atau maksimum yang diizinkan supaya distribusinya menjadi normal.

3.4.1.2 Uji Multikolinearitas

Ghozali (2005:91) menyatakan bahwa “Pengujian multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi diantara variabel-variabel independen. Model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel independen”. Multikolinearitas adalah situasi adanya korelasi variabel-variabel independen antara yang satu dengan yang lainnya (variabel-variabel bebas tidak ortogonal). Variabel-variabel bebas yang bersifat

ortogonal adalah variabel bebas yang memiliki nilai korelasi diantara sesamanya sama dengan nol.

Model regresi yang baik seharusnya tidak ada korelasi antar variabel independen. Ada tidaknya multikolinieritas dapat dideteksi dengan :

1) Melihat nilai tolerance, nilai cutoff yang umum dipakai untuk menunjukkan adanya multikolinieritas adalah nilai tolerance > 0,10

2) Melihat variance inflation factor (VIF), nilai cutoff yang umum dipakai untuk menunjukkan adanya multikolinieritas adalah nilai VIF<10.

3) Menganalisis matrik korelasi variabel-variabel independen. Menurut Ghozali (2005:93) “untuk matrik korelasi adanya indikasi multikolinieritas dapat dilihat jika antar variabel independen ada korelasi yang cukup tinggi umumnya diatas 0,95”.

4) Membandingkan nilai model utama (awal) terhadap nilai dari masing-masing axilary regression antar variabel independen

5) Melihat nilai Condition Index (CI), jika CI antara 10 dan 30 terdapat multikolinieritas moderat ke kuat, sedangkan jika nilai CI > 30 artinya terdapat multikolinieritas sangat kuat.

Jika terdapat korelasi sempurna diantara sesama variabel bebas, maka konsekuensinya adalah : (a) koefisien-koefisien regresi menjadi tidak dapat ditaksir, (b) nilai standard error setiap regresi menjadi tak terhingga. Apabila terjadi korelasi antara variabel independen, maka dinamakan terdapat masalah multikolinieritas.

3.4.1.3 Uji Heterokedastisitas

Heterokedastisitas merupakan situasi dimana dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Erlina (2007:108) menyatakan "jika varians dari residual satu pengamatan ke pengamatan lainnya tetap, maka disebut homoskedastisitas. Sebaliknya, jika varians berbeda, maka disebut heterokedastisitas". Ada tidaknya heteroskedastisitas dapat dilakukan dengan melihat grafik Scattetplot antar nilai prediksi variabel independen dengan nilai residualnya. Menurut Ghozali (2005:105), Dasar analisis yang dapat digunakan untuk menentukan heterokedastisitas antara lain:

1. Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola tertentu yang teratur (bergelombang, melebar kemudian menyempit), maka mengindikasikan telah terjadi heteroskedastisitas,

2. Jika tidak ada pola yang jelas, seperti titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas atau terjadi homoskedastisitas.

Menurut Ghozali (2005:107) "Analisis dengan grafik plot memiliki kelemahan yang cukup signifikan oleh karena jumlah pengamatan mempengaruhi hasil ploting. Semakin sedikit jumlah pengamatan semakin sulit menginterpretasikan hasil grafik p-p plot. Hal ini berarti diperlukan uji statistik yang lebih dapat menjamin keakuratan hasil". Ada beberapa uji statistik yang

dapat digunakan untuk mendeteksi ada tidaknya heterokedastisitas, antara lain: Uji Park dan Uji Glejser.

3.4.1.4 Uji Autokorelasi

Uji autokorelasi bertujuan untuk menguji apakah dalam suatu model regresi linear ada korelasi antara kesalahan penganggu pada periode t dengan kesalahan pada periode t-1 atau sebelumnya. Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu sama lain. Masalah ini timbul karena residual atau kesalahan penganggu tidak bebas dari satu observasi ke observasi lainnya. Hal ini paling sering ditemukan pada data runtut waktu atau time series karena gangguan pada seorang individu atau kelompok cenderung mempengaruhi gangguan pada individu atau kelompok yang sama pada periode berikutnya. Model regresi yang baik adalah model regresi yang bebas dari autokorelasi. Uji yang digunakan dalam penelitian ini untuk mendeteksi ada tidaknya autokorelasi dapat dilihat dengan menggunakan uji Durbin-Watson. 1) angka D-W dibawah -2 berarti ada autokorelasi positif,

2) angka D-W diantara -2 sampai +2 berarti tidak ada autokorelasi, 3) angka D-W di atas +2 berarti ada autokorelasi negatif.

Run test sebagai bagian dari statistik nonparametrik dapat pula digunakan untuk menguji apakah antar residual terdapat korelasi yang tinggi. Jika antar residual tidak terdapat hubungan korelasi maka dikatakan bahwa residual adalah acak atau random yaitu dengan melihat nilai probabilitasnya. Menurut Ghozali (2005:103) “bila signifikansi > 0,05 dengan = 5 % berarti residual random dan

diterima, sebaliknya bila nilai signifikansi < 0,05 berarti residual tidak random dan ditolak”.

3.4.2 Pengujian Hipotesis

Dokumen terkait