• Tidak ada hasil yang ditemukan

BAB III METODE PENELITIAN

3.6. Metode Analisis Data

Metode analisis data dalam penelitian ini menggunakan analisis statistik dengan

menggunakan software SPSS 17.Tahap awal yang dilakukan sebelum melakukan

pengujian hipotesis yaitu uji asumsi klasik.Pengujian asumsi klasik yang dilakukan

terdiri dari uji normalitas, uji multikolinieritas, uji heteroskedastisitas dan uji

autokorelasi.Untuk pengujian hipotesis, dilakukan analisis uji t dan uji F.

3.6.1. Pengujian asumsi klasik

Penggunaan analisis regresi dalam statistik harus bebas dari asumsi

asumsi klasik.Adapun pengujian asumsi klasik yang digunakan dalam

penelitian ini adalah, uji normalitas, uji multikolinieritas, uji heteroskedastisitas

dan uji autokorelasi.

1. Uji normalitas

“Uji normalitas bertujuan untuk menguji apakah variabel dalam model

regresi variabel pengganggu atau residual memiliki distribusi normal” (Ghozali,

2006 : 110). Model regresi yang baik adalah yang memiliki distribusi data

normal atau mendekati normal.Histogram atau pola distribusi data normal dapat

digunakan untuk melihat normalitas data. Uji Kolmogrov Smirnov, dalam uji

pedoman yang digunakan dalam pengambilan keputusan yaitu:

a. jika nilai signifikansi < 0.05 maka distribusi data tidak normal,

Menurut Ghozali (2006 : 112),“pada prinsipnya normalitas data dapat

dideteksi dengan melihat penyebaran data (titik) pada sumbu diagonal dari

grafik atau dengan melihat histogram dari residualnya”. Dasar pengambilan

keputusan :

1) jika data menyebar disekitar garis diagonal dan mengikuti arah garis

diagonal atau grafik histogramnya menunjukkan pola distribusi normal,

maka model regresi memenuhi asumsi normalitas,

2) jika data menyebar jauh dari diagonal dan atau tidak mengikuti arahgaris

diagonal atau grafik histogram tidak menunjukkan pola distribusi normal,

maka model regresi tidak memenuhi asumsi normalitas.

2. Uji multikolinieritas

Uji multikolinearitas bertujuan untuk menguji apakah model regresi

ditemukan adanya korelasi di antara variabel independen.Model regresi yang

baik seharusnya tidak terjadi korelasi di antara variabel independen.

Erlina dan Mulyani (2007 : 107), menyatakan “Multikolinearitas

merupakan kondisi dimana terjadi korelasi antar variabel - variabel

independen suatu penelitian atau dengan kata lain bersifat ortogonal”.

Variabel - variabel independen yang bersifat ortogonal adalah variabel yang

memiliki nilai korelasi di antara sesamanya sama dengan nol. Jika terjadi

korelasi sempurna diantara sesama variabel independen, maka

konsekuensinya adalah:

(b) nilaistandar error setiap koefisien regresi menjadi tak terhingga

Jika terjadi korelasi, maka terdapat problem

multikolinearitas.Pengujian dilakukan dengan nilai VIF (Variance Inflation Factor) dari model penelitian, jika nilai VIF di atas 2 maka dapat dikatakan bahwa telah terjadi gejala multikolinearitas dalam model penelitian. Di

samping itu, “suatu model dikatakan terdapat gejala multikolinearitas, jika

korelasi di antara variabel independen lebih besar dari 0.9” (Ghozali, 2005 :

91).

Menurut Ghozali (2005), cara yang dapat dilakukan jika terjadi

multikolinearitas yaitu:

1. mengeluarkan salah satu atau lebih variabel independen yang

mempunyai korelasi tinggi dari model regresi dan indentifikasi

variabel independen lainnya untuk membantu prediksi

2. menggabungkan data cross section dan time series (pooling data)

3. menambah data penelitian.

3. Uji heteroskedastisitas

Menurut Situmorang et al. (2009 : 63), “Heteroskedastisitas dapat

dikatakan sebagai suatu situasi dimana dalam sebuah grup terdapat varians

yang tidak sama diantara sesama anggota grup tersebut”. Uji heteroskedastisitas

digunakan untuk menguji apakah dalam suatu model regresi terjadi

ketidaksamaan varians dari residual satu pengamatan ke pengamatan yang lain.

homokedastisitas.Cara yang digunakan untuk mendeteksi ada tidaknya

heteroskedastisitas pada suatu model dapat dilihat dari pola gambar Scatterplot

model tersebut. Analisis pada gambar Scatterplot yang menyatakan model regresi linier berganda tidak terdapat heteroskedastisitas jika:

1. Titik-titik data menyebar di atas dan di bawah atau di sekitar angka 0

2. Titik-titik data tidak mengumpul hanya di atas atau di bawah saja

3. Penyebaran titik-titik data tidak boleh membentuk pola bergelombang

melebar kemudian menyempit dan melebar kembali

4. Penyebaran titik-titik data sebaiknya tidak berpola.

Menurut Situmorang, et.al. (2009 : 76), ada dua cara perbaikan

heteroskedastisitas, yaitu :

1. Bila varians �2� diketahui, maka metode yang digunakan adalah dengan cara kuadrat terkecil tertimbang yang meminimumkan

pentingnya observasi yang penting dengan memberikan bobot pada

observasi tadi secara proporsional dengan kebalikan dari

variansnya.

2. Bila varians �2� tidak diketahui, dimana pengetahuan mengenai �2� biasanya merupakan hal yang jarang dimiliki. Sebagai akibatnya,

orang biasanya membuat suatu asumsi yang masuk akal &

data yang telah ditransformasikan bersifat homokesdastisitas. Misal

model persamaannya:

Y = b0 + b1X1 + b2X2 + b3X3+ b4Z

ditransformasikan menjadi:

LogY = b0 + b1logX1 + b2logX2 + b3logX3 + b4logZ

4. Uji autokorelasi

“Uji autokorelasi bertujuan untuk menguji apakah dalam model regresi

linier ada korelasi antara kesalahan pengganggu pada periode t dengan

kesalahan pada periode t-1 (sebelumnya)” (Ghozali, 2006 : 95). Autokorelasi

muncul karena observasi yang berurutan sepanjang tahun yang berkaitan satu

dengan yang lainnya.Hal ini sering ditemukan dalam time series.Ada beberapa cara untuk menguji adanya autokorelasi seperti metode grafik, uji LM, Uji Runs

dan lain-lain. Uji Durbin-Watson hanya digunakan untuk autokorelasi tingkat

satu (first autocorelation) dan mensyaratkan adanya intercept (konstanta) dalam model regresi dan tidak ada variabel lagi diantara variabel dependen. Kriteria

untuk penilaian terjadinya autokorelasi yaitu:

1) angka D-Wdi bawah -2 berarti ada autokorelasi positif

2) angka D-Wdi antara-2 sampai+2 berarti tidak ada autokorelasi

3) angka D-Wdi atas +2 berarti ada autokorelasi negatif

Menurut Situmorang et al.(2009 : 78), Autokorelasi dapat di definisikan

sebagai suatu keadaan dimana adanya korelasi diantara anggota serangkaian

(crosssection). Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu sama lain. Masalah ini timbul dikarenakan residual atau

kesalahan pengganggu tidak bebas dari satu observasi ke observasi

lainnya.Model regresi yang baik adalah regresi yang bebas dari autokorelasi.

Pada penelitian ini, uji autokorelasi dideteksi dengan uji Durbin- Watson,

karena uji ini yang umum digunakan. Uji ini hanya digunakan untuk

autokorelasi tingkat pertama (first order autokorelasi) dan mensyaratkan adanya intercept (konstanta) dalam model regresi.

Dokumen terkait