• Tidak ada hasil yang ditemukan

METODE PENELITIAN

G. Metode Analisa Data

1. Statistik Deskriptif

Statistik deskriptif menggambarkan fenomena atau karakteristik dari data melalui karakteristik distribusinya (Djarwanto, 2001). Statistik deskriptif bertujuan untuk menggambarkan tentang ringkasan data penelitian seperti mean, standar deviasi, varians, modus, sum, range, minimum, dan maksimal.

2. Uji Asumsi Klasik a. Uji Normalitas Data

Uji normalitas bertujuan untuk mengetahui apakah variabel pengganggu atau residual memiliki distribusi normal. Sebagai dasar bahwa uji t dan uji F mengasumsikan bahwa nilai residual mengikuti distribusi normal. Jika asumsi ini dilanggar maka model regresi dianggap tidak valid dengan jumlah sampel yang ada. Ada dua cara yang biasa digunakan untuk menguji normalitas model regresi tersebut yaitu dengan analisis grafik (normal P-P plot) dan analisis statistik (analisis Z skor skewness dan kurtosis) one sample

xlviii

Kolmogorov-Smirnov Test. Pengujian normalitas pada penelitian ini dihitung dengan menggunakan metode Kolmogorov Smirnov, Konsep dasar dari uji normalitas Kolmogorov Smirnov adalah dengan membandingkan distribusi data (yang akan diuji normalitasnya) dengan distribusi normal baku. Distribusi normal baku adalah data yang telah ditransformasikan ke dalam bentuk Z-Score dan diasumsikan normal. Jadi sebenarnya uji Kolmogorov Smirnov adalah uji beda antara data yang diuji normalitasnya dengan data normal baku. Seperti pada uji beda biasa, jika signifikansi di bawah 0,05 berarti terdapat perbedaan yang signifikan, dan jika signifikansi di atas 0,05 maka tidak terjadi perbedaan yang signifikan. Penerapan pada uji Kolmogorov Smirnov adalah bahwa jika signifikansi di bawah 0,05 berarti data yang akan diuji mempunyai perbedaan yang signifikan dengan data normal baku, berarti data tersebut tidak normal. Dan apabila ZHitung > ZTabel maka data berdistribusi normal, dan apabila ZHitung < ZTabel maka data berdistribusi tidak normal.

b. Multikolinearitas

Multikolinearitas bertujuan untuk mengetahui hubungan linear yang sempurna atau pasti diantara variabel independen yang menjelaskan model regresi (Gujarati, 2009). Bila terjadi hubungan linier yang ”sempurna” pada beberapa atau semua variabel independen maka terdpat korelasi yang sangat kuat diantara

xlix

variabel independen. Pendeteksian multikolinearitas dapat dilihat dari beberapa hal (Gujarati, 2009):

1) Jika nilai dari Variance Inflation Factor (VIF) kurang dari 10 dan nilai tolerance lebih dari 0,1 maka dapat dikatakan bahwa model yang digunakan dalam model terbebas dari multikolinearitas.

2) Jika koefisien korelasi antara masing-masing variabel independen tidak lebih dari 0,70, maka model penelitian terbebas dari multikolinearitas dan sebaliknya.

3) Jika nilai koefisien determinan maupun R-Square diatas 0,60, tapi tidak ada variabel dependen, maka dapat dikatakan bahwa model terkena multikolinearitas.

c. Autokorelasi

Autokorelasi didefinisikan sebagai korelasi antar anggota serangkaian observasi yang diurutkan menurut waktu dan ruang. Pengujian ini perlu dilakukan untuk mengetahui ada tidaknya hubungan antar unsur gangguan pada observasi dengan unsur gangguan pada observasi lain (Gujarati, 2009). Autokorelasi sering terjadi pada sampel dengan metode pengumpulan timeseries. Metode paling terkenal untuk mendeteksi ada tidaknya korelasi adalah menggunakan pengujian Durbin-Watson. Penentuan nilai Durbin-Watson dibantu dengan tabel dl dan du. Penentuan ada tidaknya autokorelasi dapat digunakan patokan nilai Durbin-Watson hitung yang berkisar antara 0 dan 4 (Gujarati, 2009). Bila

l

nilai uji statistik Durbin-Watson lebih kecil dari 1 atau lebih besar dari 3 maka residual dari model regresi berganda tidak bersifat independen atau terjadi auto korelasi.

d. Heteroskesdastisitas

Heteroskesdastisitas adalah penyebaran data regresi yang tidak sama (hetero). Terjadi manakala residual dari model yang diamati tidak memiliki varians konstan dari satu observasi ke observasi lain (Gujarati, 2009). Pengujian dilakukan untuk mengetahui gambaran hubungan antara nilai yang diprediksi dengan Studeized Delete Residual nilai tersebut. Model yang baik memiliki hubungan antara nilai yang diprediksi dengan SDR nilai tersebut bisa dikatakan bersifat homoskesdatisitas (Gujarati, 2009). Heteroskesdastisitas dapat dilihat dari pola pada scatterplot. Heteroskesdastisitas tidak terjadi apabila pada scatterplot menunjukkan sebagai berikut: 1) Titik-titik data menyebar diatas dan dibawah atau di sekitar 0 2) Titik-titik data tidak mengumpul hanya di atas atau di bawah 3) Penyebaran titik tidak boleh membentuk pola berulang melebar,

menyempit, kemudian melebar kembali 4) Penyebaran tidak berpola

3. Pengujian Hipotesis

li

Analisis regresi linier berganda merupakan analisis untuk menguji hubungan secara linier antara dua atau lebih variable independen (X1, X2, X3, ……)terhadap variable dependen (Y) (Djarwanto, 2001).

b. Pengujian Koefisien Regresi Berganda Secara Simultan (uji F) Uji F-statistik ialah untuk menguji pengaruh variabel bebas terhadap varibel tak bebas secara keseluruhan. Jika dalam pengujian kita menerima Ho maka dapat kita simpulkan bahwa tidak terdapat hubungan yang linier antara dependen variabel dengan independen variabel. Untuk mendapatkan Nilai F-statistik, digunakan tabel ANOVA (analysis of variance) seperti diperlihatkan pada tabel di bawah ini :

Tabel III.1 Tabel ANOVA c. d. e. f. ( (Gujarati, 2009) Keterangan

ESS: Explained sum square EMS : Explained mean squares

RSS: Residual sum square RSS : Residual mean squares Sumber Variasi Sum of Squares ( SS ) Degree of Freedom

Mean Square Fischer Test

Akibat Regresi ESS k-1 EMS=ESS/df Akibat Residual RSS n-k RMS=RSS/df F=EMS/RMS Total TSS n-1

lii

TSS: Total sum square

Uji F-statistik biasanya berupa :

Ho = Variabel bebas tidak mempengaruhi variabel tak bebas H1 = Variabel bebas mempengaruhi variabel tak bebas

Dengan menguji tingkat signifikansi =α  dan df = n – k (n = jumlah observasi, k = jumlah parameter) maka hasil pengujian akan menunjukan :

Ho ditolak bila F   s tatistik > F  t abel

c. Pengujian Koefisien Regresi Berganda Secara Uji Parsial (Uji t) Uji t statistik digunakan untuk menguji pengaruh varibel-variabel bebas terhadap variabel tak bebas secara parsial (Hartono, 2008). Uji t-statistik biasanya berupa pengujian hipotesa :

Ho = Variabel bebas tidak mempengaruhi variabel tak bebas H1 = Variabel bebas mempengaruhi variabel tak bebas

Hasil pengujian ini dapat dilihat pada output SPSS melalui table

Coeffisienta dengan melihat nilai p-value (pada kolom Sig.) dari masing-masing variable independen. Dengan menguji dua arah

dalam tingkat signifikansi =α dan df = n – k (n = jumlah

observasi, k = jumlah parameter) maka hasil pengujian akan menunjukan :

Ho tidak ditolak bila t   s t atistik < t  t abel

Ho ditolak bila t   s tatistik > t   t abel

liii

Koefisien determinasi (R2), digunakan untuk mengukur seberapa besar variable-variabel bebas dapat menjelaskan variabel terikat. Koefisien ini menunjukan seberapa besar variasi total pada variabel terikat yang dapat dijelaskan oleh variabel bebasnya dalam model regresi tersebut. Nilai dari koefisien determinasi ialah antara 0 hingga 1.

Nilai R2 yang mendekati 1 menunjukan bahwa variabel dalam model tersebut dapat mewakili permasalahan yang diteliti, karena dapat menjelaskan variasi yang terjadi pada variabel dependennya. Nilai R2 sama dengan atau mendekati 0 (nol) menunjukan variabel dalam model yang dibentuk tidak dapat menjelaskan variasi dalam variable terikat (Gujarati, 2009). Penghitungan R2 diperoleh dari :

dimana

ESS = Explained sum of square

TSS = Total sum of square

BAB IV

Dokumen terkait