• Tidak ada hasil yang ditemukan

BAB III METODE PENELITIAN

3.9 Teknik Analisis Data

Teknik analisis data merupakan cara menganalisis data penelitian, termasuk alat- alat statistik yang relevan untuk digunakan dalam penelitian (Noor, 2013:163). Dalam hal ini, peneliti menggunakan alat bantu SPSS versi 22.0 dalam melakukan analisis data.

3.9.1 Uji Asumsi Klasik 3.9.1.1 Uji Normalitas

Uji ini berguna untuk tahap awal dalam metode pemilihan analisis data yang bertujuan untuk mengetahui apakah dalam model regresi variabel pengganggu atau residual memiliki distribusi normal (Erlina, 2011:101).

Pengujian ini diperlukan karena untuk melakukan uji t dan uji F mengasumsikan bahwa nilai residual mengikuti distribusi normal dan jika asumsi ini dilanggar atau tidak dipenuhi maka uji statistik menjadi tidak valid untuk jumlah sampel kecil (Erlina, 2011:101).

Dasar pengambilan keputusan dalam uji normalitas ini ialah: jika nilai signifikansi lebih besar dari 0,05, maka data tersebut berdistribusi normal. Sebaliknya, jika nilai signifikansi lebih kecil dari 0,05, maka data tersebut tidak

berdistribusi normal. Dan dasar pengambilan keputusan untuk uji normalitas dengan P-Plot SPSS ialah (SPSS Indonesia):

a. Data dikatakan berdistribusi normal, jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal

b. Sebaliknya data dikatakan tidak berdistribusi normal, jika data menyebar jauh dari arah garis atau tidak mengikuti garis diagonal.

3.9.1.2 Uji Linearitas

Linearitas adalah keadaan di mana hubungan antara variabel dependen dengan variabel independen bersifat linear (garis lurus) dalam range variabel independen tertentu (Erlina, 2011:103). Uji ini digunakan untuk melihat apakah spesifikasi model yang digunakan sudah benar atau tidak (Erlina, 2011:103).

Dasar pengambilan keputusan untuk uji linearitas dalam penelitian ini adalah (SPSS Indonesia):

a. Jika nilai signifikansi lebih besar dari 0,05, maka kesimpulannya adalah terdapat hubungan linear secara signifikan antara variabel X dengan variabel Y.

b. Sebaliknya, jika nilai signifikansi lebih kecil dari 0,05, maka kesimpulannya adalah tidak terdapat hubungan yang linear antara variabel X dengan variabel Y.

3.9.1.3 Uji Multikolinearitas

Uji ini bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi di anntara variabel independen (Erlina, 2011:103). Erlina (2011:103) menjelaskan bahwa model regresi yang baik seharusnya tidak terjadi korelasi antara di antara variabel independen.

Multikoliniearitas adalah situasi adanya korelasi variabel-variabel independen antara yang satu dengan yang lainnya (dalam hal ini kita sebut variabel-variabel bebas ini tidak ortogonal) (Erlina, 2011:103). Erlina (2011:103) juga menjelaskan bahwa variabel-variabel bebas yang bersifat ortogonal adalah variabel bebas yang memiliki nilai korelasi di antaranya sesamanya sama dengan nol.

Dasar pengambilan keputusan pada uji multikolinearitas untuk penelitian ini ialah sebagai berikut (SPSS Indonesia):

a. Jika nilai VIF (Variance Inflation Factor) lebih kecil dari 10,00 maka artinya tidak terjadi multikolinearitas terhadap data yang diuji

b. Jika nilai VIF (Variance Inflation Factor) lebih besar dari 10,00 maka artinya terjadi multikolinearitas terhadap data yang diuji

3.9.1.4 Uji Heterokedastisitas

Pengujian gejala heterokedastisitas menurut Erlina (2011:106) bertujuan untuk melihat apakah dalam model regresi terjadi ketidaksamaan variabel dari residual satu pengamatan ke pengamatan lain, jika varian dari residual satu pengamatan ke pengamatan lain tetap, maka disebut homokedastisitas, dan jika berbeda disebut heterokedastisitas.

Dalam penelitian ini, peneliti menggunakan uji heterokedastisitas dengan grafik scatterplot SPSS. Adapun dasar pengambilan keputusan dalam uji heterokedastisitas ini adalah(SPSS Indonesia):

a. Jika terdapat pola tertentu pada grafik scatterplot SPSS, seperti titik- titik yang membentuk pola yang teratur (bergelombang, menyebar

kemudian menyempit), maka dapat disimpulkan bahwa telah terjadi heterokedastisitas.

b. Sebaliknya, jika tidak ada pola yang jelas, serta titik-titik menyebar, maa indikasinya adalah tidak terjadi heterokedastisitas.

3.9.2 Analisis Regresi Linear Berganda

Analisis regresi (Ety Rochaety, Ratih Tresnati, H. Abdul Majied Latief, 2009:135) adalah salah satu teknik statistik yang dapat digunakan untuk menggambarkan hubungan antara dua variabel atau lebih variabel kuantitatif. Lebih lanjut Ety Rochaety, Ratih Tresnati, H. Abdul Majied Latief (2009:135) menjelaskan persamaan regresi adalah sebuah formula yang menggambarkan hubungan dengan variabel (atau lebih) tersebut. Rangkuti (2003:149) menjelaskan tujuan dari analisis regresi ini adalah untuk mengetahui pengaruh variabel independen terhadap variabel dependen.

Adapun jenis analisis regresi yang digunakan dalam penelitian ini adalah analisis regresi linear berganda. Regresi linear berganda menurut Ety Rochaety, Ratih Tresnati, H. Abdul Majied Latief (2009:142) bertujuan menghitung besarnya pengaruh dua atau faktor variabel bebas terhadap satu variabel terikat dan memprediksi variabel terikat dengan menggunakan dua atau lebih variabel bebas.

Persamaan regresi berganda (Rangkuti, 2003:162) adalah: Y = a + b1 X1+ b2 X2+ b3 X3+....+ bk Xk+ e

Dalam penelitian ini, peneliti menggunakan enam variabel bebas (sense,

feel, think, act, relate, dan perceived value) dan satu variabel terikat (loyalitas

Y = a + b1 X1+ b2 X2+ b3 X3+ b4 X4+ b5 X5+ b6 X6 + e

di mana,

Y = loyalitas pelanggan a = bilangan konstanta

b1 = koefisien regresi variabel sense

b2 = koefisien regresi variabel feel

b3 = koefisien regresi variabel think

b4 = koefisien regresi variabel act

b5 = koefisien regresi variabel relate

b6 = koefisien regresi variabel perceived value

X1 = variabel sense

X2 = variabel feel

X3 = variabel think

X4 = variabel act

X5 = variabel relate

X6 = variabel perceived value

e = error atau sisa (residual)

3.9.3 Uji Hipotesis 3.9.3.1 Uji statistik t

Menurut Kuncoro (2003:218), uji statistik t pada dasarnya menunjukkan seberapa jauh pengaruh satu variabel penjelas secara individual dalam menerangkan variasi variabel terikat. Untuk menguji hipotesis t, Kuncoro (2003:218) lebih lanjut menerangkan formula untuk menghitung statistik t:

dimana S = deviasi standar, yang dihitung dari akar varians.

Cara melakukan uji t adalah dengan cara sebagai berikut (Kuncoro, 2003:219): 1. Quick look, bila jumlah degree of freedom adalah 20 atau lebih, dan derajat

kepercayaan sebesar 5% (0,05), maka H0 yang menyatakan bi = 0 dapat ditolak

bila nilai t lebih besar dari 2 (dalam nilai absolut). Dengan kata lain, kita menerima hipotesis alternatif, yang menyatakan bahwa suatu variabel independen secara variabel independen secara individual mempengaruhi variabel dependen.

2. Membandingkan nilai statistik t dengan titik kritis menurut tabel: apabila nilai statistik t hasil perhitungan lebih tinggi dibanding nilai t tabel, kita menerima hipotesis alternatif, yang menyatakan bahwa suatu variabel independen secara individual mempengaruhi variabel dependen.

Dasar pengambilan keputusan untuk uji t parsial dalam penelitian ini ialah sebagai berikut (SPSS Indonesia):

1. Berdasarkan nilai t hitung dan t tabek

a. Jika nilai t hitung > t tabel, maka variabel bebas berpengaruh terhadap variabel terikat

b. Jika nilai t hitung < t tabel, maka variabel bebas tidak berpengaruh terhadap variabel terikat

2. Berdasarkan nilai signifikansi hasil output SPSS

a. Jika nilai Sig. < 0,05 maka variabel bebas berpengaruh signifikan terhadap variabel terikat

b. Jika nilai Sig. > 0,05 maka variabel bebas tidak berpengaru signfikan terhadap variabel terikat

Adapun nilai t tabel diperoleh dengan rumus: t tabel = (α/2; n-k-1)

t tabel = (0,05/2; 100-6-1)

t tabel = (0,025; 93), maka diperoleh nilai t tabel 1,989. dimana: α = tingkat kepercayaan = 5% = 0,05

n = jumlah responden k = jumlah variabel bebas

3.9.3.2 Uji simultan (uji statistik F)

Uji statistik F pada dasarnya menunjukkan apakah semua variabel bebas yang dimasukkan dalam model mempunyai pengaruh secara bersama-sama terhadap variabel terikat (Kuncoro, 2003:219). Untuk menguji hipotesis menggunakan statistik, dapat menggunakan formula berikut (Kuncoro, 2003:219):

dimana SSR = sum of squares due to regression ;

SSE = sum of squares error = ; n = jumlah observasi;

k = jumlah parameter (termasuk intersep) dalam model; MSR = mean squares due to regression;

MSE = mean of squares due to error

Cara melakukan uji F adalah dengan cara sebagai berikut (Kuncoro. 2003:220): 1. Quick look, bila nilai F lebih besar daripada 4 maka Ho yang menyatakan

kita menerima hipotesis alternatif, yang menyatakan bahwa semua variabel independen secara serentak dan signifikan mempengaruhi variabel dependen. 2. Membandingkan nilai F hasil perhitungan dengan nilai F menurut tabel: bila

nilai F hasil perhitungan lebih besar daripada nilai F menurut tabel, maka hipotesis alternatif diterima, yang menyatakan bahwa semua variabel independen secara serentak dan signifikan mempengaruhi variabel dependen Dasar pengambilan keputusan dalam uji F ini ada dua, yaitu (SPSS Indonesia):

1. Nilai F

a. Jika nilai F hitung > dari F tabel, maka disimpulkan bahwa terdapat pengaruh signifikan secara simultan antara variabel bebas terhadap variabel terikat

b. Jika nilai F hitung < dari F tabel, maka disimpulkan bahwa tidak terdapat pengaruh signifikan secara simultan antara variabel bebas terhadap variabel terikat

2. Nilai Sig

a. Jika nilai Sig. < 0,05, maka terdapat pengaruh signifikan secara simultan antara variabel bebas terhadap variabel terikat

b. Jika nilai Sig. > 0,05, maka tidak terdapat pengaruh signifikan secara simultan antara variabel bebas terhadap variabel terikat

Nilai F tabel diperoleh dengan rumus sebagai berikut: F tabel = (df1; df2)

F tabel = {(k-1); (n-k)} F tabel = {(7-1); (100-7)}

F tabel = (6; 93), maka diperoleh nilai F tabel sebesar 2,20. dimana: df1 = degree of freedom untuk pembilang (N1)

df2 = degree of freedom untuk penyebut (N2) k = jumlah variabel bebas dan terikat n = jumlah sampel

3.9.3.3 Koefisien Determinasi (R2)

Menurut Kuncoro (2003:220), koefisien determinasi (R2) pada intinya mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel terikat. Formula menghitung koefisien determinasi adalah (Kuncoro, 2003:220):

R2 = (TSS – SSE)/ TSS = SSR/TSS dimana, TSS = total jumlah kuadrat;

SSE = sum of squares error;

SSR = sum of squares due to regression

Kuncoro (2003:220) lebih lanjut menjelaskan bahwa nilai koefisien determinasi adalah di antara nol dan satu, nilai R2 yang kecil berarti kemampuan variabel-variabel dalam menjelaskan variasi variabel dependen dalam menjelaskan variasi variabel dependen amat terbatas. Nilai yang mendekati satu berarti variabel-variabel independen memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variasi variabel dependen (Kuncoro, 2003:221).

Dokumen terkait