• Tidak ada hasil yang ditemukan

1. Uji Kualitas Data a. Uji Validitas

Uji validitas digunakan untuk mengukur sah atau tidak suatu kuesioner. Suatu kuesioner dikatakan valid bila terdapat kesamaan antara data yang terkumpul dengan data yang sesungguhnya terjadi pada objek yang diteliti, cara mengukurnya dengan mengkorelasikan antar skor item instrumen dalam suatu faktor (Sugiyono, 2013:202). Korelasi menggunakan korelasi product moment atau Pearson. Dalam penentuan layak atau tidaknya suatu item yang akan digunakan, Pengujian validitas dalam penelitian ini dilakukan dengan membandingkan nilai r hitung dengan r tabel untuk degree of freedom (df) = n – 2, dalam hal ini n adalah jumlah sampel. Jika r hitung lebih besar dari r tabel dan nilai positif maka butir atau pertanyaan atau indikator tersebut dinyatakan valid (Ghozali, 2013:52-53).

b. Uji Reliabilitas

Uji reliabilitas merupakan alat untuk mengukur kehandalan kuesioner. Suatu kuesioner dikatakan reliabel atau handal jika instrumen yang digunakan beberapa kali untuk mengukur objek yang sama, akan menghasilkan data yang sama (Sugiyono, 2013:202). Suatu konstruk atau variabel dikatakan reliabel jika memberikan nilai Cronbach Alpha > 0,70 (Nunnally, 1994 dalam Ghozali, 2013:48).

2. Uji Asumsi Klasik a. Uji Normalitas

Uji Normalitas bertujuan untuk menguji apakah dalam model regresi, varibel residual memiliki distribusi normal (Ghozali, 2011). Metode grafik yang handal adalah dengan melihat normal probability plot yang membandingkan distribusi kumulatif dari distribusi. Distribusi normal akan membentuk suatu garis lurus diagonal, dan ploting data residual akan dibandingkan dengan garis diagonal. Jika data menyebar di sekitar garis diagonal, maka model regresi memenuhi asumsi normalitas. Jika distribusi data residual normal, maka garis yang menggambarkan data sesungguhnya akan mengikuti garis diagonalnya. Uji normalitas data juga dilakukan dengan uji Kolmogorov-Smirnov. Untuk mempermudah dalam melakukan perhitungan secara sratistik. Suatu data dinyatakan berdistribusi normal jika nilai Asymp Sig (2-tailed) hasil perhitungan Kolmogorov-Smirnov lebih besar dari 1/2 atau 0,05 (Ghozali, 2011).

b. Uji Multikolinieritas

Uji Multikolinieritas bertujuan untuk menguji apakah dalam model regresi ditemukan adanya korelasi antar varibel bebas (independen) (Ghozali, 2011). Model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel independen. Jika variabel independen saling berkorelasi, maka variabel-variabel tidak ortogonal. Variabel

ortogonal adalah variabel independen yang nilai korelasi antar sesama variabel independen sama dengan nol. Multikolonieritas dapat juga dilihat dari nilai tolerance dan lawannya Variance Inflantion Factor (VIF). Kedua ukuran ini menunjukan setiap variabel independen manakah yang dijelaskan oleh variabel independen lainnya. Setiap variabel independen menjadi variabel dependen (terikat) dan diregresi terhadap variabel independen lainya. Tolerance mengukur variabilitas variabel independen yang terpilih yang tidak dijelaskan oleh variabel independen lainya. Jadi nilai Tolerance yang rendah sama dengan VIF tinggi (Karena VIF = 1/tolerance). Nilai cutoff yang umum dipakai untuk menunjukan adanya Multikolonieritas adalah nilai tolerance 0,10 atau sama dengan nilai VIF 10.

c. Uji Heteroskedastisitas

Uji Heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Jika variance dari residual satu pengamatan ke pengamatan yang lain tetap, maka disebut Homoskedastisitas dan jika berbeda, disebutHeteroskedastisitas. Model regresi yang baik adalah yang Homoskedastisitas. Kebanyakan data crosssection mengandung situasi Heteroskedastisitas, karena data ini menghimpun data yang mewakili berbagai ukuran (kecil, sedang, besar). Salah satu cara mendeteksi. Salah satu cara mendeteksi ada

antara nilai prediksi variabel terikat (dependen), yaitu ZPRED dengan residual RSESID. Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola tertentu yang teratur (bergelombang, melebar kemudian menyempit), maka mengindikasikan telah terjadi Heteroskedastisitas dan jika tidak ada pola yang jelas, serta titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y, maka tidak terjadi Heteroskedastisitas. Secara statistik juga dilakukan dengan uji Glesjer, yang bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Model regresi yang baik adalah jika tidak terjadi Heteroskedastisitas yaitu jika nilai signifikan lebih besar dari 0,05 atau disebut terjadi Homoskedasitas, sedangkan jika nilai signifikan lebih kecil dari 0,05, maka terjadi Heteroskedasitas (Ghozali, 2011).

3. Uji Hipotesis

a. Uji F (Uji Simultan)

Uji statistik F pada dasarnya menunjukan apakah semua variabel independen atau bebas yang dimaksudkan dalam model mempunyai pengaruh secara bersama-sama terhadap variabel dependen atau terikat (Ghozali, 2016:96). Bahwa salah satu cara melakukan uji F adalah dengan membandingkan nilai F hasil perhitungan (Fhitung) dengan nilai F menurut tabel (Ftabel). Ho diterima jika Fhitung ≤ Ftabel dan

pembilang = k (jumlah variabel independen) dan dk penyebut = (n-k-1) dengan taraf kesalahan 5% (Sugiyono, 2010:112).

b. Uji t (Uji Parsial)

Uji statistik t menunjukkan seberapa jauh pengaruh satu variabel penjelas atau independen secara individual dalam menerangkan variasi variabel dependen dan digunakan untuk mengetahui ada atau tidaknya pengaruh masing-masing variabel independen secara individual terhadap variabel dependen (Ghazali,2016:95). Dalam pengujian hipotesis yang menggunakan uji dua pihak ( two tails) ini berlaku ketentuan, bahwa bila nilai t hitung berada pada daerah penerimaan H0 atau terletak diantara nilai t tabel, maka H0 diterima dan Ha di tolak. Dengan demikian bila harga t hitung lebih kecil atau sama dengan (≤) dari harga t tabel maka H0 di terima. Nilai t hitung adalah harga mutlak, jadi tidak dilihat (+) atau (-) nya. Untuk membuat keputusan apakah hipotesis itu terbukti atau tidak, maka harga t hitung tersebut dibandingkan dengan t tabel. Untuk melihat t tabel, maka didasarkan pada derajat kebebasan, yang besarnya n-1 dan taraf kesalahan (α) ditetapkan 5% (Sugiyono,2010:112). Salah satu kriteria pengujian adalah dengan membandingkan nilai t hitung dengan nilai t tabel. H diterima jika nilai t hitung berada diantara nilai t tabel (-) dan (+). Dengan demikian, bila nilai t hitung lebih kecil atau sama dengan (≤) t tabel maka Ho diterima dan Ha di tolak.

4. Analisis Regresi Linier Berganda

Analisis Regresi Linier Berganda digunakan untuk menentukan pengaruh dua atau lebih variabel dependen (variabel bebas) terhadap satu variabel independen (variabel terikat) atau untuk membuktikan ada atau tidaknya hubungan fungsional antara dua buah variabel bebas (X) atau lebih dengan sebuah variabel terikat (Y). Variabel dependen dalam penelitian ini adalah loyalitas pelanggan, sedangkan variabel independennya adalah harga, promosi, kualitas pelayanan, dan kepuasan konsumen.

Penelitian ini menggunakan teknik Analisis Regresi Linier Berganda dengan menggunakan program Statistical Product and Service Solution (SPSS). Model regresi pada penelitian ini adalah:

Y = α + β1X1 + β2X2 + β3X3 + β4X4 + е

Keterangan:

Y = loyalitas pelanggan

ɑ = konstanta

1- =koefisien regresi linier masing-masing variabel

X1 = harga

X2 = promosi

X4 = kepuasan konsumen

e = standar kesalahan

5. Koefisien Determinasi (R2)

Koefisien Determinasi (R2) pada intinya mengukur seberapa jauh kemampuan model (harga, promosi, kualitas pelayanan dan kepuasan konsumen) dalam menerangkan variasi variabel dependen atau terikat (loyalitas pelanggan). Nilai koefisien determinasi adalah antara nol (0) dan satu (1). Nilai R2 yang kecil berarti kemampuan variabel-variabel independen (bebas) dalam menjelaskan variasi variabel dependen amat terbatas. Nilai yang mendekati satu berarti variabel-variabel independen memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variasi variabel dependen (Ghozali, 2011).

Untuk regresi dengan lebih dari dua variabel independen, digunakan adjusted R2 sebagai koefisien determinasi. Adjusted R

Square adalah R Square yang telah disesuaikan. Nilai R2 berkisar dari

0 sampai dengan 1. Jika mendekati 1, berarti semakin kuat kemampuan variabel independen dalam menjelaskan variabel dependen. Sebaliknya, jika nilai mendekati angka 0 berarti semakin lemah kemampuan variabel independen untuk apat menjelaskan fluktuasi variabel dependen.

Dokumen terkait