• Tidak ada hasil yang ditemukan

BAB III METODE PENELITIAN

3.10 Metode Analisis Data

Teknik analisis data dalam penelitian ini adalah: 3.10.1 Analisis Statistik Deskripstif

Statistik deskriptif adalah statistik yang digunakan dalam menganalisis data dengan cara mendeskripsikan atau menggambarkan data yang telah terkumpul sebagaimana adanya tanpa maksud membuat kesimpulan yang berlaku untuk umum atau generalisasi (Ginting dan Situmorang, 2008:187).

3.10.2. Analisis Regresi Linear Berganda

Analisis regresi linear berganda adalah untuk menghitung besarnya pengaruh dua atau lebih variabel bebas terhadap satu variabel terikat (Rochaety,

et.al, 2009:142). Sanusi (2003:309) menyatakan bahwa digunakan rumus analisis regresi linier berganda sebagai berikut:

Di mana :

Y = Kepuasan Nasabah a = Konstanta

b1,2,3 = Koefisien Regresi Berganda x1 = Skor dimensi Financial Benefit

x2 = Skor dimensi Social Benefit

x3 = Skor dimensi Structural Ties e = Standar Error

3.10.3. Uji Asumsi Klasik

Pengujian asumsi klasik diperlukan untuk mengetahui apakah hasil estimasi regresi yang dilakukan benar-benar bebas dari adanya gejala heteroskedastisitas, gejala multikolinearitas, dan gejala autokorelasi. Model regresi akan dapat dijadikan alat estimasi yang tidak bias jika telah memenuhi persyaratan BLUE (best linear unbiased estimator), yakni tidak terdapat heteroskedastistas, tidak terdapat multikolinearitas, dan tidak terdapat autokorelasi (Situmorang dan Lufti, 2012:151).

Jika terdapat heteroskedastisitas, maka varian tidak konstan sehingga dapat menyebabkan biasnya standar error. Jika terdapat multikolinearitas, maka akan sulit untuk mengisolasi pengaruh-pengaruh individual dari variabel, sehingga tingkat signifikansi koefisien regresi menjadi rendah. Dengan adanya autokorelasi mengakibatkan penaksir masih tetap bias dan masih tetap konsisten hanya saja

menjadi tidak efisien. Oleh karena itu, uji asumsi klasik perlu dilakukan. Beberapa jenis pengujian yang dilakukan dalam penelitian ini adalah sebagai berikut:

3.10.3.1 Uji Normalitas

Uji normalitas bertujuan untuk mengetahui apakah distribusi sebuah data mengikuti atau mendekati distribusi normal, yakni distribusi data dengan bentuk lonceng dan distribusi data tersebut tidak menceng ke kiri atau menceng ke kanan (Ghozali, 2006:110). Uji normalitas dilakukan dengan menggunakan pendekatan Kolmogorov-Smirnov. Dengan menggunakan tingkat signifikan 5% (0,05) maka jika nilai Asymp.Sig. (2-tailed) di atas nilai signifikan 5% artinya variabel residual berdistribusi normal.

3.10.3.2 Uji Heteroskedastisitas

Uji Heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan varians dan residual satu pengamatan ke pengamatan yang lain. Jika varians dari residual satu pengamatan ke pengamatan yang lain tetap, maka disebut Homoskedastisitas dan jika berbeda disebut Heteroskedastisitas. Model regresi yang baik adalah yang homoskedastisitas atau tidak terjadi heteroskedastisitas.

Uji Heteroskedastisitas dilakukan dengan menggunakan uji Glejser, yang dilakukan dengan meregresikan nilai absolut residual yang diperoleh dari model regresi sebagai variabel dependen terhadap semua variabel independen dalam model regresi. Apabila nilai koefisien regresi dari masing-masing variabel

bebas dalam model regresi ini tidak signifikan secara statistik, maka dapat disimpulkan tidak terjadi heteroskedastisitas (Situmorang dan Lufti, 2012: 116). 3.10.3.3 Uji Multikolinieritas

Uji Multikolinearitas bertujuan untuk menguji apakah dalam model regresi ditemukan adanya korelasi antar variabel bebas (independen). Dalam model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel bebas. Uji Multikolinearitas dilakukan dengan melihat nilai tolerance dan variance inflation factor (VIF) dari hasil analisis dengan menggunakan SPSS. Apabila nilai

tolerance value lebih tinggi daripada 0,10 atau VIF lebih kecil daripada 5 maka dapat disimpulkan tidak terjadi multikolinearitas (Situmorang dan Lufti, 2012:139).

3.10.4 Pengujian Hipotesis

Sebuah perhitungan statistik disebut signifikan apabila uji statistiknya berada didalam daerah kritis atau daerah di mana h0 ditolak. Sebaliknya, uji tersebut dinilai tidak signifikan apabila uji statistiknya berada di dalam daerah di mana h0 diterima. Dalam analisis regresi berganda terdapat tiga jenis kriteria ketetapan, yaitu:

3.10.4.1 Uji Simultan (Uji F)

Untuk menguji kebenaran hipotesis pertama digunakan uji F yaitu untuk menguji keberartian/signifikansi regresi secara keseluruhan dengan rumus hipotesis sebagai berikut: H0 : b1 = b2 = b3 = 0

Artinya variasi dari model regresi berhasil menerangkan variasi variabel bebas secara keseluruhan, sejauh mana pengaruhnya terhadap variabel tidak bebas (variabel terikat). Ha : b1 ≠ b2 ≠ b3 ≠ 0 Artinya variasi dari model regresi tidak berhasil menerangkan variasi variabel bebas secara keseluruhan, sejauh mana pengaruhnya terhadap variabel tidak bebas (variabel terikat).

Pengujian dengan uji F variansnya adalah dengan membandingkan Fhitung (Fh) dengan Ftabel (Ft) pada α = 0,05 apabila hasil perhitungannya menunjukkan:

1. Fh > Ft, maka H0 ditolak dan Ha diterima

Artinya variasi dari model regresi berhasil menerangkan variasi variabel bebas secara keseluruhan, sejauh mana pengaruhnya terhadap variabel tidak bebas (variabel terikat).

2. Fh < Ft, maka H0 diterima dan Ha ditolak

Artinya variasi dari model regresi tidak berhasil menerangkan variasi variabel bebas secara keseluruhan, sejauh mana pengaruhnya terhadap variabel tidak bebas (variabel terikat).

3.10.4.2 Uji secara Parsial (Uji t)

Uji t pada dasarnya menunjukkan seberapa jauh pengaruh satu variabel bebas secara individual dalam menerangkan variasi variabel terikat. Tujuan dari uji t adalah untuk menguji koefisien regresi secara individual.

Untuk menguji kebenaran hipotesis kedua langkah pertama yang dilakukan adalah pengujian secara parsial melalui uji t. Adapun rumusan hipotesis dengan

menggunakan Uji t adalah sebagai berikut: H0: b1 = b2 = b3 = 0 Artinya variasi variabel bebas dapat menerangkan variabel terikat dan terdapat pengaruh diantara kedua variabel yang diuji.

Ha : b1 ≠ b2 ≠ b3 ≠ 0 Artinya variasi variabel bebas tidak dapat menerangkan variabel terikat dan terdapat pengaruh antara dua variabel yang diuji.

Pengujian dilakukan melalui uji t dengan membandingkan thitung (th) dengan t tabel (tt) pada α 0,05. Apabila hasil perhitungan menunjukkan:

1. th ≥ tt maka H0 ditolak dan Ha diterima

Artinya variasi variabel bebas dapat menerangkan variabel tidak bebas (variabel terikat) dan terdapat pengaruh diantara kedua variabel yang diuji.

2. th < tt maka H0 diterima dan Ha ditolak

Artinya variasi variabel bebas tidak dapat menerangkan variabel tidak bebas (variabel terikat) dan terdapat pengaruh antara dua variabel yang diuji.

Untuk membuktikan hipotesis pertama, yaitu untuk mengetahui besarnya pengaruh secara keseluruhan dihitung koefisien determinasi multiple-nya (R2). Jika R2 yang diperoleh dari hasil perhitungan mendekati 1 (satu), maka semakin kuat model tersebut dapat menerangkan variabel tergantungnya. Kemudian dilakukan pengujian variansnya dengan uji F. Hipotesis diterima apabila thitung lebih besar dari t tabel (th > tt) atau diperoleh harga p < 0,05.

Untuk membuktikan hipotesis kedua, masing-masing koefisien regresinya diuji dengan uji t. Hasil uji t bermakna apabila diperoleh thitung lebih besar dari ttabel (th > tt) atau diperoleh harga probabilitas signifikannya < 0,05 (α). Untuk pengaruh yang dominan ditentukan oleh koefisien regresi terbesar.

3.10.4.3 Uji Koefisien Determinasi (R2)

Koefisien determinasi mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel bebas atau predictor-nya (Situmorang dan Lutfi, 2012:154). Batas nilai dari R2 adalah 0 sampai dengan 1, dimana 0 ≤ R 2 ≤ 1. Semakin mendekati nol atau sama dengan nol berarti model dinyatakan tidak baik atau variasi model dalam menjelaskan sangat terbatas, sebaliknya semakin mendekati satu model semakin baik.

Kelemahan mendasar dalam penggunaan koefisien determinasi adalah bias terhadap jumlah variabel bebas. Semakin banyak variabel bebas ditambahkan ke dalam model maka R2 akan meningkat walaupun variabel tersebut tidak berpengaruh secara signifikan ke dalam model. Fungsi dari Adjusted R Square

adalah mengurangi keraguan tersebut. Oleh karena itu banyak peneliti yang menganjurkan untuk menggunakan nilai Adjusted R Square untuk mengevaluasi model.

AdjR2 = 1− �(1−R2)� N−1 N−P−1��

Dimana N adalah jumlah observasi dan P adalah jumlah parameter dari koefisien determinasi. Selain itu model Godness of fit-nya belum tentu lolos dalam uji asumsi klasik, karena itu kriteria pemilihan model tidak bisa didasarkan pada nilai R2 saja. Seringkali dalam hasil peneltian dijumpai bahwa nilai Adjusted R Square bernilai negatif.

Dokumen terkait