• Tidak ada hasil yang ditemukan

Perbankan Syariah CAR

METODE PENELITIAN

3.8. Teknik Analisis Data 1. Uji Asumsi Klasik

Sebelum dilakukan analisis regresi terlebih dahulu dilakukan uji asumsi klasik terlebih dahulu. Uji asumsi klasik digunakan untuk menguji apakah model regresi benar-benar menunjukkan hubungan yang signifikan dan representatif. Untuk menentukan ketetapan model ini, perlu dilakukan pengujian atas beberapa asumsi klasik dari ordinary least squares (OLS) yang secara rinci dapat dijelaskan sebagai berikut:

1. Uji Normalitas

Uji normalitas bertujuan untuk menguji apakah model regresi, variabel pengganggu atau residual memiliki distribusi normal. Uji normalitas digunakan untuk mengetahui suatu populasi suatu data dapat dilakukan dengan analisis grafik. Salah satu cara termudah untuk melihat normalitas residual adalah dengan melihat grafik histogram dan normal probability plot yang membandingkan distribusi kumulatif dari data sesungguhnya dengan distribusi kumulatif dengan distribusi normal (Ghozali, 2006: 147). Dasar pengambilan keputusan sebagai berikut :

1) Jika data menyebar di sekitar garis diagonal dan mengikuti garis diagonal atau grafik histogramnya menunjukkan pola distribusi normal regresi memenuhi asumsi normalitas.

2) Jika data menyebar jauh dari garis diagonal dan atau tidak mengikuti arah garis diagonal atau grafik histogram tidak menunjukkan pola distribusi normal regresi, maka model regresi tidak memenuhi asumsi normalitas.

Pengujian normalitas menggunakan uji statistik non parametik Kolmogorov-Smirnov (K-S) dilakukan dengan membuat hipotesis nol (H0) untuk data berdistribusi normal dan hipotesis alternatif (Ha) untuk data berdistribusi tidak normal.

Hipotesis yang dikemukakan:

a. Jika probabilitas lebih besar dari 0,05 (> 0,05) maka H0 diterima, yaitu variabel residual terdistribusi normal.

b. Jika probabilitas lebih kecil dari 0,05 (< 0,05) maka H0 ditolak, yaitu variabel residual tidak terdistribusi normal.

Penerapan pada uji Kolmogorov Smirnov adalah bahwa jika signifikansi di bawah 0,05 berarti data yang akan diuji mempunyai perbedaan yang signifikan dengan data normal baku, berarti data tersebut tidak normal. 2. Uji Multikolinearitas

Menurut Imam Ghozali (2005: 110) uji multikolinearitas adalah adanya hubungan linier yang sempurna antara beberapa atau semua variabel independen. Uji ini bertujuan untuk mengetahui apakah model regresi masing-masing variabel bebas (independen) saling berhubungan secara linier. Model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel independen. Jika variabel independen saling berkorelasi, maka variabel-variabel ini tidak ortogonal. Variabel ortogonal adalah variabel independen yang nilai korelasi antar sesama variabel independen sama dengan nol.

Multikolinearitas dideteksi dengan menggunakan nilai tolerance dan

independen manakah yang dijelaskan oleh variabel independen lainnya. Tolerance mengukur variabilits variabel independen yang terpilih, yang tidak dapat dijelaskan oleh variabel independen lainnya. Nilai tolerance yang rendah sama dengan nilai VIF tinggi (karena VIF=1/Tolerance). Nilai cut-off yang umum dipakai untuk menunjukkan adanya multikolinearitas adalah nilai Tolerance ≤ 0,10atau sama dengan VIF. Untuk mendeteksi ada tidaknya multikolinearitas dalam model regresi adalah sebagai berikut:

a. Nilai R yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi secara individual variabel-variabel bebas banyak yang tidak signifikan mempengaruhi variabel terikat.

b. Menganalisa matrik korelasi antar variabel bebas jika terdapat korelasi antar variabel bebas yang cukup tinggi (>0,9) hal ini merupakan indikasi adanya multikolinearitas.

c. Dilihat dari nilai VIF dan Tolerance. Sebagai dasar acuannya dapat disimpulkan.

1) Jika nilai tolerance > 0,01 dan nilai VIF < 10, maka dapat disimpulkan bahwa tidak ada multikolinearitas antar variabel independen dalam model regresi.

2) Jika nilai tolerance < 0,10 dan nilai VIF > 10, maka dapat disimpulkan bahwa ada multikolinearitas antar variabel independen dalam model regresi.

Menurut Ghozali (2006: 100), uji autokorelasi bertujuan untuk menguji apakah dalam model regresi linear ada korelasi antara kesalahan pengganggu (residual) pada periode t dengan kesalahan pengganggu pada periode t-1 (sebelumnya). Jika terjadi korelasi maka dinamakan problem korelasi. Model regresi yang baik adalah regresi bebas dari autokorelasi. Untuk mendeteksi autokorelasi dapat dilakukan uji statistik melalui Uji Durbin-Waston (DW test). Durbin Watson test dilakukan dengan membuat hipotesis:

H0 : tidak ada autokorelasi (r = 0) Ha : ada autokorelasi (r ≠ 0)

Untuk uji Durbin-Watson kita akan membandingkan hasil DW statisti dengan DW tabel. Jika DW statistik > DW tabel, maka dapat disimpulkan bahwa tidak terdapat problem autokorelasi. Sedangkan uji statistik runs test jika diperoleh nilai signifikasi > 0,05, maka dapat disimpulkan bahwa data kita memenuhi data asumsi klasik autokorelasi. Dan pada Box-Ljung jika dari 16 lag yang dihasilkan terdapat dua lag atau lebih yang nilainya signifikan, maka dapat disimpulkan bahwa data kita tidak terjadi problem autokorelasi (Latan dan Temalati, 2013: 57). Pengambilan keputusan ada tidaknya autokorelasi, didasarkan atas hal berikut ini:

a. Bila nilai DW terletak antara batas atas atau upper boud (du) dan (4-du), maka koefisien autokorelasi = 0, berarti tidak terjadi gejala autokorelasi. b. Bila nilai DW lebih rendah daripada batas bawah atau lower bound (dl)

c. Bila DW lebih besar dari (4-dl) maka koefisien autokorelasi < 0, berarti ada autokorelasi negatif.

d. Bila DW terletak antara (du) dan (dl) atau DW terletak antara (4-du) dan (4-dl), maka hasilnya tidak dapat disimpulkan.

Tabel 3.3.

Aturan Keputusan Uji Autokorelasi

Hipotesis awal (Ho) Keputusan Jika

Tidak ada autokorelasi positif Tolak 0 < d < dL

Tidak ada autokorelasi positif Tidak ada keputusan dL ≤ d ≤ dU

Tidak ada autokorelasi negative Tolak 4- dL < d < 4 Tidak ada autokorelasi negative Tidak ada keputusan 4-dU ≤ d ≤ 4- dU Tidak ada autokorelasi, positif atau

negative

Tidak tolak dU ≤ d ≤ 4- dU

Sumber: Modul Praktikum Statistika (Astuti, 2014: 65) 4. Uji Heteroskedastisitas

Uji Heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan varians dari residual satu pengamatan ke pengamatan yang lain. Jika varians dari residual satu pengamatan ke pengamatan lain tetap, maka disebut homoskedastisitas dan jika berbeda disebut heteroskedastisitas. Model regresi yang baik adalah yang homokedastisitas atau tidak terjadi heteroskedastisitas (Ghozali, 2006: 125).

Salah satu cara untuk mendeteksi adanya heteroskedastisitas adalah dengan melihat grafik plot antara nilai prediksi variabel independen (ZPRED) dengan residualnya (SRESID). Deteksi ada tidaknya heteroskedastisitas dapat dilakukan dengan melihat ada tidaknya pola tertentu pada grafik scatterplot antara

SRESID dan ZPRED dimana sumbu Y adalah Y yang diprediksi, dan sumbu X adalah residual (Y prediksi – Y sesungguhnya) yang telah di-studentized (Ghozali, 2006: 126). Dasar analisisnya adalah sebagai berikut:

a. Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola tertentu yang teratur (gelombang melebar kemudian menyempit), maka mengindikasikan telah terjadi heteroskedastisitas.

b. Jika tidak ada pola yang jelas, serta titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas

3.8.2. Uji Ketepatan Model

1. Uji Koefisien Determinasi (R²)

Koefisien Determinasi pada intinya mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel dependen. Nilai koefisien determinasi adalah antara 0 dan 1. Nilai koefisien determinasi kecil, berarti kemampuan variabel-variabel independen dalam menjelaskan variasi variabel dependen sangat terbatas. Nilai koefisien determinasi mendekati 1, berarti kemampuan variabel-variabel independen memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variabel-variabel dependen (Ghozali, 2005: 83). Tujuan menghitung koefisien determinasi adalah untuk mengetahui pengaruh variabel independen terhadap variabel dependen. Jika dalam proses mendapatkan nilai R² yang tinggi adalah baik, tetapi jika nilai R² rendah tidak berarti model regresi jelek (Ghozali, 2009: 15).

Menurut Ghozali (2005: 83), kelemahan mendasar penggunaan koefisien determinasi adalah bias terhadap jumlah variabel independen yang dimasukkan dalam model. Setiap tambahan satu variabel independen, maka R² pasti akan meningkat. Oleh karena itu, banyak penelitian yang menggunkan nilai adjusted R² pada saat mengevaluasi model regresi. Tidak seperti R², nilai adjusted R² dapat naik atau turun apabila satu variabel independen ditambahkan ke dalam model.

2. Uji secara Simultan (Uji Statistik F)

Uji statistik F pada dasarnya menunjukkan apakah semua variabel independen yang dimasukkan dalam model mempunyai pengaruh secara bersama-sama/simultan terhadap variabel dependen (Ghozali, 2009: 16). Hipotesis nol (H0) yang akan diuji apakah semua parameter secara simultan sama dengan nol, atau:

1) H0 : β1 + β2 + β3 = 0, tidak terdapat pengaruh yang signifikan dari variabel-variabel independen secara bersama-sama terhadap variabel dependennya.

2) Ha : β1 ≠ β2 ≠ β3 ≠ 0, terdapat pengaruh yang signifikan dari variabel-variabel independen secara bersama-sama terhadap variabel-variabel dependennya. Untuk menguji hipotesis ini digunakan statistik F dengan kriteria pengambilan keputusan sebagai berikut (Ghozali, 2006:88) :

a. Quik look : bila nilai F lebih besar daripada 4 maka H0 dapat ditolak pada derajat kepercayaan 5%. Dengan kata lain, kita menerima hipotesis alternatif yang menyatakan bahwa semau variabel independen secara serentak dan signifikan mempengaruhi variabel dependen.

b. Membandingkan nilai F hasil perhitungan dengan nilai F menurut tabel. Bila nilai F hitung lebih besar daripada nilai F tabel, maka H0 ditolak dan Ha diterima.

3.8.3. Analisis Regresi Linear Berganda

Setelah melalui uji asumsi klasik, yang meliputi uji normalitas, uji autokorelasi, uji multikolinearitas dan uji heteroskedastisitas, serta data telah terdistribusi normal, maka data yang sudah dikumpulkan tersebut dianalisa dengan menggunakan metode regresi linear berganda. Analisis data regresi linier berganda digunakan karena dalam penelitian ini terdiri lebih dari satu variabel bebas dan hanya ada satu variabel terikat. Hasil analisis regresi adalah berupa koefisien regresi untuk masing-masing variabel independen. Koefisien ini diperoleh dengan cara memprediksi nilai variabel dependen dengan suatu persamaan (Ghozali, 2011).

Dalam pembentukan regresi linear berganda, lebih sesuai dengan kenyataan di lapangan bahwa suatu variabel terikat tidak hanya dapat dijelaskan oleh satu variabel bebas saja tetapi perlu dijelaskan oleh beberapa variabel bebas (Suharjo, 2008: 71). Adapun model dasarnya dapat dirumuskan sebagai berikut:

Y = a + β1X1 + β2X2 + β3X3+ β4X4+ β5X5+e Dimana :

Y : Market Share (MS)

a : Konstanta Persamaan Regresi

β1 – β5 : Koefisien Variabel Independen X1 : DPK

X2 : CAR X3 : FDR X4 : NPF X5 : ROA

e : Variabel pengganggu atau faktor-faktor di luar variabel yang tidak dimasukkan sebagai variabel model di atas (kesalahan residual).

3.8.4. Uji Hipotesis (Uji t)

Uji statistik t pada dasarnya menunjukkan seberapa jauh pengaruh satu variabel bebas secara individual dalam menerangkan variasi variabel dependen dengan hipotesis sebagai berikut (Ghozali, 2006: 88):

a. Hipotesis nol atau H0 : bi = 0 artinya variabel independen bukan merupakan penjelas yang signifikan terhadap variabel dependen. b. Hipotesis alternatif atau Ha/ : bi ≠ 0 artinya variabel independen

merupakan penjelas yang signifikan terhadap variabel dependen. Untuk mengetahui kebenaran hipotesis digunakan kriteria bila t hitung > t tabel maka menolak H0 dan menerima Ha, artinya ada pengaruh antara variabel dependen terhadap variabel independen dengan derajat keyakinan yang digunakan 5% dan sebaliknya jika t hitung < t tabel berarti menerima H0 dan menolak Ha. Dalam menerima atau menolak hipotesis yang diajukan dengan melihat hasil output SPSS, kita dapat hanya melihat nilai dari signikan uji t masing-masing variabel. Jika nilai signifikan < 0,05 maka dapat kita simpulkan bahwa menolak H0 dan menerima Ha (Ghozali, 2006: 89)

Dokumen terkait