• Tidak ada hasil yang ditemukan

BAB II : LANDASAN TEORI

G. Teknik Analisis Data

Metode analisis yang digunakan untuk menguji serta melakukan estimasi dari data yang diperoleh dalam suatu permodelan. Alat analisis yang digunakan adalah analisis regresi berganda yang dipergunakan untuk menganalisis pengaruh Capital Adequacy Ratio (CAR), Non Perfoming Financing (NPF), Financing to Deposit Ratio (FDR) dan Biaya Operasional

36

dan Pendapatan Operasional (BOPO) terhadap Return on Assets (ROA) pada bank Muamalat Indonesia. Untuk memperkuat pengujian regresi berganda tersebut dilakukan uji normalitas serta uji penyimpangan asumsi klasik (normalitas, multikolinearitas, heteroskedastisitas dan autokorelasi). Pengujian hipotesis menggunakan uji parsial (Uji t) dan uji simultan (Uji F). Koefisien determinasi digunakan untuk mengetahui seberapa besar model atau variabel terikat Return on Asset mampu dijelaskan oleh variabel bebas (Nunung, 2018).

1. Uji Asumsi Klasik

Setelah dilakukan analisis regresi linier, maka terlebih dahulu dilakukan pengujian keabsahan regresi berdasarkan asumsi klasik untuk mengukur ketepatan fungsi regresi dalam menaksir nilai aktualnya. Pengujian asumsi klasik terdiri dari:

a. Uji Normalitas

Uji normalitas untuk mengetahui apakah variabel dependen, independen atau keduannya berdistribusi normal, mendekati normal atau tidak. Model regresi yang baik hendaknya berdistribusi normal atau mendekati normal. Mendeteksi apakah data berdistribusi normal atau tidak dapat diketahui dengan menggambarkan penyebaran data melalui sebuah grafik. Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonalnya, model regresi memenuhi asumsi normalitas (Husein, 2013 : 181). Uji Normalitas pada regresi bisa menggunakan beberapa metode, antara lain yaitu dengan metode Kolmogorov-Smirnov Z untuk menguji normalitas data masing-masing variabel dan metode Normal Probability Plots (Duwi Priyatno, 2010: 54).

Metode Kolmogorov-Smirnov Z adalah ketika nilai probabilitas ≥ 0,05 maka data dinyatakan berdistribusi normal, sebaliknya jika nilai probabilitasnya < 0,05 maka data dinyatakan berdistribusi tidak normal (Imam Gunawan, 2016: 91). Metode yang digunakan dalam penelitian ini dengan menggunakan metode Kolmogorov-Smirnov Z.

b. Uji Multikolinieritas

Uji multikolinieritas untuk mengetahui apakah pada model regresi ditemukan adanya korelasi antar variabel independen. Model regresi yang baik seharusnya tidak terjadi korelasi antar variabel independen. Ada atau tidaknya multikolinieritas dapat diketahui dengan melihat nilai Tolerance dan VIF dengan bantuan SPSS. Metode pengambilan keputusannya, yaitu jika semakin kecil nilai Tolerance dan semakin besar VIF maka semakin mendekati terjadinya masalah multikolinieritas. Dalam kebanyakan penelitian menyebutkan bahwa jika Tolerance lebih dari 0,1 dan VIF kurang dari 10 maka tidak terjadi multikolinieritas (Duwi Priyanto, 2010 : 67).

c. Uji Heteroskedastisitas

Uji heteroskedastisitas dilakukan untuk mengetahui apakah dalam sebuah model regresi terjadi ketidaksamaan varians dari residual suatu pengamatan ke pengamatan lain. Jika varians dari residual suatu pengamatan ke pengamatan lain tetap, disebut homoskedastisitas, sementara itu , untuk varians yang berbeda disebut heteroskedastisitas. Model yang baik adalah tidak terjadi heteroskedastisitas (Husein, 2013: 179). Untuk mendeteksi ada tidaknya heteroskedestisitas ada beberapa metode, antara lain dengan cara uji spearman‟s rho, uji park, uji glejser, dan dengan pola titik-titik pada scatterplots regresi.

Dalam penelitian ini menggunakan Uji heteroskedastisitas dengan metode scatterplot dengan bantuan software SPSS. Hasil pengujian dapat dilihat dengan melihat titik-titik yang menyebar secara acak, baik di bagian atas nol atau di bagian bawah 0 dari sumbu vertical atau sumbu Y, maka dapat di simpulkan bahwa tidak terjadi heterokedatisitas dalam model regresi (Sarjono & Winda Julianita, 2013: 70). Untuk mengurangi subjektivitas, dilakukan pengujian heteroskedastisitas dengan uji spearman‟s rho dengan melihat nilai signifikansi antara variabel independen dengan data residual, dimana

38

jika nilai signifikansi lebih besar dari 0,05 maka tidak terjadi gejala heteroskedastisitas (Duwi Priyatno, 2010: 71).

d. Uji Autokorelasi

Uji Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu sama lain. Masalah ini timbul karena residual tidak bebas dari suatu observasi ke observasi lainnya. Dengan kata lain, masalah ini sering kali ditemukan apabila kita menggunakan data runtut waktu. Cara yang dapat digunakan untuk mendeteksi ada tidaknya autokorelasi, salah satunya menggunakan Uji Durbin- Watson. Uji Durbin-Watson digunakan untuk autokorelasi tingkat satu dan mensyaratkan adanya intercept dalam model regresi dan tidak ada variabel lain diantara variabel penjelas (Mudrajad, 2007 : 90). Keputusan ada tidaknya autokorelasi adalah:

1. Bila nila DW lebih besar daripada batas atas (upper bound, U), maka koefisien autokorelasi sama dengan nol. Artinya, tidak ada autokorelasi positif.

2. Bila nilai DW lebih rendah daripada batas bawah (lower bound, L), koefisien autokorelasi lebih besar dari nol. Artinya ada autokorelasi positif.

3. Bila nilai DW terletak di antara batas atas dan batas bawah, maka tidak dapat disimpulkan (Mudrajad, 2007 : 90).

2. Analisis Regresi Linear Berganda

Analisis regresi linier berganda digunakan untuk menguji pengaruh lebih dari satu independen variabel terhadap dependen variabel (Tony Wijaya, 2009 : 99). Dalam penelitian ini digunakan untuk mengetahui apakah terdapat pengaruh CAR, NPF, dan BOPO terhadap Profitabilitas (Return On Assets). Persamaan regresinya yaitu:

Keterangan:

Y = Profitabilitas (Return On Assets) X1 = Capital Adequacy Ratio

X2 = Non Performing Financing X3= Financing to Deposit Ratio

X4 = Beban Operasional Pendapatan Operasional α = Konstanta e = Error β1 = Koefisien regresi 1 β2 = Koefisien regresi 2 β3 = Koefisien regresi 3 3. Pengujian Hipotesis

Pengujian hipotesisadalah suatu prosedur yang akan menghasilkan suatu keputusan, yaitu keputusan menerima atau menolak hipotesis tersebut (Iqbal, 2004: 31).

a. Uji Parsial ( Uji t)

Pengujian ini bertujuan untuk menguji apakah secara individu ada pengaruh antara variabel-variabel bebas dengan variabel terkait. Pengujian secara parsial untuk setiap koefisien regresi diuji untuk mengetahui pengaruh secara parsial antara variabel bebas dengan variabel terikat pada tingkat signifikansi yang dipilih.

Langkah-langkah pengujiannya adalah : Hipotesis yang diuji adalah:

1. H0 : βi = 0

Tidak ada pengaruh yang positif dan signifikan antara variabel bebas (X) terhadap variabel terikat (Y).

2. H0 : βi≠ 0

Ada pengaruh yang positif dan signifikan antara variabel bebas (X) terhadap variabel terikat (Y).

40

3. Menentukan tingkat kepercayaan (taraf nyata) yang dipilih, dalam penelitian ini digunakan taraf nyata 5%.

4. Menentukan nilai t, untuk menghitung nilai digunakan rumus:

Keterangan:

t = thitung yang selanjutnya dikonsiliasikan dengan ttabel r = korelasi parsial yang ditemukan

n = jumlah sampel.

5. Menentukan t variabel (nilai kritis)

Dengan tingkat signifikansi adalah 5% (α = 0,05), sedangkan degree of freedom (df) sebesar n-2 dimana n adalah jumlah sampel maka akan diperoleh nlai t-tabel (Sugiyono, 2016: 187)

6. Kriteria Pengujian

a) H0 diterima jika thitung ≥ ttabel atau nilai signifikansi probabilitas 0,05 ≤ nilai probabilitas.

b) H0 ditolak jika thitung ≤ ttabel atau nilai signifikansi probabilitas 0,05 ≥ nilai probabilitas.

b. Uji Simultan (Uji F)

Uji simultan digunakan untuk mengetahui apakah variabel independen secara bersama-sama atau simultan mempengaruhi variabel dependen. Pengujiannya menggunakan rumus yaitu:

1. H0 : β1: β1 = 0

Artinya secara bersama sama semua variabel bebas (X) berpengaruh tidak terhadap variabel terikat (Y).

2. H0 : β1≠ β1 ≠ 0

Artinya secara bersama sama semua variabel bebas (X) berpengaruh terhadap variabel terikat (Y).

3. Menghitung nilai F

Keterangan:

SSR = sum of square due to regression = Ʃ ( Ŷi – y )2 SSE = sum of square error = Ʃ ( Yi - Ŷi )2

n = jumlah observasi k = jumlah variabel bebas

MSR = mean square due to regression MSE = mean square due error

4. Menentukan nilai kritis (F-tabel)

Dengan tingkat signifikansi adalah 5% (α = 0,05), sedangkan degree of freedom (df) pembilang sebesar k-2 dan df untuk penyebut sebesar n-k dimana k adalah jumlah variabel bebas dan n adalah jumlah sampel maka akan diperoleh nilai F-tabel.

5. Kriteria pengujian

a) H0 diterima jika Fhitung ≤ Ftabel atau nilai probabilitas 0,05 ≤ nilai probabilitas.

b) H0 ditolak jika Fhitung ≥ Ftabel atau nilai probabilitas 0,05 ≥ nilai probabilitas.

c. Koefisien Determinasi

Koefisien Deteminasi (R2) pada intinya mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel terikat. Nilai Koefisien Determinasi adalah di antara nol dan satu. Nilai yang kecil berarti kemampan variabel-variabel independen dalam menjelaskan variasi variabel dependen amat terbatas. Nilai yang mendekati satu berarti variabel-variabel independen memberikan hampir semua informasi yang membutuhkan untuk memprediksi variasi variabel dependen (Mudrajat, 2007: 82).

42

Dokumen terkait