• Tidak ada hasil yang ditemukan

BAB III METODE PENELITIAN

F. Metode Analisis Data

1. Pengujian Asumsi Klasik

Uji normalitas data bertujuan untuk menguji apakah dalam sebuah model regresi, variabel pengganggu atau residual mempunyai distribusi normal atau tidak. Pengujian ini diperlukan karena untuk melakukan uji t dan uji F mengasumsikan bahwa nilai residual mengikuti distribusi normal (Erlina, 2007:103). Menurut Ghozali (2005:110) cara yang digunakan untuk mendeteksi apakah residual berdistribusi normal atau tidak adalah dengan:

1. analisis grafik

Salah satu cara termudah untuk melihat normalitas residual adalah dengan melihat grafik histogramnya yang membandingkan antara data observasi dengan distribusi yang mendekati distribusi normal. Metode yang lebih handal adalah dengan melihat normal probability plot yang membandingkan distribusi kumulatif dari distribusi normal. Distribusi normal akan membentuk satu garis lurus diagonal dan plotnya data residual akan dibandingkan dengan garis diagonal. Jika distribusi data normal, maka garis yang menggambarkan data sesungguhnya akan mengikuti garis diagonalnya

2. analisis statistik

Uji statistik sederhana dapat dilakukan dengan melihat nilai kurtosis dan nilai Z-Skewness. Uji satitik lain yang dapat dilakuka n untuk menguji normalitas resida adalah uji statistik non-parametrik Kolmogorov-Smirnov (K-S).

Pedoman pengambilan keputusan tentang data tersebut mendekati atau merupakan distribusi normal berdasarkan uji Kolmogorov-Smirnov dapat dilakukan dengan membuat hipotesis:

Ho : data residual berdistribusi normal (nilai Sig. > 0,05)

Distribusi yang melanggar asumsi normalitas dapat dijadikan menjadi bentuk normal dengan beberapa cara sebagai berikut:

1. Transformasi data

Transformasi data dapat dilakukan dengan logaritma natural (ln), log 10, maupun akar kuadrat. Jika ada data yang bernilai negatif, transformasi data dengan logaritma akan menghilangkannyasehingga jumlah sampel (n) akan berkurang.

2. Trimming

Trimming adalah memangkas (membuang) observasi yang bersifat outlier, yaitu yang nilainya lebih kecil dari µ-2σ atau lebih besar dari µ+2σ. Metode ini juga mengecilkan jumlah sampelnya.

3. Winzorising

Winzorising mengubah nilai – nilai outliers menjadi nilai – nilai minimum atau maksimum yang diizinkan supaya distribusi menjadi normal. Nilai – nilia observasi yang lebih kecil dari µ-2σ akan diubah nilainya menjadi µ-2σ dan nilai – nilai yang lebih besar dari µ+2σ akan diubah nilainya menjadi µ+2σ .

b. Uji Multikolinearitas

Uji multikolinearitas bertujuan untuk menguji apakah model regresi mempunyai korelasi antar variabel bebas. Model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel independen. Multikolinearitas adalah situasi adanya korelasi variabel – variabel independen antara yang satu dengan yang lainnya. Dalam hal ini disebut

variabel – variabel bebas ini tidak ortogonal. Variabel – variabel bebas yang bersifat ortogonal adalah variabel bebas yang memiliki nilai korelasi diantara sesamanya sama dengan nol.

Jika terjadi korelasi sempurna diantara sesama variabel bebas, maka konsekuensinya adalah:

a. koefisien – koefisien regresi menjadi tidak dapat ditaksir,

b. nilai standar error setiap koefisien regresi menjadi tak terhingga. Menurut Ghozali (2005:91), untuk mendeteksi ada tidaknya multikolinearitas di dalam model regresi adalah sebagai berikut:

1.nilai R2 yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi secara individual variabel – variabel independennya banyak yang tidak signifikan mempengaruhi variabel dependen,

2.menganalisis matrik korelasi variabel – variabel independen. Jika antar variabel independen ada korelasi yang cukup tinggi (umumnya diatas 0.90), maka hal ini merupakan indikasi adanya multikolinearitas. Tidak adanya korelasi yang tinggi antar variabel independen tidak berarti bebas dari multikolinearitas. Multikolinearitas dapat disebabkan karena adanya efek kombinasi dua atau lebih variabel independen,

3.multikolinearitas dapat juga dilhat dari a) nilai tolerance dan lawannya b)variance inflation factor (VIF). Kedua ukuran ini menunjukan setiap variabel independen manakah yang dijelaskan oleh variabel independen lainnya Dalam pengertian sederhana setiap variabel independen menjadi variabel dependen (terikat) dan diregres terhadap variabel independen lainnya. Tolerance mengukur variabilitas variabel independen yang terpilih yang tidak dijelaskan oleh variabel independen lainnya. Jadi nilai tolerance yang rendah sama dengan nilai VIF tinggi (karena VIF=1/Tolerance). Nilai cutoff yang umum dipakai untuk menunjukan adanya multikolinearitas adalah nilai tolerance < 0.10 atau sama dengan nilai VIF > 10.

Cara yang dapat dilakukan untuk mengatasi masalah multikolinearitas : 1) mengeluarkan satu atau lebih variabel independen yang

mempunyai korelasi tinggi dari model regresi dan identifikasikan variabel independen lainnya untuk membantu prediksi,

2) menggabungkan data cross section dan time series (pooling data) 3) menambah data penelitian.

c. Uji Heterokedastisitas

Uji heterokedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain.Jika residual dari satu pengamatan ke pengamatan lain tetap, maka disebut homoskedastisitas dan jika berbeda disebut heteroskedastisitas (Erlina, 2007:108). Deteksi ada tidaknya gejala heterokedastisitas adalah dengan melihat ada tidaknya pola tertentu. Jika membentuk pola tertentu maka telah terjadi gejala heterokedastisitas.

Uji ini biasa dilakukan pada penelitian yang menggunakan data cross section. Caranya adalah dengan melihat grafik scatterplot antara variabel dependen yaitu ZPRED dengan residualnya SRESID. Dasar analisis: a. jika ada pola tertentu, seperti titik – titik yang ada membentuk pola

tertentu yang teratur (bergelombang, melebar kemudian menyempit), maka diindikasikan telah terjadi heterokedastisitas,

b. jika tidak ada pola yang jelas, serta titik – titik menyebar diatas dan di bawah angka 0 pada sumbu Y, maka tidak terjadi heterokedastisitas.

Tindakan perbaikan yang dapat dilakukan jika terjadi heterokedastisitas adalah:

1) transformasi dalam bentuk model regresi dengan membagi model regresi dengan salah satu variabel independen yang digunakan dalam model tersebut,

2) transformasi logaritma.

d. Uji Autokorelasi

Uji autokorelasi menurut Ghozali (2005:95) bertujuan untuk menguji apakah dalam suatu model regresi linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pengganggu pada periode t – 1 (sebelumnya). Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaian satu sama lain. Masalah ini timbul karena residual atau kesalahan pengganggu tidak bebas dari satu observasi ke observasi lainnya. Hal ini sering ditemukan pada data runtut waktu atau time series karena ”gangguan” pada seorang individu / kelompok cenderung mempengaruhi ”gangguan” pada individu / kelompok yang sama pada periode berikutnya. Model regresi yang baik adalah regresi yang bebas dari autokorelasi (Erlina, 2007:109).

Uji autokorelasi dalam penelitian ini dilakukan dengan uji Durbin-Watson (DW). Pedoman untuk mendeteksi ada tidaknya autokorelasi menurut Ghozali (2005:96) adalah sebagai berikut:

1. bila nilai Durbin-Watson (DW) berada di antara 0 dan batas bawah / Lower Bound (DL), berarti ada autokorelasi positif,

2. bila nilai DW berada di antara DL dan batas atas / Upper Bound (DU), tidak dapat diputuskan ada korelasi positif atau tidak, 3. bila nilai DW berada di antara 4-DL dan 4 berarti ada autokrelasi

negatif,

4. bila nilai DW berada di antara 4-DU dan 4-DL, tidak dapat diputuskan ada autokorelasi negatif atau tidak,

5. bila nilai DW berada di antara DU dan 4-DU, berarti tidak ada autokorelasi positif maupun negatif.

Tabel 3.4

Pengambilan keputusan ada tidaknya autokorelasi

Hipotesis nol Keputusan Jika

Tidak ada autokorelasi positif

Tolak 0 < d < dl

Tidak ada autokorelasi positif

No decision dl ≤ d ≤ du Tidak ada korelasi

negatif

Tolak 4 – dl < d < 4 Tidak ada korelasi

negatif No decision 4 – du ≤ d ≤ 4 – dl Tidak ada autokorelasi, positif atau negatif Tdk ditolak du < d < 4 – du

Jika terjadi autokorelasi, maka dapat diatasi dengan cara: 1) melakukan transformasi data,

2) mengubah model regresi ke dalam bentuk persamaan beda umum (generalized difference equation),

3) memasukkan variabel Lag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga data observasi menjadi berkurang 1,

2. Pengujian Hipotesis

Hipotesis diuji dengan menggunakan analisis regresi linear berganda. Analisis ini digunakan untuk mengetahui apakah semua variabel independen mempunyai pengaruh terhadap variabel dependen. Pengujian hipotesis secara statistik dilakukan dengan menggunakan:

a. koefisien determinasi (R2 )

Koefisien determinasi digunakan untuk mengukur proporsi (persentase) sumbangan variabel independen (bebas) yang diteliti terhadap variasi naik turunnya variabel dependen. Koefisien determinan berkisar antara nol sampai satu (0 ≤ R2≤ 1). Nilai R2 = nol menunjukan tidak adanya pengaruh antara variabel independen terhadap variabel dependen, bila R2 semakin besar mendekati 1 menunjukan semakin kuatnya pengaruh variabel independen terhadap variabel dependen dan bila R2 semakin kecil mendekati nol maka dapat dikatakan semakin kecil pengaruh variabel independen terhadap variabel dependen.

b. uji statistik ”F”

Uji statistik ”F” atau uji signifikan simultan; untuk menunjukan apakah semua variabel independen yang dimasukan dalam model mempunyai pengaruh secara bersama – sama terhadap variabel dependen (Ghozali, 2005 : 84). Uji ini digunakan untuk menguji pengaruh variabel independen yaitu LDR, NPL, ROA, dan BOPO terhadap variabel dependen yaitu CAR secara simultan (bersama – sama).

Ho : ß1 = ß2 = ß3 = ß4 = 0, artinya LDR, NPL, ROA, dan BOPO secara simultan tidak berpengaruh terhadap kecukupan modal (CAR).

Ha : ß1 ≠ ß2 ≠ ß3 ≠ ß4 ≠ 0, artinya LDR, NPL, ROA, dan BOPO secara simultan berpengaruh terhadap kecukupan modal (CAR).

Kriteria pengambilan keputusan adalah:

•apabila nilai Sig < 5%, maka Ha diterima dan atau Ho ditolak.

•apabila nilai Sig > 5%, maka Ho diterima dan atau Ha ditolak.

c. uji statistik ”t”

Uji statistik ”t” atau uji signifikan parameter individual atau uji parsial yaitu untuk menunjukan seberapa jauh pengaruh satu variabel penjelas/independen secara individual dalam menerangkan variasi variabel dependen (Ghozali, 2005 : 84). Uji ini digunakan untuk menguji pengaruh variabel independen yaitu LDR, NPL, ROA, dan BOPO terhadap variabel dependen yaitu CAR secara parsial.

Ho : ß1, ß2 , ß3, ß4 = 0, artinya LDR, NPL, ROA, dan BOPO secara parsial tidak berpengaruh terhadap kecukupan modal (CAR).

Ha : ß1, ß2 , ß3, ß4 ≠ 0, artinya LDR, NPL, ROA, dan BOPO secara parsial berpengaruh terhadap kecukupan modal (CAR).

Kriteria pengambilan keputusan adalah:

•apabila nilai Sig < 5%, maka Ha diterima dan atau Ho ditolak.

Model regresi untuk menguji hipotesis tersebut adalah sebagai berikut: Y = a + ß1X1 + ß2X2 + ß3X3 + ß4X4 + e,

Dimana:

Y = Capital Adequacy Ratio (CAR), dalam satuan % a = konstanta

ß1, ß2 , ß3, ß4 = koefisien regresi variabel

X1 = Loan to Deposit Ratio (LDR), dalam satuan % X2 = Non Performing Loan (NPL), dalam satuan % X3 = Return On Assets (ROA), dalam satuan %

X4 = Biaya Operasional terhadap Pendapatan Operasional (BOPO), dalam satuan %

Dokumen terkait