BAB III METODE PENELITIAN
D. Metode Analisis Data
Analisis data adalah proses mengatur urutan data,
mengorganisasikannya ke dalam suatu pola, kategori dan satuan uraian
dasar sehingga dapat ditemukan tema dan dapat dirumuskan hipotesis kerja
seperti yang disarankan oleh data (Moleong, 2009:280). Teknik analisa data
Analisis data dilakukan menggunakan software Microsoft Excel 2007 dan
Eviews versi 9.
Model persamaan regresi data panel yang digunakan dalam
penelitian ini adalah sebagai berikut:
Variabel yang akan dianalisis pada penelitian ini adalah variabel
Return of Assets (ROA), Return Of Equity (ROE), Net Operating Margin (NOM), Biaya Operasional (BOPO) dan Financing to Deposit Ratio (FDR)
sebagai variabel independen dan Zakat sebagai variabel dependen.
Model persamaan regresi data panel yang digunakan dalam penelitian
ini adalah sebagai berikut:
Y = β0 + β1 ROA + β2 ROE + β3 NOM + β4 BOPO + β5 FDR
Keterangan:
Y = Zakat
β0 = Konstanta
β1,β2,β3,β4,β5 = Koefisien Regresi
ROA = Return On Asset
ROE = Return On Equity
NOM = Net Operating Margin
BOPO = Biaya Operasional
1. Estimasi (Membuat Persamaan) Regresi Data Panel
Dalam metode estimasi model regresi data panel dapat dilakukan
melalui tiga pendekatan, antara lain:
a. Common Effect Model (CE)
Model common effect model ini tidak ubahnya dengan
membuat regresi data cross section atau time series. Akan tetapi,
untuk data panel, sebelum membuat regresi kita harus
menggabungkan data cross section dengan time series (pool data).
Kemudian data gabungan ini diperlakukan sebagai satu kesatuan
pengamatan yang digunakan untuk mengestimasi model dengan
metode (ordinary Least Square) OLS (Nachrowi dan Usman,
2006:311).
b. Fixed Effect Model (FE)
Model fixed effect model ini kondisi tiap objek saling berbeda,
bahkan satu objek pada suatu waktu akan sangat berbeda dengan
kondisi objek tersebut pada waktu yang lain. Oleh karena itu
diperlukan suatu model yang dapat menunjukkan perbedaan
konstanta antarobjek, meskipun dengan koefisien regresor yang
sama. Fixed effect (efek tetap) di sini maksudnya adalah bahwa
satu objek, memiliki konstanta yang tetap besarnya untuk berbagai
periode waktu.Model estimasi ini sering disebut dengan teknik
Least Squares Dummy Variable (LSDV), Selain itu, Metode ini
c. Random Effect Model (RE)
Model random effect ini digunakan untuk mengatasi
kelemahan metode efek tetap yang menggunakan variabel semu,
sehingga model mengalami ketidakpastian. Tanpa menggunakan
variabel semu, metode efek random menggunakan residual, yang
diduga memiliki hubungan antarwaktu dan antarobjek (Winarno,
2015:9.17) Model ini menggunakan metode estimasi Generalized
Least Square (GLS) (Nachrowi dan Usman, 2006:317).
2. Pemilihan Model Estimasi Regresi Data Panel a. Uji Chow
Menurut Iqbal (2015), Uji chow dilakukan untuk
membandingkan atau memilih model mana yang terbaik antara
CE dan FE yang dilihat dari nilai probabilitas untuk Cross-section
F. Jika nilainya > 0.05 maka model yang terpilih adalah CE, tetapi
jika nilainya < 0.05 maka model yang terpilih adalah FE.
b. Uji Hausman
Menurut Iqbal (2015) Uji hausman telah mengembangkan
suatu uji untuk memilih apakah metode Fixed Effect dan metode
Random Effect lebih baik dari metode Common Effect. Uji
Hausman ini didasarkan pada ide bahwa Least Squares Dummy
Variables (LSDV) dalam metode Fiixed Effect dan Generalized Least Squares (GLS) dalam metode Common Effect tidak efisien.
tidak efisien. Karena itu, uji hipotesis nulnya adalah hasil estimasi
keduanya tidak berbeda sehinga uji Hausman bisa dilakukan
perbedaan estimasi tersebut.Statistik uji Hausman mengikuti
distribusi statistik Chi-Squares dengan derajat kebebasan (df)
sebesar jumlah variabel bebas. Uji hausamna ini dilihat dari ini
probabilitas (Prob.) Cross-section random. Jika nilainya > 0.05
maka model yang terpilih adalah RE, tetapi jika < 0.05 maka model
yang terpilih adalah FE.
2. Uji Asumsi Klasik a. Uji Normalitas
Uji normalitas ini digunakan untuk mengetahui apakah
residual berdistribusi normal atau tidak. Untuk menguji aakah
distribusi data normal atau tidak dapat dilakukan dengan
menggunakan uji Jarque-Bera (uji J-B). Jarque-Bera adalah salah
satu uji statistik untuk mengetahui apakah data berdistribusi
normal (Widarjono, 2010:111-113).
Sebenarnya normalitas data dapat dilihat dari gambar
histogram, namun seringkali polanya tidak mengikuti bentuk
kurva normal, sehingga sulit disimpulkan. Lebih mudah bila
melihat koefisien Jarque-Bera dan Probabilitas-nya. Kedua angka
ini bersifat saling mendukung. Bila nilai J-B tidak signifikan
probabilitas lebih besar dari 5% maka data berdistribusi normal
(Winarno, 2015:5.43).
b. Uji Heteroskedastistis
Uji heteroskedatitas bertujuan untuk menguji apakah dalam
model regresi terjadi ketidaksamaan variance dari residual satu
pengamatan ke pengamatan yang lain. Jika variance dari residual
satu pengamatan ke pengamatan lain tetap, maka disebut
Homoskedastisitas dan jika berbeda disebut Heteroskedastisitas.
Model regresi yang baik adalah yang Homoskedatisitas atau tidak
terjadi Heteroskedatisita. Kebanyakan data cross section
menganung situasi heteroskesdatisitas karena data ini
menghimpun data yang mewakili berbagai ukuran (kecil, sedang
dan besar) (Ghozali, 2016:134).
Untuk mendetekdi apakah terjadi heteroskedatisitas dapat
menggunakan uji white dengan bantuan software Eviews. Uji
white menggunakan residual kuadrat sebagai variabel dependen,
dan variabel independennya terdiri atasi variabel independen,
ditambah lagi dengan perkalian dua variabel independen
(Winarno, 2015:5.17).
Uji white untuk mendeteksi apakah terjadi masalah
heteroskedastisitas dapat dilihat dengan nilai probabilitasnya
signifikan 0.005 (α=5%), maka dapat disimpulkan bahwa data
tersebut bersifat heteroskedastis. (Winarno, 2015:5.17).
c. Uji Multikolinieritas
Multikolinieritas bertujuan untuk menguji apakah model
regresi ditemukan adanya korelasi antar variabel bebas
(independen). Model regresi yang baik seharusnya tidak terjadi
korelasi di antara variabel independen. Jika variabel independen
saling berkorelasi, maka variabel-variabel ini tidak ortogonal.
Multikolinieritas dapat juga dilihat dari (1) nilai tolerance dan
lawannya (2) variance inflation factor (VIF). Kedua ukuran ini
menggunakan setiap variabel independen manakah yang
dijelaskan oleh variabel independen lainnya. Dalam pengertian
sederhana setiap variabel independen menjadi variabel dependen
(terikat) dan diregres terhadap variabel independen lainnya.
Tolerance mengukur variabilitas variabel independen yang
terpilih yang tidak dijelaskan oleh variabel independen lainnya.
Jadi nilai tolerance yang rendah sama dengan nilai VIF tinggi
(karena VIF = 1/Tolerance). Nilai cutoff yang umum dipakai
untuk menunjukkan adanya multikolonieritas adalah nilai
tolerance ≤ 0.10 atau sama dengan nilai VIF ≥ 10. Apabila nilai tolerance lebih dari 0.10 dan nilai VIF kurang dari 10. maka
variabel independen dalam model regresi (Ghozali,
2016:104-105).
Uji multikolonieritas terjadi jika menghitung koefisisen
korelasi antarvariabel independen apabila koefisiennya rendah
maka tidak terdapat multikolinieritas (Winarno, 2015:5.1).
d. Uji Autokorelasi
Uji autokorelasi bertujuan untuk menguji apakah dalam
model regresi linier ada korelasi antara kesalahan pengganggu
(residual) pada periode t dengan kesalahan p pada periode t-1
(sebelumnya) (Ghozali, 2013:137). Autokorelasi muncul akibat
observasi yang berurutan sepanjang waktu berkaitan satu sama
lain. Masalah ini timbul karena residual tidak bebas dari satu
observasi ke observasi lainnya (Ghozali, 2016:107).
Nama lain dari uji Breusch-Godfrey adalah uji Lagrange
Multiplier (Pengganda Lagrange) (Winarno, 2015:5.33). Untuk
mendeteksi ada atau tidaknya autokorelasi maka dilakukan
pengujian breusch-godfrey dengan memperhatikan nilai Prob-F.
Apabila nilai Prob-F lebih besar dari tingkat signifikansi 0.05,
maka uji hipotesis H0 diterima yang artinya tidak terjadi autokorelasi. Sebaliknya, apabila nilai Prob-F lebih kecil dari
tingkat signifikansi 0.05 maka dapat disimpulkan terjadi
3. Uji Hipotesis a. Uji F
Uji F digunakan pada dasarnya menunjukkan apakah semua
vaiabel independen yang dimasukkan dalam model mempunyai
pengaruh secara bersama-sama atau simultan terhadap variabel
dependen (Ghozali, 2013:61)
Menurut Iqbal (2015) apabila nilai probabilitas F hitung
lebih kecil dari tingkat kesalahan/error (alpha) 0,05 maka dapat
dikatakan bahwa model regresi yang diestimasi layak, sedangkan
apabila nila probabilitas F hitung lebih besar dari tingkat
kesalahan 0,05 maka dapat dilakukan bahwa model regresi yang
diestimasi tidak layak.
b. Uji t
Pengujian hipotesis secara parsial, dapat diuji dengan
menggunakan rumus uji t. Pengujian t-statistik pada dasarnya
menunjukkan seberapa jauh pengaruh satu variabel independen
terhadap variabel dependen dengan menganggap variabel
independen lainnya kosntasn, Jika asumsi normalitas eror itu µi
N(0, σ2
) terpenuhi, maka kita dapat menggunakan uji t untuk
menguji koefisien parsial dari regresi. Misalkan kita ingin
menguji apakah variabel X1 berpengarh terhadap Y dengan
Cara melihat tabel t adalah dengan melihat kolom paling
kiri tabel dinamai “df” sebagai derajat kebebasan. Jumlah derajat kebebasan merupakan jumlah total pengamatan pada sampel
dikurangi jumlah variabel bebasnya. Untuk mencari nilai
kritisnya, pertama temukan baris dengan derajat kebebasan yang
sesuai. Tentukan apakah ujinya satu sisi atau dua sisi. Cari kolom
dengan tingkat signifikan yang dipilih . (Lind Marchal Wathen,
2014:377).
Menurut Widarjono (2010, 28) uji statistik t pada dasarnya
menunjukkan seberapa jauh pengaruh satu variabel independen
secara individual dalam menerangkan variasi variabel dependen.
Untuk menguji apakah hipotesis ini digunakan statistik t dengan
kriteria pengambilan keputusan adalah sebagai berikut:
1) Jika nilai probabilitas ρ lebih kecil atau sama dengan nilai α
maka H0 ditolak dan Ha diterima.
2) Jika nilai probabilitas ρ lebih besar atau sama dengan nilai α,
maka H0 diterima dan Ha ditolak..
4. Adjusted (R2)
Koefisien determinasi (Adjust R2) pada intinya adalah mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel
dependen. Nilai adjust R2 yang kecil berarti kemampuan variabel-variabel independen dalam menjelaskan variasi variabel-variabel dependen amat
memberikan hampir bsemua informasi yang dibutuhkan untuk
memprediksi variasi variabel dependen. Secara umum koefisien
determinasi untuk data silang (cross section) relatif rendah karena
adanya variasi yang besar antara masing-masing pengamatan,
sedangkan untuk data runtun waktu (time series) biasanya mempunyai
nilai koefisien determinasi yang tinggi (Ghozali, 2013:59).
Koefisien determinasi adjust R2 digunakan untuk mengukur seberapa baik garis regresi sesuai dengan data akhirnya (goodness of it).
Koefisien determinasi ini mengukur presentase total variasi variabel
dependen (Y) yang dijelaskan oleh variabel independen didalam garis
regresi (Widarjono, 2010:19)
Semakin angkanya mendekati 1 maka semakin baik garis regresi
karena mampu menjelaskan data aktualnya. Semakin mendekati angka
nol, maka mempunyai regresi yang kurang baik (Widarjono, 2010:20).
E. Definisi Operasional Variabel