• Tidak ada hasil yang ditemukan

BAB III METODE PENELITIAN

D. Metode Analisis Data

Analisis data adalah proses mengatur urutan data,

mengorganisasikannya ke dalam suatu pola, kategori dan satuan uraian

dasar sehingga dapat ditemukan tema dan dapat dirumuskan hipotesis kerja

seperti yang disarankan oleh data (Moleong, 2009:280). Teknik analisa data

Analisis data dilakukan menggunakan software Microsoft Excel 2007 dan

Eviews versi 9.

Model persamaan regresi data panel yang digunakan dalam

penelitian ini adalah sebagai berikut:

Variabel yang akan dianalisis pada penelitian ini adalah variabel

Return of Assets (ROA), Return Of Equity (ROE), Net Operating Margin (NOM), Biaya Operasional (BOPO) dan Financing to Deposit Ratio (FDR)

sebagai variabel independen dan Zakat sebagai variabel dependen.

Model persamaan regresi data panel yang digunakan dalam penelitian

ini adalah sebagai berikut:

Y = β0 + β1 ROA + β2 ROE + β3 NOM + β4 BOPO + β5 FDR

Keterangan:

Y = Zakat

β0 = Konstanta

β1,β2,β3,β4,β5 = Koefisien Regresi

ROA = Return On Asset

ROE = Return On Equity

NOM = Net Operating Margin

BOPO = Biaya Operasional

1. Estimasi (Membuat Persamaan) Regresi Data Panel

Dalam metode estimasi model regresi data panel dapat dilakukan

melalui tiga pendekatan, antara lain:

a. Common Effect Model (CE)

Model common effect model ini tidak ubahnya dengan

membuat regresi data cross section atau time series. Akan tetapi,

untuk data panel, sebelum membuat regresi kita harus

menggabungkan data cross section dengan time series (pool data).

Kemudian data gabungan ini diperlakukan sebagai satu kesatuan

pengamatan yang digunakan untuk mengestimasi model dengan

metode (ordinary Least Square) OLS (Nachrowi dan Usman,

2006:311).

b. Fixed Effect Model (FE)

Model fixed effect model ini kondisi tiap objek saling berbeda,

bahkan satu objek pada suatu waktu akan sangat berbeda dengan

kondisi objek tersebut pada waktu yang lain. Oleh karena itu

diperlukan suatu model yang dapat menunjukkan perbedaan

konstanta antarobjek, meskipun dengan koefisien regresor yang

sama. Fixed effect (efek tetap) di sini maksudnya adalah bahwa

satu objek, memiliki konstanta yang tetap besarnya untuk berbagai

periode waktu.Model estimasi ini sering disebut dengan teknik

Least Squares Dummy Variable (LSDV), Selain itu, Metode ini

c. Random Effect Model (RE)

Model random effect ini digunakan untuk mengatasi

kelemahan metode efek tetap yang menggunakan variabel semu,

sehingga model mengalami ketidakpastian. Tanpa menggunakan

variabel semu, metode efek random menggunakan residual, yang

diduga memiliki hubungan antarwaktu dan antarobjek (Winarno,

2015:9.17) Model ini menggunakan metode estimasi Generalized

Least Square (GLS) (Nachrowi dan Usman, 2006:317).

2. Pemilihan Model Estimasi Regresi Data Panel a. Uji Chow

Menurut Iqbal (2015), Uji chow dilakukan untuk

membandingkan atau memilih model mana yang terbaik antara

CE dan FE yang dilihat dari nilai probabilitas untuk Cross-section

F. Jika nilainya > 0.05 maka model yang terpilih adalah CE, tetapi

jika nilainya < 0.05 maka model yang terpilih adalah FE.

b. Uji Hausman

Menurut Iqbal (2015) Uji hausman telah mengembangkan

suatu uji untuk memilih apakah metode Fixed Effect dan metode

Random Effect lebih baik dari metode Common Effect. Uji

Hausman ini didasarkan pada ide bahwa Least Squares Dummy

Variables (LSDV) dalam metode Fiixed Effect dan Generalized Least Squares (GLS) dalam metode Common Effect tidak efisien.

tidak efisien. Karena itu, uji hipotesis nulnya adalah hasil estimasi

keduanya tidak berbeda sehinga uji Hausman bisa dilakukan

perbedaan estimasi tersebut.Statistik uji Hausman mengikuti

distribusi statistik Chi-Squares dengan derajat kebebasan (df)

sebesar jumlah variabel bebas. Uji hausamna ini dilihat dari ini

probabilitas (Prob.) Cross-section random. Jika nilainya > 0.05

maka model yang terpilih adalah RE, tetapi jika < 0.05 maka model

yang terpilih adalah FE.

2. Uji Asumsi Klasik a. Uji Normalitas

Uji normalitas ini digunakan untuk mengetahui apakah

residual berdistribusi normal atau tidak. Untuk menguji aakah

distribusi data normal atau tidak dapat dilakukan dengan

menggunakan uji Jarque-Bera (uji J-B). Jarque-Bera adalah salah

satu uji statistik untuk mengetahui apakah data berdistribusi

normal (Widarjono, 2010:111-113).

Sebenarnya normalitas data dapat dilihat dari gambar

histogram, namun seringkali polanya tidak mengikuti bentuk

kurva normal, sehingga sulit disimpulkan. Lebih mudah bila

melihat koefisien Jarque-Bera dan Probabilitas-nya. Kedua angka

ini bersifat saling mendukung. Bila nilai J-B tidak signifikan

probabilitas lebih besar dari 5% maka data berdistribusi normal

(Winarno, 2015:5.43).

b. Uji Heteroskedastistis

Uji heteroskedatitas bertujuan untuk menguji apakah dalam

model regresi terjadi ketidaksamaan variance dari residual satu

pengamatan ke pengamatan yang lain. Jika variance dari residual

satu pengamatan ke pengamatan lain tetap, maka disebut

Homoskedastisitas dan jika berbeda disebut Heteroskedastisitas.

Model regresi yang baik adalah yang Homoskedatisitas atau tidak

terjadi Heteroskedatisita. Kebanyakan data cross section

menganung situasi heteroskesdatisitas karena data ini

menghimpun data yang mewakili berbagai ukuran (kecil, sedang

dan besar) (Ghozali, 2016:134).

Untuk mendetekdi apakah terjadi heteroskedatisitas dapat

menggunakan uji white dengan bantuan software Eviews. Uji

white menggunakan residual kuadrat sebagai variabel dependen,

dan variabel independennya terdiri atasi variabel independen,

ditambah lagi dengan perkalian dua variabel independen

(Winarno, 2015:5.17).

Uji white untuk mendeteksi apakah terjadi masalah

heteroskedastisitas dapat dilihat dengan nilai probabilitasnya

signifikan 0.005 (α=5%), maka dapat disimpulkan bahwa data

tersebut bersifat heteroskedastis. (Winarno, 2015:5.17).

c. Uji Multikolinieritas

Multikolinieritas bertujuan untuk menguji apakah model

regresi ditemukan adanya korelasi antar variabel bebas

(independen). Model regresi yang baik seharusnya tidak terjadi

korelasi di antara variabel independen. Jika variabel independen

saling berkorelasi, maka variabel-variabel ini tidak ortogonal.

Multikolinieritas dapat juga dilihat dari (1) nilai tolerance dan

lawannya (2) variance inflation factor (VIF). Kedua ukuran ini

menggunakan setiap variabel independen manakah yang

dijelaskan oleh variabel independen lainnya. Dalam pengertian

sederhana setiap variabel independen menjadi variabel dependen

(terikat) dan diregres terhadap variabel independen lainnya.

Tolerance mengukur variabilitas variabel independen yang

terpilih yang tidak dijelaskan oleh variabel independen lainnya.

Jadi nilai tolerance yang rendah sama dengan nilai VIF tinggi

(karena VIF = 1/Tolerance). Nilai cutoff yang umum dipakai

untuk menunjukkan adanya multikolonieritas adalah nilai

tolerance ≤ 0.10 atau sama dengan nilai VIF ≥ 10. Apabila nilai tolerance lebih dari 0.10 dan nilai VIF kurang dari 10. maka

variabel independen dalam model regresi (Ghozali,

2016:104-105).

Uji multikolonieritas terjadi jika menghitung koefisisen

korelasi antarvariabel independen apabila koefisiennya rendah

maka tidak terdapat multikolinieritas (Winarno, 2015:5.1).

d. Uji Autokorelasi

Uji autokorelasi bertujuan untuk menguji apakah dalam

model regresi linier ada korelasi antara kesalahan pengganggu

(residual) pada periode t dengan kesalahan p pada periode t-1

(sebelumnya) (Ghozali, 2013:137). Autokorelasi muncul akibat

observasi yang berurutan sepanjang waktu berkaitan satu sama

lain. Masalah ini timbul karena residual tidak bebas dari satu

observasi ke observasi lainnya (Ghozali, 2016:107).

Nama lain dari uji Breusch-Godfrey adalah uji Lagrange

Multiplier (Pengganda Lagrange) (Winarno, 2015:5.33). Untuk

mendeteksi ada atau tidaknya autokorelasi maka dilakukan

pengujian breusch-godfrey dengan memperhatikan nilai Prob-F.

Apabila nilai Prob-F lebih besar dari tingkat signifikansi 0.05,

maka uji hipotesis H0 diterima yang artinya tidak terjadi autokorelasi. Sebaliknya, apabila nilai Prob-F lebih kecil dari

tingkat signifikansi 0.05 maka dapat disimpulkan terjadi

3. Uji Hipotesis a. Uji F

Uji F digunakan pada dasarnya menunjukkan apakah semua

vaiabel independen yang dimasukkan dalam model mempunyai

pengaruh secara bersama-sama atau simultan terhadap variabel

dependen (Ghozali, 2013:61)

Menurut Iqbal (2015) apabila nilai probabilitas F hitung

lebih kecil dari tingkat kesalahan/error (alpha) 0,05 maka dapat

dikatakan bahwa model regresi yang diestimasi layak, sedangkan

apabila nila probabilitas F hitung lebih besar dari tingkat

kesalahan 0,05 maka dapat dilakukan bahwa model regresi yang

diestimasi tidak layak.

b. Uji t

Pengujian hipotesis secara parsial, dapat diuji dengan

menggunakan rumus uji t. Pengujian t-statistik pada dasarnya

menunjukkan seberapa jauh pengaruh satu variabel independen

terhadap variabel dependen dengan menganggap variabel

independen lainnya kosntasn, Jika asumsi normalitas eror itu µi

N(0, σ2

) terpenuhi, maka kita dapat menggunakan uji t untuk

menguji koefisien parsial dari regresi. Misalkan kita ingin

menguji apakah variabel X1 berpengarh terhadap Y dengan

Cara melihat tabel t adalah dengan melihat kolom paling

kiri tabel dinamai “df” sebagai derajat kebebasan. Jumlah derajat kebebasan merupakan jumlah total pengamatan pada sampel

dikurangi jumlah variabel bebasnya. Untuk mencari nilai

kritisnya, pertama temukan baris dengan derajat kebebasan yang

sesuai. Tentukan apakah ujinya satu sisi atau dua sisi. Cari kolom

dengan tingkat signifikan yang dipilih . (Lind Marchal Wathen,

2014:377).

Menurut Widarjono (2010, 28) uji statistik t pada dasarnya

menunjukkan seberapa jauh pengaruh satu variabel independen

secara individual dalam menerangkan variasi variabel dependen.

Untuk menguji apakah hipotesis ini digunakan statistik t dengan

kriteria pengambilan keputusan adalah sebagai berikut:

1) Jika nilai probabilitas ρ lebih kecil atau sama dengan nilai α

maka H0 ditolak dan Ha diterima.

2) Jika nilai probabilitas ρ lebih besar atau sama dengan nilai α,

maka H0 diterima dan Ha ditolak..

4. Adjusted (R2)

Koefisien determinasi (Adjust R2) pada intinya adalah mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel

dependen. Nilai adjust R2 yang kecil berarti kemampuan variabel-variabel independen dalam menjelaskan variasi variabel-variabel dependen amat

memberikan hampir bsemua informasi yang dibutuhkan untuk

memprediksi variasi variabel dependen. Secara umum koefisien

determinasi untuk data silang (cross section) relatif rendah karena

adanya variasi yang besar antara masing-masing pengamatan,

sedangkan untuk data runtun waktu (time series) biasanya mempunyai

nilai koefisien determinasi yang tinggi (Ghozali, 2013:59).

Koefisien determinasi adjust R2 digunakan untuk mengukur seberapa baik garis regresi sesuai dengan data akhirnya (goodness of it).

Koefisien determinasi ini mengukur presentase total variasi variabel

dependen (Y) yang dijelaskan oleh variabel independen didalam garis

regresi (Widarjono, 2010:19)

Semakin angkanya mendekati 1 maka semakin baik garis regresi

karena mampu menjelaskan data aktualnya. Semakin mendekati angka

nol, maka mempunyai regresi yang kurang baik (Widarjono, 2010:20).

E. Definisi Operasional Variabel

Dokumen terkait