Independen X1 : Return On Equity
METODE PENELITIAN
D. Metode Analisis Data 1. Teknik Analisis Data 1.Teknik Analisis Data
Data-data yang digunakan dalam penelitian ini merupakan gabungan dari data
cross section dan data time series, kombinasi dari gabungan kedua data tersebut
adalah data panel. Data panel adalah kumpulan data cross section yang diamati dari
waktu ke waktu secara simultan atau serentak. Teknik analisis yang dipakai adalah dengan analisis regresi data panel dengan menggunakan EVIEWS 7.0 sebagai program pengolah datanya.
a. Keuntungan Menggunakan Data Panel :
1) Data panel dapat memberikan peneliti jumlah pengamatan yang besar, meningkatkan degree of freedom (derajat kebebasan), data memiliki
variabilitas yang besar dan mengurangi kolinieritas antara variabel penjelas, di mana dapat menghasilkan estimasi ekonometri yang efisien.
2) Panel data dapat memberikan informasi lebih banyak yang tidak dapat diberikan hanya oleh data cross section atau time series saja.
3) Panel data dapat memberikan penyelesaian yang lebih baik dalam inferensi perubahan dinamis dibandingkan data cross section.
4) Dengan mempelajari data cross section yang berulang maka data panel
5) Data panel bisa mendekteksi dengan lebih baik dan mengukur dampak yang tidak bisa diobservasi oleh data cross section maupun time
series.
6) Data panel dapat mengatasi masalah yang timbul akibat penghilang variabel.
Mengingat data panel merupakan gabungan dari data cross section dan data
time series, maka sesuai dengan judul dalam penelitian ini
“
Pengaruh profitabilitas,corporate governance, ukuran perusahaan dan leverage terhadap praktik manajemen
laba pada emiten Indeks Saham Syariah Indonesia (ISSI) sub sektor barang Konsumsi periode 2011-2014
”,
modelnya dituliskan dengan :Yit = α + β X1it+ β X2it+ β X3it + εit ;
Y = Variabel dependen (Manajemen Laba/Earning Management) α = Konstanta
X1 = Variabel independen 1 (Return On Equity)
X2 = Variabel independen 2 (Corporate Governance)
X3 = Variabel Independen 3 (Ukuran perusahaan) X4 = Variabel Independen 4 (Debt to Asset Ratio)
b(1…2) = Koefisien regresi masing-masing variabel independen
e = Errorterm
i = Perusahaan
b. Penentuan Model Estimasi :
Dalam metode estimasi model regresi dengan menggunakan data panel dapat dilakukan melalui tiga pendekatan, antara lain:
1) Common Effect Model atau Pooled Least Square (PLS) : Merupakan pendekatan model data panel yang paling sederhana karena hanya mengkombinasikan data time series dan cross section.
Pada model ini tidak diperhatikan dimensi waktu maupun individu, sehingga diasumsikan bahwa perilaku data perusahaan sama dalam berbagai kurun waktu. Metode ini bisa menggunakan pendekatan
Ordinary Least Square (OLS) atau teknik kuadrat terkecil untuk
mengestimasi model data panel.
2) Fixed Effect Model : Model ini mengasumsikan bahwa perbedaan antar individu dapat diakomodasi dari perbedaan intersepnya. Untuk mengestimasi data panel model Fixed Effect menggunakan teknik
variabel dummy untuk menangkap perbedaan intersep antar
perusahaan, perbedaan intersep bisa terjadi karena perbedaan budaya kerja, manajerial, dan insentif. Namun demikian slopnya sama antar perusahaan. Model estimasi ini sering juga disebut dengan teknik
3) Random Effect Model : Model ini akan mengestimasi data panel dimana variabel gangguan mungkin saling berhubungan antar waktu dan antar individu. Pada model random effect perbedaan intersep
diakomodasi oleh error term masing-masing perusahaan. Keuntungan
menggunkan model random effect yakni menghilangkan
heteroskedastisitas. Model ini juga disebut dengan Error Component
Model (ECM) atau teknik Generalized Least Square (GLS) .
c. Tahap analisis data
Dalam memilih model yang paling tepat untuk digunakan dalam regresi data panel, terdapat beberapa pengujian yang dapat dilakukan diantaranya :
(1) Uji Chow
Uji chow adalah pengujian untuk menentukan model fixed effect atau common
effect yang lebih tepat untuk digunakan dalam estimasi data panel. Dalam uji chow
hipotesisnya adalah sebagai berikut :
Ho : Common Effect
H1 : Fixed Effect
Penguji uji chow menggunakan software Eviews adalah dengan menggunakan
dengan membandingkan perhitungan F hitung dengan F tabel atau membandingkan nilai probabilitasnya dengan
a
= 5%. Perbandingan yang dimaksud adalah apabila F hitung pada uji chow lebih besar dari F tabel, atau nilai probabilitas lebih kecil dari 0.05 maka Ho ditolak artinya model yang lebih tepat digunakan adalah Fixed Effect, sebaliknya jika F hitung lebih kecil dari F tabel atau nilai probability lebih besar dari0.05 maka Ho diterima dan model yang lebih tepat digunakan adalah common effect.
(2) Uji Hausman
Uji Hausman adalah uji yang digunakan dalam menentukan model fixed effect
atau random effect yang lebih sesuai untuk digunakan dalam estimasi data panel.
Hipotesis dalam uji hausman adalah sebagai berikut :
Ho : Random Effect
H1 : Fixed Effect
Uji ini deikembangkan oleh Hausman dengan didasarkan pada ide bahwa LSDV di dalam model fixed effect dan GLS adalah efisien sedangkan model OLS
adalah tidak efisien, dilain pihak alternatifnya metode OLS efisien dan GLS tidak efisien. Statistik uji Hausman ini mengikuti distribusi statistik chi-squares dengan
degree of freedom sebanyak k, dimana k adalah jumlah variabel independen.
Hipotesis null pada uji Hausman adalah model random effect lebih baik, jika nilai
null akan ditolak, yang berarti model estimasi yang tepat untuk regresi data panel
adalah fixed effect. Sebaliknya apabila nilai statistik hausman lebih kecil dari nilai
kritis Chi-Squares maka hipotesis null diterima yang artinya model yang tepat untuk
regresi data panel adalah random effect.
(3). Uji Lagrange Multiplier
Uji Lagrange Multiplier digunakan untuk mengetahui apakah model random
effect Lebh baik dari model common effect digunakan Lagrange Multiplier (LM). Uji
Signifikansi random effect ini dikembangkan oleh Breusch-Pagan. Pengujian
didasarkan pada nilai residual dari metode common effect. Uji LM ini didasarkan
pada distribusi Chi-Squares dengan derajat kebebasan (df) sebesar jumlah variabel
independen. Hipotesis null-nya adalah bahwa model yang tepat untuk regresi data
panel adalah Common Effect, dan hipotesis alternatifnya adalah model yang tepat
untuk regresi data panel adalah random effect.4.
Ho : Common Effect
H1 : Random Effect
Apabila nilai LM hitung lebih besar dari nilai kritis Chi-Squares maka
hipotesis null ditolak yang artinya model yang tepat untuk regresi data panel adalah
4 Sopana, “Data Panel. Diakses pada 27 September 2015 dari http://bengkeldata.com/data
- panel-pengertian-analisis-regresi-data-panel-fixed-effect-random-effect-serta-cara-olahdata-panel-uji-chow-uji-hausman-uji-lagrange/.
model random effect. Sebaliknya, apabila nilai LM hitung lebih kecil dari nilai kritis
chi-squares maka hipotesis null diterima yang artinya model yang tepat untuk regresi
data panel adalah model common effect.
d. Uji Asumsi Klasik
Tujuan pengujian asumsi klasik ini adalah untuk memberikan kepastian bahwa persamaan regresi yang didapatkan memiliki ketepatan dalam estimasi, tidak bias dan konsisten. Uji asumsi dasar yang dilakukan adalah :
1)Uji Normalitas
Uji normalitas bertujuan untuk menguji apakah sebuah model regresi variabel dependen, variabel independen atau keduanya mempunyai distribusi normal atau tidak. Nilai residual dikatakan berdistribusi normal jika nilai residual terstandarisasi tersebut sebagian besar mendekati nilai rata-ratanya. Tidak terpenuhinya asumsi normalitas dalam model regresi pada umumnya disebabkan karena distribusi data tidak normal, karena terdapat nilai ekstrem pada data yang diambil5.
Pada program Eviews Pengujian normalitas dilakukan dengan Jarque-Bera test.
Untuk mendeteksi normalitas data penelitian dapat dilakukan dengan melihat koefisien Jarque-bera dan probablitasnya. Hipotesis yang digunakan dalam pengujian normalitas adalah sebagai berikut :
Ho : reisudal dari model berdistribusi normal
5Neni Nuraini, “Analisis Faktor yang Mempengaruhi Manajemen Laba”, (Studi Empiris Pada
Perusahaan Manufaktur yang terdaftar di BEI Periode 2007-2011), (Skripsi S1 Universitas Islam Negeri Syarif Hidayatullah Jakarta), h. 96..
H1 : residual dari model tidak berdistribusi normal
(a) Bila nilai J - B tidak signifikan (lebih kecil dari dua), maka data berdistribesi normal.
(b) Bila probabilitas lebih besar dari pada tingkat signifikansi atau (5%) maka data berdistribusi normal.
(2). Multikolinearitas
Istilah kolinearitas ganda (multicolinearity) diciptakan oleh Ragner Frish di
dalam bukunya “Statictical Confluence Analysis by means of Complete Regression
Systems”. Aslinya istilah itu berarti adanya hubungan linear yang sempurna atau eksak (perfect or exact) diantara variabel-variabel bebas6. Uji multikolinearitas
bertujuan untuk mengetahui apakah dalam regresi ditemukan adanya korelasi yang kuat diantara variabel bebas. Model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel bebasnya. Meskipun demikian, adanya korelasi yang kuat antara variabel bebas dalam pembentukan sebuah model (persamaan) sangatlah tidak dianjurkan terjadi, karena hal itu akan berdampak kepada keakuratan pendugaan parameter, dalam hal ini koefisien regresi dalam memperkirakan nilai yang sebenarnya.
Salah satu cara untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi data panel menggunakan software Eviews adalah dengan cara melihat pada nilai koefisiean korelasinya pada hasil uji correlation dengan menggunakan
matriks korelasi. Jika hasil koefisien korelasi pada output menunjukan hasil diatas 0.8
6
maka diduga terjadi multikolinearitas. Sebaliknya jika koefisien korelasi rendah dibawah 0.8 maka diduga model terbebas dari masalah multikolinearitas.
(3). Uji Heteroskedastisitas
Uji Heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan varians dari residual satu pengamatan ke pengamatan yang lain. Uji heteroskedastisitas menunjukkan bahwa variance variabel tidak sama untuk
semua pengamatan. Jika variance dari residual satu pengamatan ke pengamatan lain
tetap, maka disebut Homoskedastisitas dan jika berbeda disebut heteroskedastisitas. Data yang baik yaitu homoskedastisitas yaitu kesamaan varians dan residual. Pada umumnya masalah hetroskedastisitas sering terjadi pada persamaan regresi yang menggunakan data cross section. Kebanyakan data cross section mengandung situasi
heteroskedastisitas karena data ini menghimpun data yang mewakili berbagai ukuran-ukuran (kecil, sedang dan besar)7.
Untuk menguji masalah heteroskedastisitas, peneliti menggunakan uji park dengan menggunakan software Eviews, yaitu dengan membuat persamaan regresi
dengan cara mengganti variabel dependen dengan residual kuadratnya. Apabila probabilitas yang ada bernilai diatas 0.05 yang berarti tidak signifikan, maka model regresi diasumsikan terbebas dari masalah heteroskedastisitas atau model regresi bersifat homokedastisitas.
7
2) Uji Autokorelasi
Istilah autokorelasi menurut Maurice G. Kendall & William R. Buckland, A
Dictionary and Statistical Terms : “Correlation between members of series of
observations ordered in time (as in time series data), or space (as in crossectional
data”)8. Uji autokorelasi bertujuan menguji apakah dalam sebuah model regresi linier ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada periode t-1 (sebelumnya)9.
Autokorelasi muncul karena observasi yang beruntun sepanjang waktu berkaitan satu sama lain. Masalah timbul karena residual (kesalahan pengganggu) tidak bebas dari satu observasi ke observasi lainnya10. Dengan kata lain model regresi yang baik adalah yang tidak terdapat korelasi antara observasi dengan data observasi sebelumnya. Autokorelasi ini umumnya terjadi pada data time series. Konsekuensi
dari adanya autokorelasi pada model ialah bahwa penaksir tidak efisien dan uji t serta uji F yang biasa tidak valid walaupun hasil estimasi tidak bias. Dalam mendeteksi ada atau tidaknya autokorelasi dapat dilakukan dengan uji Durbin Watson, dimana hipotesis yang diuji adalah :
Ho : tidak ada autokorelasi
H1 : ada autokorelasi
8
J. Supranto, Ekonometri, h.82. 9
Singgih Santoso, Buku Latihan SPSS – Statistik Multivariat(Jakarta : Elex Media Komputindo, 2002) h. 216.
10
Dasar pengambilan keputusan ada atau tidaknya autokorelasi adalah sebagai berikut :
a) Bila nilai D-W terletak antara batas atas (du) dan (4-du), maka koefisien autokorelasi sama dengan nol, berarti tidak ada masalah autokorelasi.. b) Bila nilai D-W lebih rendah daripada batas bawah atau lower bound (dl),
maka koefisien autokorelasi lebih besar daripada nol, berarti ada autokorelasi positif.
c) Bila nilai D-W lebih besar daripada (4-dl), maka koefisien autokorelasi lebih kecil daripada nol, berarti ada autokorelasi negatif..
d) Bila nilai D-W terletak di antara batas atas (du) dan batas bawah (dl) atau D-W terletak antara (4-du) dan (4-dl), maka hasilnya tidak dapat disimpulkan.
Sedangkan menurut Sunyoto (2009), nilai D-W yang berada diantara -2 dan +2 dapat dijadikan acuan bahwa tidak terjadi masalah autokorelasi dalam model penelitian.
e. Uji Hipotesis
Untuk menguji hipotesis penelitian ini digunakan uji regresi dengan α = 5% (0,05). Pengujian ini bertujuan untuk memperoleh gambaran mengenai besarnya pengaruh variabel independen terhadap variabel dependen11. Pengujian hipotesis dilakukan untuk menguji secara parsial dan simultan pengaruh antar variabel.
11
1). Uji Simultan (Uji F)
Pengujian ini bertujuan untuk membuktikan apakah variabel-variabel independen (X) secara simultan (bersama-sama) mempunyai pengaruh terhadap variabel dependen (Y)12. Apabila Fhitung > Ftabel, maka Ho ditolak dan Ha diterima, yang berarti variabel independen mempunyai pengaruh yang signifikan terhadap variabel dependen dengan menggunakan tingkat signifikan sebesar 0,05 jika nilai Fhitung > Ftabel maka secara bersama-sama seluruh variabel independen mempengaruhi variabel dependen.
Selain itu, dapat juga dengan melihat nilai probabilitas. Jika nilai probabilitas lebih kecil daripada 0,05 (untuk tingkat signifikansi = 0,05), maka variabel independen secara bersama-sama berpengaruh terhadap variabel dependen. Sedangkan jika nilai probabilitas lebih besar daripada 0,05 maka variabel independen secara serentak tidak berpengaruh terhadap variabel dependen. Kemudian akan diketahui apakah hipotesis dalam penelitian ini secara simultan ditolak atau diterima, adapun bentuk hipotesis secara simultan adalah :
2). Pengujian Secara Parsial (Uji t)
Uji t-statistik digunakan untuk mengetahui hubungan masing-masing variabel independen secara individual terhadap variabel. Untuk mengetahui ada atau tidaknya pengaruh masing-masing variabel-variabel independen secara individual terhadap dependen digunakan tingkat signifikannya 0,05. jika nilai probability t lebih besar
dari 0,05 maka ada pengaruh dari variable independen terhadap variable dependen
12
(koefesien regresi tidak signifikan), sedangkan jika nilai probability t lebih kecil dari 0,05 maka terdapat pengaruh dari variabel independen terhadap variable dependen (koefesien regresi sigifikan)13.
3). Kofesien Determinasi
Koefisien determinasi (R2), digunakan untuk mengukur seberapa besar variabel-variabel bebas dapat menjelaskan variabel terikat. Koefisien ini menunjukan seberapa besar variasi total pada variabel terikat yang dapat dijelaskan oleh variabel bebasnya dalam model regresi tersebut. Nilai dari koefisien determinasi ialah antara 0 hingga 1. Nilai R2 yang mendekati 1 menunjukan bahwa variabel dalam model tersebut dapat mewakili permasalahan yang diteliti, karena dapat menjelaskan variasi yang terjadi pada variabel dependennya. Nilai R2 sama dengan atau mendekati 0 (nol) menunjukan variabel dalam model yang dibentuk tidak dapat menjelaskan variasi dalam variabel terikat. Nilai koefisien determinasi akan cenderung semakin besar bila jumlah variabel bebas dan jumlah data yang diobservasi semakin banyak. Oleh karena itu, maka digunakan ukuran adjusted R2, untuk menghilangkan bias akibat adanya penambahan jumlah variabel bebas dan jumlah data yang diobservasi.
Oleh karena itu penggunaan Adjusted R-Square dianggap lebih baik daripada
R2, karena nilai Adjusted R-Square dapat naik atau turun dengan adanya penambahan
variabel baru, tergantung dari korelasi antara variabel bebas tambahan tersebut dengan variabel terikatnya. Nilai koefisien determinasi yang mendekati satu berarti
13
variabel - variabel independen memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variabel–variabel dependen14.