• Tidak ada hasil yang ditemukan

Independen X1 : Return On Equity

METODE PENELITIAN

D. Metode Analisis Data 1. Teknik Analisis Data 1.Teknik Analisis Data

Data-data yang digunakan dalam penelitian ini merupakan gabungan dari data

cross section dan data time series, kombinasi dari gabungan kedua data tersebut

adalah data panel. Data panel adalah kumpulan data cross section yang diamati dari

waktu ke waktu secara simultan atau serentak. Teknik analisis yang dipakai adalah dengan analisis regresi data panel dengan menggunakan EVIEWS 7.0 sebagai program pengolah datanya.

a. Keuntungan Menggunakan Data Panel :

1) Data panel dapat memberikan peneliti jumlah pengamatan yang besar, meningkatkan degree of freedom (derajat kebebasan), data memiliki

variabilitas yang besar dan mengurangi kolinieritas antara variabel penjelas, di mana dapat menghasilkan estimasi ekonometri yang efisien.

2) Panel data dapat memberikan informasi lebih banyak yang tidak dapat diberikan hanya oleh data cross section atau time series saja.

3) Panel data dapat memberikan penyelesaian yang lebih baik dalam inferensi perubahan dinamis dibandingkan data cross section.

4) Dengan mempelajari data cross section yang berulang maka data panel

5) Data panel bisa mendekteksi dengan lebih baik dan mengukur dampak yang tidak bisa diobservasi oleh data cross section maupun time

series.

6) Data panel dapat mengatasi masalah yang timbul akibat penghilang variabel.

Mengingat data panel merupakan gabungan dari data cross section dan data

time series, maka sesuai dengan judul dalam penelitian ini

Pengaruh profitabilitas,

corporate governance, ukuran perusahaan dan leverage terhadap praktik manajemen

laba pada emiten Indeks Saham Syariah Indonesia (ISSI) sub sektor barang Konsumsi periode 2011-2014

”,

modelnya dituliskan dengan :

Yit = α + β X1it+ β X2it+ β X3it + εit ;

Y = Variabel dependen (Manajemen Laba/Earning Management) α = Konstanta

X1 = Variabel independen 1 (Return On Equity)

X2 = Variabel independen 2 (Corporate Governance)

X3 = Variabel Independen 3 (Ukuran perusahaan) X4 = Variabel Independen 4 (Debt to Asset Ratio)

b(1…2) = Koefisien regresi masing-masing variabel independen

e = Errorterm

i = Perusahaan

b. Penentuan Model Estimasi :

Dalam metode estimasi model regresi dengan menggunakan data panel dapat dilakukan melalui tiga pendekatan, antara lain:

1) Common Effect Model atau Pooled Least Square (PLS) : Merupakan pendekatan model data panel yang paling sederhana karena hanya mengkombinasikan data time series dan cross section.

Pada model ini tidak diperhatikan dimensi waktu maupun individu, sehingga diasumsikan bahwa perilaku data perusahaan sama dalam berbagai kurun waktu. Metode ini bisa menggunakan pendekatan

Ordinary Least Square (OLS) atau teknik kuadrat terkecil untuk

mengestimasi model data panel.

2) Fixed Effect Model : Model ini mengasumsikan bahwa perbedaan antar individu dapat diakomodasi dari perbedaan intersepnya. Untuk mengestimasi data panel model Fixed Effect menggunakan teknik

variabel dummy untuk menangkap perbedaan intersep antar

perusahaan, perbedaan intersep bisa terjadi karena perbedaan budaya kerja, manajerial, dan insentif. Namun demikian slopnya sama antar perusahaan. Model estimasi ini sering juga disebut dengan teknik

3) Random Effect Model : Model ini akan mengestimasi data panel dimana variabel gangguan mungkin saling berhubungan antar waktu dan antar individu. Pada model random effect perbedaan intersep

diakomodasi oleh error term masing-masing perusahaan. Keuntungan

menggunkan model random effect yakni menghilangkan

heteroskedastisitas. Model ini juga disebut dengan Error Component

Model (ECM) atau teknik Generalized Least Square (GLS) .

c. Tahap analisis data

Dalam memilih model yang paling tepat untuk digunakan dalam regresi data panel, terdapat beberapa pengujian yang dapat dilakukan diantaranya :

(1) Uji Chow

Uji chow adalah pengujian untuk menentukan model fixed effect atau common

effect yang lebih tepat untuk digunakan dalam estimasi data panel. Dalam uji chow

hipotesisnya adalah sebagai berikut :

Ho : Common Effect

H1 : Fixed Effect

Penguji uji chow menggunakan software Eviews adalah dengan menggunakan

dengan membandingkan perhitungan F hitung dengan F tabel atau membandingkan nilai probabilitasnya dengan

a

= 5%. Perbandingan yang dimaksud adalah apabila F hitung pada uji chow lebih besar dari F tabel, atau nilai probabilitas lebih kecil dari 0.05 maka Ho ditolak artinya model yang lebih tepat digunakan adalah Fixed Effect, sebaliknya jika F hitung lebih kecil dari F tabel atau nilai probability lebih besar dari

0.05 maka Ho diterima dan model yang lebih tepat digunakan adalah common effect.

(2) Uji Hausman

Uji Hausman adalah uji yang digunakan dalam menentukan model fixed effect

atau random effect yang lebih sesuai untuk digunakan dalam estimasi data panel.

Hipotesis dalam uji hausman adalah sebagai berikut :

Ho : Random Effect

H1 : Fixed Effect

Uji ini deikembangkan oleh Hausman dengan didasarkan pada ide bahwa LSDV di dalam model fixed effect dan GLS adalah efisien sedangkan model OLS

adalah tidak efisien, dilain pihak alternatifnya metode OLS efisien dan GLS tidak efisien. Statistik uji Hausman ini mengikuti distribusi statistik chi-squares dengan

degree of freedom sebanyak k, dimana k adalah jumlah variabel independen.

Hipotesis null pada uji Hausman adalah model random effect lebih baik, jika nilai

null akan ditolak, yang berarti model estimasi yang tepat untuk regresi data panel

adalah fixed effect. Sebaliknya apabila nilai statistik hausman lebih kecil dari nilai

kritis Chi-Squares maka hipotesis null diterima yang artinya model yang tepat untuk

regresi data panel adalah random effect.

(3). Uji Lagrange Multiplier

Uji Lagrange Multiplier digunakan untuk mengetahui apakah model random

effect Lebh baik dari model common effect digunakan Lagrange Multiplier (LM). Uji

Signifikansi random effect ini dikembangkan oleh Breusch-Pagan. Pengujian

didasarkan pada nilai residual dari metode common effect. Uji LM ini didasarkan

pada distribusi Chi-Squares dengan derajat kebebasan (df) sebesar jumlah variabel

independen. Hipotesis null-nya adalah bahwa model yang tepat untuk regresi data

panel adalah Common Effect, dan hipotesis alternatifnya adalah model yang tepat

untuk regresi data panel adalah random effect.4.

Ho : Common Effect

H1 : Random Effect

Apabila nilai LM hitung lebih besar dari nilai kritis Chi-Squares maka

hipotesis null ditolak yang artinya model yang tepat untuk regresi data panel adalah

4 Sopana, “Data Panel. Diakses pada 27 September 2015 dari http://bengkeldata.com/data

- panel-pengertian-analisis-regresi-data-panel-fixed-effect-random-effect-serta-cara-olahdata-panel-uji-chow-uji-hausman-uji-lagrange/.

model random effect. Sebaliknya, apabila nilai LM hitung lebih kecil dari nilai kritis

chi-squares maka hipotesis null diterima yang artinya model yang tepat untuk regresi

data panel adalah model common effect.

d. Uji Asumsi Klasik

Tujuan pengujian asumsi klasik ini adalah untuk memberikan kepastian bahwa persamaan regresi yang didapatkan memiliki ketepatan dalam estimasi, tidak bias dan konsisten. Uji asumsi dasar yang dilakukan adalah :

1)Uji Normalitas

Uji normalitas bertujuan untuk menguji apakah sebuah model regresi variabel dependen, variabel independen atau keduanya mempunyai distribusi normal atau tidak. Nilai residual dikatakan berdistribusi normal jika nilai residual terstandarisasi tersebut sebagian besar mendekati nilai rata-ratanya. Tidak terpenuhinya asumsi normalitas dalam model regresi pada umumnya disebabkan karena distribusi data tidak normal, karena terdapat nilai ekstrem pada data yang diambil5.

Pada program Eviews Pengujian normalitas dilakukan dengan Jarque-Bera test.

Untuk mendeteksi normalitas data penelitian dapat dilakukan dengan melihat koefisien Jarque-bera dan probablitasnya. Hipotesis yang digunakan dalam pengujian normalitas adalah sebagai berikut :

Ho : reisudal dari model berdistribusi normal

5Neni Nuraini, “Analisis Faktor yang Mempengaruhi Manajemen Laba”, (Studi Empiris Pada

Perusahaan Manufaktur yang terdaftar di BEI Periode 2007-2011), (Skripsi S1 Universitas Islam Negeri Syarif Hidayatullah Jakarta), h. 96..

H1 : residual dari model tidak berdistribusi normal

(a) Bila nilai J - B tidak signifikan (lebih kecil dari dua), maka data berdistribesi normal.

(b) Bila probabilitas lebih besar dari pada tingkat signifikansi atau (5%) maka data berdistribusi normal.

(2). Multikolinearitas

Istilah kolinearitas ganda (multicolinearity) diciptakan oleh Ragner Frish di

dalam bukunya “Statictical Confluence Analysis by means of Complete Regression

Systems”. Aslinya istilah itu berarti adanya hubungan linear yang sempurna atau eksak (perfect or exact) diantara variabel-variabel bebas6. Uji multikolinearitas

bertujuan untuk mengetahui apakah dalam regresi ditemukan adanya korelasi yang kuat diantara variabel bebas. Model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel bebasnya. Meskipun demikian, adanya korelasi yang kuat antara variabel bebas dalam pembentukan sebuah model (persamaan) sangatlah tidak dianjurkan terjadi, karena hal itu akan berdampak kepada keakuratan pendugaan parameter, dalam hal ini koefisien regresi dalam memperkirakan nilai yang sebenarnya.

Salah satu cara untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi data panel menggunakan software Eviews adalah dengan cara melihat pada nilai koefisiean korelasinya pada hasil uji correlation dengan menggunakan

matriks korelasi. Jika hasil koefisien korelasi pada output menunjukan hasil diatas 0.8

6

maka diduga terjadi multikolinearitas. Sebaliknya jika koefisien korelasi rendah dibawah 0.8 maka diduga model terbebas dari masalah multikolinearitas.

(3). Uji Heteroskedastisitas

Uji Heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan varians dari residual satu pengamatan ke pengamatan yang lain. Uji heteroskedastisitas menunjukkan bahwa variance variabel tidak sama untuk

semua pengamatan. Jika variance dari residual satu pengamatan ke pengamatan lain

tetap, maka disebut Homoskedastisitas dan jika berbeda disebut heteroskedastisitas. Data yang baik yaitu homoskedastisitas yaitu kesamaan varians dan residual. Pada umumnya masalah hetroskedastisitas sering terjadi pada persamaan regresi yang menggunakan data cross section. Kebanyakan data cross section mengandung situasi

heteroskedastisitas karena data ini menghimpun data yang mewakili berbagai ukuran-ukuran (kecil, sedang dan besar)7.

Untuk menguji masalah heteroskedastisitas, peneliti menggunakan uji park dengan menggunakan software Eviews, yaitu dengan membuat persamaan regresi

dengan cara mengganti variabel dependen dengan residual kuadratnya. Apabila probabilitas yang ada bernilai diatas 0.05 yang berarti tidak signifikan, maka model regresi diasumsikan terbebas dari masalah heteroskedastisitas atau model regresi bersifat homokedastisitas.

7

2) Uji Autokorelasi

Istilah autokorelasi menurut Maurice G. Kendall & William R. Buckland, A

Dictionary and Statistical Terms : “Correlation between members of series of

observations ordered in time (as in time series data), or space (as in crossectional

data”)8. Uji autokorelasi bertujuan menguji apakah dalam sebuah model regresi linier ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada periode t-1 (sebelumnya)9.

Autokorelasi muncul karena observasi yang beruntun sepanjang waktu berkaitan satu sama lain. Masalah timbul karena residual (kesalahan pengganggu) tidak bebas dari satu observasi ke observasi lainnya10. Dengan kata lain model regresi yang baik adalah yang tidak terdapat korelasi antara observasi dengan data observasi sebelumnya. Autokorelasi ini umumnya terjadi pada data time series. Konsekuensi

dari adanya autokorelasi pada model ialah bahwa penaksir tidak efisien dan uji t serta uji F yang biasa tidak valid walaupun hasil estimasi tidak bias. Dalam mendeteksi ada atau tidaknya autokorelasi dapat dilakukan dengan uji Durbin Watson, dimana hipotesis yang diuji adalah :

Ho : tidak ada autokorelasi 

H1 : ada autokorelasi 

8

J. Supranto, Ekonometri, h.82. 9

Singgih Santoso, Buku Latihan SPSS – Statistik Multivariat(Jakarta : Elex Media Komputindo, 2002) h. 216.

10

Dasar pengambilan keputusan ada atau tidaknya autokorelasi adalah sebagai berikut :

a) Bila nilai D-W terletak antara batas atas (du) dan (4-du), maka koefisien autokorelasi sama dengan nol, berarti tidak ada masalah autokorelasi.. b) Bila nilai D-W lebih rendah daripada batas bawah atau lower bound (dl),

maka koefisien autokorelasi lebih besar daripada nol, berarti ada autokorelasi positif.

c) Bila nilai D-W lebih besar daripada (4-dl), maka koefisien autokorelasi lebih kecil daripada nol, berarti ada autokorelasi negatif..

d) Bila nilai D-W terletak di antara batas atas (du) dan batas bawah (dl) atau D-W terletak antara (4-du) dan (4-dl), maka hasilnya tidak dapat disimpulkan.

Sedangkan menurut Sunyoto (2009), nilai D-W yang berada diantara -2 dan +2 dapat dijadikan acuan bahwa tidak terjadi masalah autokorelasi dalam model penelitian.

e. Uji Hipotesis

Untuk menguji hipotesis penelitian ini digunakan uji regresi dengan α = 5% (0,05). Pengujian ini bertujuan untuk memperoleh gambaran mengenai besarnya pengaruh variabel independen terhadap variabel dependen11. Pengujian hipotesis dilakukan untuk menguji secara parsial dan simultan pengaruh antar variabel.

11

1). Uji Simultan (Uji F)

Pengujian ini bertujuan untuk membuktikan apakah variabel-variabel independen (X) secara simultan (bersama-sama) mempunyai pengaruh terhadap variabel dependen (Y)12. Apabila Fhitung > Ftabel, maka Ho ditolak dan Ha diterima, yang berarti variabel independen mempunyai pengaruh yang signifikan terhadap variabel dependen dengan menggunakan tingkat signifikan sebesar 0,05 jika nilai Fhitung > Ftabel maka secara bersama-sama seluruh variabel independen mempengaruhi variabel dependen.

Selain itu, dapat juga dengan melihat nilai probabilitas. Jika nilai probabilitas lebih kecil daripada 0,05 (untuk tingkat signifikansi = 0,05), maka variabel independen secara bersama-sama berpengaruh terhadap variabel dependen. Sedangkan jika nilai probabilitas lebih besar daripada 0,05 maka variabel independen secara serentak tidak berpengaruh terhadap variabel dependen. Kemudian akan diketahui apakah hipotesis dalam penelitian ini secara simultan ditolak atau diterima, adapun bentuk hipotesis secara simultan adalah :

2). Pengujian Secara Parsial (Uji t)

Uji t-statistik digunakan untuk mengetahui hubungan masing-masing variabel independen secara individual terhadap variabel. Untuk mengetahui ada atau tidaknya pengaruh masing-masing variabel-variabel independen secara individual terhadap dependen digunakan tingkat signifikannya 0,05. jika nilai probability t lebih besar

dari 0,05 maka ada pengaruh dari variable independen terhadap variable dependen

12

(koefesien regresi tidak signifikan), sedangkan jika nilai probability t lebih kecil dari 0,05 maka terdapat pengaruh dari variabel independen terhadap variable dependen (koefesien regresi sigifikan)13.

3). Kofesien Determinasi

Koefisien determinasi (R2), digunakan untuk mengukur seberapa besar variabel-variabel bebas dapat menjelaskan variabel terikat. Koefisien ini menunjukan seberapa besar variasi total pada variabel terikat yang dapat dijelaskan oleh variabel bebasnya dalam model regresi tersebut. Nilai dari koefisien determinasi ialah antara 0 hingga 1. Nilai R2 yang mendekati 1 menunjukan bahwa variabel dalam model tersebut dapat mewakili permasalahan yang diteliti, karena dapat menjelaskan variasi yang terjadi pada variabel dependennya. Nilai R2 sama dengan atau mendekati 0 (nol) menunjukan variabel dalam model yang dibentuk tidak dapat menjelaskan variasi dalam variabel terikat. Nilai koefisien determinasi akan cenderung semakin besar bila jumlah variabel bebas dan jumlah data yang diobservasi semakin banyak. Oleh karena itu, maka digunakan ukuran adjusted R2, untuk menghilangkan bias akibat adanya penambahan jumlah variabel bebas dan jumlah data yang diobservasi.

Oleh karena itu penggunaan Adjusted R-Square dianggap lebih baik daripada

R2, karena nilai Adjusted R-Square dapat naik atau turun dengan adanya penambahan

variabel baru, tergantung dari korelasi antara variabel bebas tambahan tersebut dengan variabel terikatnya. Nilai koefisien determinasi yang mendekati satu berarti

13

variabel - variabel independen memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variabel–variabel dependen14.