• Tidak ada hasil yang ditemukan

METODOLOGI PENELITIAN

D. Metode Analisis Data

1. Metode Analisis Regresi Berganda

Regresi bertujuan untuk menguji hubungan pengaruh antara satu variabel terhadap variabel lain. Variabel yang dipengaruhi disebut variabel tergantung atau dependen, regresi berganda bebas atau variabel independen. Regresi yang memiliki satu variabel dependen dan lebih dari satu variabel independen disebut regresi berganda. Model regresi linier berganda dikatakan model yang baik jika model tersebut memenuhi

asumsi normalitas data dan terbebas dari asumsi-asumsi klasik statistik, baik itu multikolinieritas, autokorelasi, dan heteroskedastisitas.

a. Statistik Deskriptif

Statistik deskriptif memberikan gambaran atau deskripsi suatu data yang dilihat dari nilai rata-rata (mean), standar deviasi, maksimum, dan minimum. Untuk memberikan gambaran analisis statistik deskriptif. 2. Uji Asumsi Klasik

Suatu model regresi berganda dapat dikatakan sebagai model yang baik jika model tersebut terbebas dari asumsi-asumsi klasik, baik itu multikolineritas, heteroskedastisitas dan autokorelsasi (Indoyama, 2008). a. Uji Normalitas

Singgih Santoso (2012:230) pengujian ini bertujuan untuk mengetahui apakah dalam model regresi variabel dependen, variabel independen, atau keduanya mempunyai distribusi normal atau tidak. Model regresi yang baik adalah distribusi data normal atau mendekati normal. Ada dua cara untuk mendeteksi apakah residual berdistribusi normal atau tidak yaitu dengan analisis grafik dan uji statistik.

1) Analisis Grafik

Salah satu cara termudah untuk melihat normalitas residual adalah dengan melihat grafik histogram yang membandingkan antara data observasi dengan distribusi yang mendeteksi distribusi normal. Namun demikian hanya dengan melihat histogram hal ini dapat menyesatkan khususnya untuk jumlah sampel yang kecil.

Metode yang lebih handal adalah dengan melihat normal

probability plot yang membandingkan distribusi kumulatif dari distribusi normal. Distribusi normal akan membentuk satu garis lurus diagonal, dan ploting data residual akan dibandingkan dengan garis diagonal. Jika distribusi data residual normal, maka garis yang menggambarkan data sesungguhnya akan mengikuti garis diagonalnya.

Ada beberapa cara mendeteksi normalitas dengan melihat penyebaran data (titik) pada sumbu diagonal dan grafik. Dasar pengambilan keputusan dalam uji normalitas yaitu:

a) Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal, maka model regresi memenuhi asumsi normalitas.

b) Jika data menyebar jauh dari garis diagonal dan atau tidak mengikuti arah garis diagonal, maka model regresi tersebut tidak memenuhi asumsi normalitas (Imam Ghozali, 2011:163). 2) Analisis Statistik

Uji normalitas dengan grafik dapat menyesatkan kalau tidak hati-hati. Secara visual kelihatan normal, namun secara statistik bisa sebaliknya. Oleh sebab itu disampinh uji grafik dilengkapi dengan uji statistik.

Uji statistik lain yang dapat digunakan untuk menguji normalitas residual adalah uji statistik non-parametik Kolmogorof-Smirnov (K-S).

Uji K-S dilakukan dengan membuat hipotesis : Ho : Data residual terdistribusi normal

Ha : Data residual tidak terdistribusi secara normal

(Imam Ghozali,2011 : 164) b. Uji Multikolineritas

Uji multikolineritas diperlukan untuk mengetahui ada tidaknya variabel independen yang memiliki kemiripan dengan variabel inependen lain dalam suatu model (Nugroho, 2005 : 58). Artinya, uji ini melihat adakah hubungan linier antara variabel dependen dan independen pada sebuah regresi. Menurut (Husein Umar, 2002:186) dalam Indoyama (2008:16) salah satu asumsi model regresi linier berganda adalah tidak terjadi korelasi yang signifikan antar variable bebasnya. Dalam statistik, tidak terjadi multikolinieritas. Uji multikolinieritas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas (independen). Model regresi yang baik seharusnya tidak tejadi korelasi diantara variabel bebas. Koefisien koralsi antar variabel independen haruslah lemah (dibawah 0,5). Jika korelasi kuat, maka terjadi problem multikolinieritas. Untuk mendeteksi ada atau tidak adanya multikolinieritas di dalam model regresi adalah dengan melihat nilai

tolerance ≤ 0.10 dan lawanya serta Variance Inflation Factor (VIF) ≥

10 (Imam Ghozali, 2011:106). c. Uji Autokorelasi

Uji autokorelasi bertujuan untuk menguji apakah di dalam suatu model regresi berganda terdapat korelasi antara kesalah pengganggu pada periode t-1 (sebelumya). Jika trejadi korelasi, maka dinamakan ada masalah autokorelasi. Autokorelasi muncul karena adanya observasi yang berurutan, sepanjang berkaitan satu sama lain. Cara untuk mendeteksi ada atau tidaknya masalah autokorelasi menurut Nugroho (2005:33), adalah dengan cara sebagai berikut :

Kesimpulan Daerah Pengujian

Terdapat autokorelasi positif d < dl

Ragu-ragu dl < d < du

Tidak terdapat autokorelasi du < d < 4-du Terdapat autokorelasi negatif 4-dl < d

Jika ada masalah autokorelasi, maka model regresi yang seharusnya signifikan, menjadi tidak layak untuk dipakai. Autokorelasi dapat diatasi dengan berbagai cara antara lain dengan melakukan transformasi data dan menambah data observasi.

d. Uji Heteroskedastisitas

Uji heterokedastisitas bertujuan untuk mengetahui terjadinya perbedaan variane residual suatu periode pengamatan ke periode pengamatan yang lain, atau gambaran hubungan antara nilai yang

diprediksi dengan Studentized Delete Residual nilai tersebut. Model regresi yang baik adalah model regresi yang memiliki persamaan variance residual suatu periode pengamatan dengan periode pengamatan lain, atau adanya hubungan antara nilai yang diprediksi dengan studentzed delete residual nilai tersebut sehingga dapat dikatakan nilai tersebut homokesdastisitas. Menurut Nugroho (2005:35), model regresi linier berganda tidak terdapat heteroskedastisitas jika pada pola gambar scatterplot :

1) Titik-titik data yang menyebar di atas dan di bawah atau disekitar angka 0 (Nol).

2) Titik-titik data tidak mengumpul hanya diatas atau di bawah saja. 3) Penyebaran titik-titik data yang di peroleh tidak boleh membentuk

pola bergelombang melebar kemudian menyempit dan melebar kembali.

4) Penyebaran titik-titik data sebaiknya tidak berpola. 3. Uji Hipotesis

a. Uji Simultan dengan F-Test

Untuk melihat pengaruh seluruh variabel independen secara simultan atau serentak terhadap variabel dependen dilakukan uji statistik-F (ANOVA) (Gujarat, 1978:47) dalam indoyama (2008:32). Jika nilai F-hitung > F-tabel pada tingkat signifikan atau alpha tertentu (misalnya : 5%), Ho ditolak dan Ha diterima, maka model yang diuji adalah signifikan.

Adapun statistik pengujiannya adalah :

1. Jika Fhitung ≥ Ftabel, maka H0 ditolak dan Ha diterima. 2. Jika Fhitung ≤ Ftabel, maka H0 diterima dan Ha ditolak.

Untuk menentukan apakah H0 ditolak atau diterima, maka nilai F hitung dibandingkan dengan Ftabel pada tingkat signifikansi tertentu, dengan Dk pembilang = k dan Dk penyebut = N-k-1

b. Uji Parsial dengan t-test

Uji t pada dasarnya digunakan untuk mengetahui seberapa jauh satu variabel independen secara individual dalam menerangkan variabel dependen (Gujarat, 1978:44) dalam Indo yama (2008:30). 1) Pengambilan keputusan berdasarkan t-hitung dengan t-tabel :

a. Jika t hitung > t-tabel atau t-hitung < t-tabel maka H0 ditolak dan Ha diterima.

b. Jika t-hitung < t-tabel, maka H0 diterima dan Ha ditolak. 2) Pengambilan keputusan berdasarkan probabilitas signifikan :

a. Jika probabilitas signifikan > 0,05, maka H0 diterima, berarti bahwa suatu variabel independen tidak berpengaruh secara signifikan terhadap variabel dependen.

b. Jika probabilitas signifikan < 0,05, H0 ditolak, berarti bahwa suatu variabel independen berpengaruh secara signifikan terhadap variabel dependen.

Menentukan nilai thitung dengan persamaan : ti = βi

Se(βi) Dimana :

βi = bi = Koefisien regresi variabel Xi

Se(βi) = Standar error variabel Xi

c. Uji Koefisien Determinasi (adjusted R square)

Koefisien determinasi (R²/adjusted R²) pada intinya mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel dependen. Nilai koefisien determinasi adalah diantara nol dan satu. Nilai R² / Adjusted R² kecil berarti kemampuan variabel-variabel independen dalam menjelaskan variasi variabel dependen amat terbatas (Imam Ghozali, 2011:97).

Menurut Gujarati dalam Imam Ghozali (2011:97-99) jika dalam uji empiris didapat nilai adjusted R² negatif, maka nilai adjusted R² dianggap bernilai nol. Secara sistematis jika nilai R² = 1, maka Adjusted R² = R² = 1 sedangkan jika nilai R² = 0, maka adjusted R²= (1-k)/(n-k). Jika k>1, maka adjusted R² akan bernilai negatif.

d. Uji Persamaan Regresi Linier Berganda

Sedangkan model analisis yang digunakan dalam penelitian ini adalah model regresi linear berganda (multiple regression) yang bertujuan untuk menguji pengaruh kebijakan dividen, Profitabilitas, Pertumbuhan Perusahaan dan Ukuran Perusahaan terhadap kebijakan

Adapun persamaan dari regresi berganda dalam penelitian ini adalah sebagai berikut :

Y = a+b1X1+b2X2+b3X3+b4X4+e Dimana :

Y = Kebijakan Hutang (DER)

a = Konstanta

X1 = Kebijakan Dividen X2 = Profitabilitas

X3 = Pertumbuhan Perusahaan X4 = Ukuran Perusahaan

b1, b2, b3, b4,.. = Koefisien regresi yang menunjukan angka peningkatan atau penurunan variabel terikat yang didasarkan pada hubungan nilai variabel bebas.

e = Error Term.

Dokumen terkait