• Tidak ada hasil yang ditemukan

BAB III METODOLOGI PENELITIAN

D. Metode Analisis Data

Metode analisis yang digunakan dalam penelitian ini adalah sebagai berikut:

1. Pengujian persyaratan analisis

Pengujian ini digunakan sebagai persyaratan dalam penggunaan model analisis regresi linier. Dalam regresi linier, untuk memastikan agar model tersebut BLUE (Best Linear Unbiased Estimator) dilakukan pengujian sebagai berikut:

a. Uji Normalitas

Uji ini bertujuan untuk menguji data berdistribusi normal atau data tidak berdistribusi normal, data yang baik adalah data yang berdistribusi normal. Salah satu cara termudah untuk melihat normalitas residualnya adalah dengan melihat grafik histogram yang membandingkan antara data observasi dengan distribusi yang mendekati distribusi normal. Namun demikian hanya dengan melihat histogram hal ini dapat menyesatkan khususnya untuk

jumlah sampel yang kecil, maka untuk melihat data yang telah memenuhi uji normalitas adalah dengan menggunakan normal

probability plot yang membandingkan distribusi kumulatif dan distribusi normal. Distribusi normal akan membentuk satu garis lurus diagonal, dan ploting data residual akan dibandingkan dengan garis diagonal. Jika distribusi data residual normal, maka garis yang menggambarkan data sesungguhnya akan mengikuti garis diagonalnya. (Imam Ghozali, 2009:147).

b. Uji Multikolonieritas

Menurut Imam Ghozali (2009:95) menyatakan bahwa uji multikolonieritas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas (independen). Model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel independen. Untuk mendeteksi ada atau tidaknya multikolonieritas didalam model regresi dengan melihat nilai tolerance ≤ 0.10 dan lawannya nilai variance inflation factor (VIF) ≥ 10 berarti data tidak ada masalah

multikolonearitas. a. Uji Autokorelasi

Menurut Imam Ghozali (2009:99) uji autokorelasi bertujuan menguji apakah dalam model regresi liniear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pengganggu pada periode t-1 (sebelumnya). Untuk menguji ada

tidaknya gejala autokorelasi maka dapat dideteksi dengan uji Durbin-Waston (DW test). Untuk mengetahui ada tidaknya autokorelasi maka berikut ini adalah tabel autokorelasi Durbin-Waston (Damodar Gujarati, 1995:216).

Tabel 4.2

Posisi Angka Durbin Waston

Hipotesis Nol Keputusam Jika

Tidak ada autokorelasi positif Tolak 0 < dw < dl Tidak ada autokorelasi positif Tidak ada kesimpulan dl < dw < du

Tidak ada korelasi negative Tolak 4-dl < dw < 4 Tidak ada korelasi negative Tidak ada kesimpulan 4-du < dw < 4-dl Tidak ada autokorelasi, positif

atau negative

Tidak terjadi autokorelasi

du < dw < 4-du

Sumber: Imam Gozali: 111

b. Uji Heteroskedastisitas

Uji ini bertujuan menguji apakah model regresi terjadi ketidaksamaan varians dan residual satu pengamatan ke pengamatan yang lain. Jika varians dari residual satu pengamatan ke pengamatan yang lain, maka disebut Homoskedastisitas dan jika berbeda disebut Heteroskedastisitas. Data yang baik yaitu homoskedastisitas adalah kesamaan varians dan residual. Cara untuk mendeteksi ada atau tidaknya heteroskedastisitas yaitu melihat hasil output

SPSS melalui grafik scatterplot antara nilai prediksi variabel terikat (dependen) yaitu ZPRED dengan residualnya SRESID. Deteksi ada tidaknya heteroskedastisitas dapat dilakukan dengan melihat ada tidaknya pola tertentu pada grafik

scatterplot antara SRESID dan ZPRED dimana sumbu Y adalah yang telah diprediksi, dan sumbu X adalah residual (Y prediksi – Y sesungguhnya) yang telah di-studentized. Dasar analisis:

a. Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola tertentu yang teratur (bergelombang, melebar kemudian menyempit), mengindikasikan telah terjadi heteroskedastisitas.

b. Jika tidak ada pola yang jelas, serta titik-titik menyebar diatas dan dibawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas. (Imam Ghozali, 2009:125). 2. Analisis Regresi Linear Berganda

Analisis regresi linear berganda adalah suatu analisis yang mengukur pengaruh antar variabel dan melibatkan lebih dari satu variabel bebas (Danang, 2009:9). Dalam penelitian ini digunakan analisis regresi linear berganda dengan model dasar sebagai berikut:

Y = + + + + + + + + + e

DPR = + CR + QR + TATO + ITO + ROA + EPS + DAR + DER + e

Keterangan:

DPR = Merupakan perbandingan anyata deviden yang dibayarkan dengan jumlah saham yang beredar.

CR = Rasio antara aktiva lancar terhadap hutang lancar.

QR = Rasio antara aktiva lancar dikurang persediaan terhadap kewajiban lancar.

TATO = Rasio antara penjualan terhadap total aktiva. ITO = Rasio antara penjualan terhadap persediaan.

ROA = Rasio antara laba bersih setelah pajak terhadap total asset. EPS = Rasio antara laba setelah pajak terhadap jumlah saham yang beredar.

DAR = Rasio antara total hutang terhadap total aktiva. DER = Rasio antara hutang terhadap ekuitas.

a = nilai konstanta b = koefisien regresi e = faktor pengganggu

3. Uji Signifikan Simultan (Uji F)

Uji F untuk membuktikan apakah variabel-variabel independen (X) secara simultan (bersama-sama) mempunyai pengaruh terhadap variabel dependen (Y). (Imam Ghozali, 2006:88). Rumunya adalah sebagai berikut:

F = �2/K

(1 – R) / (N – K – 1)

Dimana: R2 = Koefisien regresi n = Jumlah sampel

k = Jumlah variabel independen

setelah didapat Fℎ� ��, maka untuk menginprestasikan hasilnya berlaku ketentuan sebagai berikut:

a. Apabila Fℎ� ��>F ��, maka H0 ditolak dan Hа diterima, yang berarti variabel independen mempunyai pengaruh yang signifikan terhadap variabel dependen.

b. Apabila Fℎ� ��<F ��, berarti H0 diterima dan Hа ditolak, yang berarti variabel independen tidak mempunyai pengaruh yang signifikan terhadap variabel dependen.

Menurut Suliyanto (2011:61) nilai F hitung digunakan untuk menguji ketepatan model (goodness of fit). Uji F ini juga sering disebut sebagai uji simultan, untuk menguji apakah variabel bebas yang digunakan dalam model mampu menjelaskan perubahan nilai variabel tergantung atau tidak. Untuk menyimpulkan apakah model masuk dalam kategori cocok (fit) atau tidak. Pengujian ini dilakukan dengan uji-f pada

tingkat keyakinan 95% dan tingkat kesalahan analisis (α) 5% dengan

k. Dengan n sebagai jumlah data, dan k sebagai jumlah variabel ( Variabel bebas dan variabel tidak bebas )

Hipotesis yang digunakan adalah sebagai berikut:

H0: β = 0, tidak terdapat pengaruh signifikan secara simultan antara

variabel independen terhadap variabel dependen.

Hа: β ≠ 0, terdapat pengaruh signifikan secara simultan antara variabel

independen terhadap variabel dependen. 4. Uji Signifikan Parsial (Uji T)

Uji statistik T pada dasarnya menunjukan seberapa jauh pengaruh satu variabel individu independen (exsplanatory) secara individu dalam menerangkan variabel dependen (Imam Ghozali, 2006:88). Rumusnya adalah sebagai berikut:

Dimana: r = koefisien regresi n = Jumlah data

setelah diperoleh Tℎ� �� maka untuk menginprestasikan hasilnya berlaku ketentuan sebagai berikut:

a. Jika Tℎ� ��>T ��, berarti H0 ditolak dan Hа diterima, artinya variabel independen mempunyai pengaruh yang signifikan terhadap variabel dependen.

T= Koefisien Regresi (bi) Koefisien deviasi (bi)

b. Jika Tℎ� ��<T ��, berarti H0 diterima dan H1 ditolak, artinya variabel independen tidak mempunyai pengaruh yang signifikan terhadap variabel dependen.

c. Jika nilai sig> 5% berarti H0 diterima dan Hа ditolak, artinya variabel independen tidak mempunyai pengaruh yang signifikan terhadap variabel dependen.

d. Jika nilai sig< 5% berarti H0 ditolak dan Hа diterima, artinya variabel independen mempunyai pengaruh yang signifikan terhadap variabel dependen.

Menurut Suliyanto (2011:55), nilai t hitung digunakan untuk menguji pengaruh secara parsial (per variabel) terhadap terikatnya. Apakah variabel tersebut memiliki pengaruh yang berarti terhadap variabel terikatnya atau tidak. Untuk mencari nilai t-tabel yaitu dengan menggunakan persamaan degree of freedom df : α,(n-k) dimana n sebagai jumlah pengamatan (ukuran sampel) dan k sebagai jumlah variabel. Masing-masing variabel dikatakan signifikan apabila memiliki nilai t-hitung yang lebih besar dari t-tabel.

Hipotesis yang digunakan adalah sebagai berikut:

H0: β = 0, tidak terdapat pengaruh signifikan secara parsial antara

variabel independen terhadap variabel dependen.

Hа: β ≠ 0, terdapat pengaruh signifikan secara parsial antara variabel

5. Uji Koefisien Determinasi (R2)

Koefisien determinasi (R2) pada intinya mengukur seberapa jauh kemampuan model dalam menerapkan variasi variabel dependen. Nilai R2 yang kecil berarti kemampuan variasi variabel independen dalam menjelaskan variasi variabel dependen amat teratas. Nilai yang mendekati satu berarti variabel-variabel independen memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variasi variabel dependenImam Ghozali (2009:87).

Dokumen terkait