• Tidak ada hasil yang ditemukan

BAB IV ANALISIS HASIL PENELITIAN

B. Hasil AnalisisData Penelitian

2. Pengujian Asumsi Klasik

Untuk menghasilkan suatu model regresi yang baik diperlukan pengujian asumsi klasik terlebih dahulu sebelum melakukan pengujian hipotesis. Pengujian asumsi klasik dalam penelitian ini dilakukan dengan bantuan program statistik normalitas data, autokorelasi, heterokedastisitas dan asumsi-asumsi klasik lainnya agar hasil pengujian tidak bersifat bias dan efisien. Menurut Ghozali (2005:123)

asumsi klasik yang harus dipenuhi adalah berdistribusi normal, non-multikolinearitas, non-autokorelasi dan non-heterokedastisitas.

a. Uji Normalitas

Pengujian normalitas data dalam penelitian ini menggunakan uji statistik non parametrik Kolmogorov-Smirnov untuk mengetahui apakah data sudah terdistribusi secara normal atau tidak. Ghozali (2005 : 115), memberikan pedoman pengambilan keputusan rentang data mendekati atau merupakan distribusi normal berdasarkan uji Kolmogorov- Smirnov yang dapat dilihat dari:

a. Jika nilai signifikan < 0.05 maka distribusi data tidak normal

b. Jika nilai signifikan > 0.05 maka distribusi data normal

Hipotesis yang digunakan :

• Ho : Data residual berdistribusi normal

• Ha : Data residual tidak berdistribusi normal

Hasil uji normalitas dengan menggunakan model Kolmogorov-Smirnov adalah seperti yang ditampilkan berikut ini

Tabel 4.6

Hasil Uji Normalitas (1)

One-Sample Kolmogorov-Smirnov Test

Unstandardized Residual

N 54

Normal Parametersa Mean .0000000

Std. Deviation .21598074 Most Extreme Differences Absolute .281 Positive .272 Negative -.281 Kolmogorov-Smirnov Z 2.064

Asymp. Sig. (2-tailed) .000

a. Test distribution is Normal.

Sumber : Output SPSS, diolah Peneliti, 2010

Dari hasil pengolahan data pada Tabel 4.6 diperoleh besarnya nilai Kolmogorov-Smirnov adalah 2,064 dan signifikan pada 0,000. Nilai signifikansi lebih kecil dari 0,05, maka H0 ditolak yang berarti data residual berdistribusi tidak normal. Data yang berdistribusi normal dapat disebabkan oleh adanya data yang outlier yaitu data yang memiliki nilai yang sangat menyimpang dari nilai data lainnya.

Untuk lebih jelas, berikut ini turut dilampirkan grafik histogram dan plot data yang terdistribusi normal. Hasil dari uji normalitas dengan grafik histogram, ditunjukkan sebagai berikut:

Gambar 4.1. Histogram

Sumber : Output SPSS, diolah Peneliti, 2010

Hasil uji normalitas di atas memperlihatkan bahwa pada grafik histogram di atas distribusi data tidak mengikuti kurva berbentuk lonceng namun distribusi data

menceng (skewness) ke kanan dan ke kiri atau bisa disimpulkan bahwa data tersebut tidak normal.

Gambar 4.2 Normal P-Plot Regression

Sumber : Output SPSS, diolah Peneliti, 2010

Demikian pula dengan hasil uji normalitas dengan menggunakan grafik plot. Pada grafik normal plot, terlihat titik-titik tidak menyebar disekitar garis diagonal

serta penyebarannya menjauhi garis diagonal sehingga dapat disimpulkan bahwa data dalam model regresi tidak terdistribusi secara normal.

Menurut Erlina (2007 : 106) ada beberapa cara mengubah model regresi menjadi normal yaitu :

d. lakukan transformasi data ke bentuk lainnya, e. lakukan trimming, yaitu membuang data outlier,

f. lakukan winsorizing, yaitu mengubah nilai data yang outlier ke suatu nilai tertentu.

Untuk mengubah nilai residual agar berdistribusi normal, peneliti melakukan transformasi data ke model logaritma natural (Ln). Transformasi data ke dalam bentuk logaritma natural menyebabkan data yang bernilai negatif tidak dapat ditransformasi sehingga menghasilkan missing values. Setiap data yang terdapat missing values akan dihilangkan dan diperoleh jumlah sampel yang valid menjadi 38 pengamatan.

Setelah itu, data diuji ulang berdasarkan asumsi normalitas. Berikut ini adalah hasil pengujian dengan Kolmogorov-Smirnov setelah dilakukan transformasi:

Tabel 4.7

Hasil Uji Normalitas (2)

Setelah Transformasi Dengan Logaritma Natural One-Sample Kolmogorov-Smirnov Test

Unstandardized Residual

N 38

Normal Parametersa Mean .0000000

Std. Deviation 1.00194795 Most Extreme Differences Absolute .083 Positive .083 Negative -.060 Kolmogorov-Smirnov Z .513

Asymp. Sig. (2-tailed) .955

a. Test distribution is Normal.

Sumber : Output SPSS, diolah Peneliti, 2010

Dari hasil pengolahan data pada tabel 4.7 diperoleh besarnya nilai Kolmogorov-Smirnov adalah 0.513 dan signifikan pada 0.955. Nilai signifikansi lebih besar dari 0.05, maka H0 diterima yang berarti data residual berdistribusi normal. Setelah data berdistribusi normal dapat dilanjutkan dengan uji asumsi klasik lainnya. Untuk lebih jelas berikut ini dilampirkan grafik histogram dan grafik p-plot data yang telah berdistribusi normal.

Gambar 4.3

Histogram setelah transformasi

Berdasarkan kurva histogram di atas, dapat dilihat bahwa kurva menyerupai bentuk lonceng yang hampir sempurna dengan kemiringan yang cenderung imbang baik dari sisi kiri maupun dari sisi kanan, hal ini menunjukkan bahwa data telah terdistribusi secara normal.

Menurut Ghozali (2005 : 112), pendeteksian normalitas dapat dilakukan dengan melihat penyebaran data (titik) pada sumbu diagonal dari grafik (Grafik Normal P-P Plot of Regression), yaitu jika data (titik) menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal, hal ini menunjukkan data yang telah terdistribusi normal.

Normal P-P Plot of Regression setelah transformasi

Sumber : Output SPSS, diolah Peneliti, 2010

Grafik Normal P-P Plot of Regression di atas memperlihatkan titik-titik menyebar berhimpitan di sekitar diagonal dan ini menunjukkan data dalam model regresi berdistribusi normal. Karena secara keseluruhan data telah terdistribusi secara normal, maka dapat dilakukan pengujian asumsi klasik lainnya.

b. Uji Multikolinieritas

Uji multikolinieritas bertujuan menguji apakah pada model regresi ditemukan adanya korelasi antara variabel independen. Akibat dari terjadinya korelasi antar variabel bebas ini adalah koefisien – koefisien regresi menjadi tidak dapat ditaksir dan nilai standar error bagi setiap koefisien menjadi tidak terhingga. Hasil uji multikolinearitas disajikan dalam tabel 4.8 dan tabel 4.9.

Tabel 4.8

Hasil Uji Multikolinearitas (1)

Coefficient Correlationsa Model Ln_DEBT TO TOTAL ASSETS Ln_WORK ING CAPITAL TURNOVE R 1 Correlations Ln_DEBT TO TOTAL

ASSETS 1.000 -.549

Ln_WORKING CAPITAL TURNOVER

-.549 1.000

Covariances Ln_DEBT TO TOTAL

ASSETS .199 -.048

Ln_WORKING CAPITAL TURNOVER

-.048 .038

a. Dependent Variable: Ln_RETURN ON ASSETS Sumber : Output SPSS, diolah Peneliti, 2010

Dari tabel 4.8 dapat dilihat bahwa hasil besaran korelasi antar variabel bebas adalah –0.549. Karena korelasi ini masih di bawah 95% maka dapat dikatakan bahwa tidak terjadi multikolinearitas yang serius. Menurut Ghozali (2005 : 91) untuk melihat ada atau tidaknya multikolinieritas dalam model regresi dapat dilihat dari :

1) nilai tolerance dan lawannya, 2) Variance Inflatin Factor (VIF).

Jadi, nilai Tolerance yang rendah sama dengan nilai VIF yang tinggi (karena VIF = 1/tolerance). Nilai cutoff yang umum dipakai untuk menunjukkan adanya mutikolineritas adalah nilai Tolerance < 0,10 atau sama dengan VIF > 10.

Tabel 4.9

Hasil Uji Multikolinearitas (2) Sumber : Output SPSS, diolah Peneliti, 2010

Dari hasil pengujian tabel 4.5 di atas, dapat dilihat bahwa angka tolerance working capital dan debt to total assets > 0,10 yaitu 0,698 dan VIFnya < 10 yaitu 1,432. Ini mengindikasikan bahwa tidak terjadi multikolinieritas diantara variabel independen dalam penelitian.

c. Uji Autokorelasi

Pengujian autokorelasi bertujuan untuk menguji apakah terdapat korelasi antara kesalahan pengganggu pada suatu periode dengan kesalahan pengganggu periode sebelumnya dalam model regresi. Autokorelasi menunjukkan adanya korelasi antara kesalahan pengganggu pada data yang tersusun, baik berupa data cross sectional dan/ atau time series. Jika terjadi autokorelasi dalam model regresi berarti koefisien korelasi yang diperoleh menjadi tidak akurat, sehingga model regresi yang baik adalah model regresi yang bebas dari autokorelasi.

Cara yang dapat dilakukan untuk mendeteksi ada tidaknya autokorelasi adalah dengan melakukan pengujian Durbin Watson (DW). Dalam model regresi tidak terjadi autokorelasi apabila nilai du < dw < 4 – du. Tabel 4.6 menyajikan hasil uji Durbin Watson dengan menggunakan program SPSS versi 16.0.

Tabel 4.10

Hasil Uji Autokorelasi Model Summaryb Model R R Square Adjusted R Square Std. Error of the Estimate Durbin-Watson 1 .308a .095 .043 1.03018 1.573

a. Predictors: (Constant), Ln_DEBT TO TOTAL ASSETS, Ln_WORKING CAPITAL TURNOVER

b. Dependent Variable: Ln_RETURN ON ASSETS Sumber : Output SPSS, diolah Peneliti, 2010

Hasil uji autokorelasi di atas menunjukkan nilai statistik Durbin Watson (DW) sebesar 1,573 , nilai ini akan dibandingkan dengan nilai tabel Durbin-Watson dengan menggunakan signifikansi 5%, jumlah sampel 38 (n), jumlah variabel independen 2 (k=2). Maka di tabel Durbin-Watson didapat nilai batas atas (du) 1,594 dan nilai batas bawah (dl) 1,373. Oleh karena itu, nilai DW 1,573 lebih besar dari batas atas 1,373 dan lebih kecil dari 2,627 (4 – 1,373) atau dapat dinyatakan bahwa 1,373 < 1,573 < 2,627. Dengan demikian dapat disimpulkan tidak terdapat autokorelasi.

Menurut Ghozali (2005 : 105) “Uji heterokedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain.” Dalam penelitian ini, untuk mendeteksi ada tidaknya gejala heterokedasitas dapat dilakukan dengan Pengujian melalui Scatter-Plot yang menggunakan SRESID dan ZPRED pada software SPSS. Jika varian dari residual satu pengamatan ke pengamatan yang lain tetap maka disebut homokedastisitas, dan jika berbeda disebut heterokedastisitas. Model regresi yang baik yaitu homokedastisitas.

Berikut ini dilampirkan grafik scatterplot untuk menganalisis apakah terjadi gejala heterokedastisitas atau tidak dengan cara mengamati penyebaran titik-titik pada grafik.

Gambar 4.5 Scatterplot

Sumber : Output SPSS, diolah Peneliti, 2010

Dari grafik scatterplot terlihat bahwa titik-titik menyebar secara acak dengan tidak adanya pola yang jelas serta tersebar baik di atas maupun di bawah angka 0 pada sumbu Y. Hal tersebut menunjukkan bahwa tidak terjadi heterokedastisitas, sehingga model ini layak dipakai untuk memprediksi profitabilitas perusahaan otomotif yang terdaftar di Bursa Efek Indonesia berdasarkan masukan variabel independen yaitu Working Capital Turnover dan Debt to Total Assets

Dokumen terkait