• Tidak ada hasil yang ditemukan

BAB IV ANALISIS HASIL PENELITIAN

B. Pengujian Asumsi Klasik

Analisa dilakukan dengan metode analisa regresi berganda. Sebelum dilakukan uji hipotesis, peneliti akan melakukan uji asumsi klasik. Pengujian ini perlu dilakukan untuk mengetahui apakah distribusi data yang digunakan dalam penelitian sudah normal, serta bebas dari gejala multikolinearitas, heteroskesdastisitas serta autokorelasi. Menurut Ghozali (2005:123) asumsi klasik yang harus dipenuhi adalah:

• berdistribusi normal,

non-multikolinearitas, artinya antara variabel independen dalam model

regresi tidak memiliki korelasi atau hubungan secara sempurna ataupun mendekati sempurna,

non-Autokorelasi, artinya kesalahan pengganggu dalam model regresi

tidak saling korelasi,

homoskedasitas, artinya variance variabel independen dari satu pengamatan kepengamatan yang lain adalah konstan atau sama.

1. Uji Normalitas

Pengujian ini dimaksudkan untuk mengetahui apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal. Adapun uji normalitas dapat dilakukan dengan dua cara yaitu analisis garfik dan statistik.

a. Analisis Grafik

Analisis grafik dapat digunakan dengan dua alat, yaitu grafik histogram dan grafik P-P Plot. Data yang baik adalah data yang memiliki pola distribusi normal. Pada grafik histogram, data yang mengikuti atau mendekati distribusi normal adalah distribusi data dengan bentuk lonceng. Pada grafik P-P Plot, sebuah data dikatakan berdistribusi normal apabila titik-titik datanya tidak menceng ke kiri atau ke kanan, melainkan menyebar di sekitar garis diagonal. Berikut hasil uji normalitas dengan menggunakan analisis grafik.

Gambar 4.1 Uji Normalitas Sumber: Lampiran 5 Gambar 4.2 Uji Normalitas Sumber: Lampiran 5

Dengan melihat tampilan grafik histogram, kita dapat melihat bahwa gambarnya telah berbentuk lonceng dan tidak menceng kekanan atau ke kiri yang menunjukkan bahwa data telah terdistribusi secara normal. Pada grafik P-P Plot terlihat titik-titik menyebar di sekitar garis diagonal dan tidak jauh dari garis

diagonal. Kedua grafik tersebut menunjukkan bahwa model regresi tidak menyalahi asumsi normalitas.

b. Uji Statistik

Pengujian normalitas data dengan hanya melihat grafik dapat menyesatkan kalau tidak melihat secara seksama, sehingga kita perlu melakukan uji normalitas data dengan menggunakan statistik agar lebih meyakinkan. Untuk memastikan apakah data di sepanjang garis diagonal berdistribusi normal, maka dilakukan uji

Kolmogorov-Smirnov (1 sample KS) dengan melihat data residualnya apakah

berdistribusi normal atau tidak. Jika nilai signifikansinya lebih besar dari 0,05 maka data tersebut terdistribusi normal. Jika nilai signifikansinya lebih kecil dari 0,05 maka distribusi data adalah tidak normal. Hasil uji Kolmogorov-Smirnov dapat dilihat pada tabel 4.2

Tabel 4.2 Uji Normalitas

One-Sample Kolmogorov-Smirnov Test

Unstandardized Predicted Value

N 102

Normal Parametersa Mean 45.5000000

Std. Deviation .99112365

Most Extreme Differences Absolute .222

Positive .152

Negative -.222

Kolmogorov-Smirnov Z 2.242

Asymp. Sig. (2-tailed) .000

a. Test distribution is Normal.

Hasil uji Kolmogorov-Smirnov pada penelitian ini menujukkan probabilitas = 0.000. Dengan demikian, data pada penelitian ini tidak berdistribusi normal dan dapat digunakan untuk melakukan uji hipotesis karena 0.00 < 0,05.

Pada pengujian normalitas dengan analisis statistik dapat ketahui bahwa data yang digunakan oleh penulis tidak berdistribusi normal sehingga data ini tidak dapat digunakan untuk melakukan uji hipotesis. Pada penelitian ini penulis menggunakan metode transformasi data untuk menormalkan data penelitian. Menurut Gozali (2005:32), “data yang tidak terdistribusi secara normal dapat ditransformasi agar menjadi normal”. Salah satu trasformasi data yang dapat dilakukan adalah dengan mentransformasikan data ke LG10 atau logaritma 10 atau LN. Hasil transformasi data dapat dilihat pada lampiran vii. Setelah dilakukan transformasi, penulis melakukan pengujian ulang terhadap uji normalitas untuk melihat kembali apakah data penelitian ini telah berdistribusi normal atau tidak. Hasil pengujian normalitas setelah transformasi dapat dilihat sebagai berikut.

Gambar 4.3 Uji Normalitas Sumber: Lampiran 8 Gambar 4.4 Uji Normalitas Sumber: Lampiran 8

Dengan melihat tampilan grafik histogram, kita dapat melihat bahwa gambarnya telah berbentuk lonceng dan tidak menceng kekanan atau ke kiri yang menunjukkan bahwa data telah terdistribusi secara normal. Pada grafik P-P Plot terlihat titik-titik menyebar di sekitar garis diagonal dan tidak jauh dari garis

diagonal. Kedua grafik tersebut menunjukkan bahwa model regresi tidak menyalahi asumsi normalitas.

Tabel 4.3 Uji Normalitas

One-Sample Kolmogorov-Smirnov Test

Unstandardiz ed Predicted

Value

N 102

Normal Parametersa Mean 3.8120525

Std. Deviation .03219311 Most Extreme Differences Absolute .072 Positive .072 Negative -.066 Kolmogorov-Smirnov Z .730

Asymp. Sig. (2-tailed) .661

a. Test distribution is Normal. Sumber: Lampiran 9

Hasil uji Kolmogorov-Smirnov pada penelitian ini menujukkan probabilitas = 0.661. Dengan demikian, data pada penelitian ini berdistribusi normal dan dapat digunakan untuk melakukan uji hipotesis karena 0.661 > 0,05.

2. Hasil Uji Heteroskedastisitas

Uji Heteroskesdastisitas bertujuan untuk menguji terjadinya perbedaan variance residual suatu periode pengamatan ke periode yang lain. Ghozali (2005:105) Uji Heterokedasitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Model regresi yang baik adalah tidak terjadi heterokedasitas. Cara mendeteksi ada tidaknya gejala heterokedasitas adalah dengan melihat grafik scatterplott yang dihasilkan dari pengolahan data

menggunakan program SPSS 16. Dasar pengambilan keputusannya menurut Ghozali (2005:105) adalah sebagai berikut:

a) Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola tertentu yang teratur maka mengindikasikan telah terjadi heterokedasitas.

b) Jika tidak ada pola yang jelas, serta titik menyebar dibawah angka o dan y, maka tidak heterokedasitas

Uji ini dilakukan dengan mengamati pola tertentu pada grafik scatterplot, dimana bila ada titik – titik yang menyebar di atas dan dibawah angka 0 pada sumbu Y serta tidak membentuk pola maka tidak terjadi heteroskesdastisitas.

Gambar 4.5

Uji Heteroskedastisitas( scatterplot) Sumber: Lampiran 9

Pada gambar 4.5 tentang grafik scatterplot diatas terlihat titik-titik menyebar secara acak tidak membentuk sebuh pola tertentu yang jelas serta tersebar baik diatas maupun dibawah angka nol pada sumbu y. Hal ini berarti tidak terjadi

heteroskedastisitas pada model regresi sehingga model regresi layak dipakai untuk melihat pengaruh variabel independen terhadap variabel dependen.

3. Uji Autokorelasi

Uji ini bertujuan untuk melihat apakah dalam suatu model linear ada korelasi antar kesalahan pengganggu pada periode t dengan kesalahan periode t-1 (sebelumnya). Model regresi yang baik adalah yang bebas dari autokorelasi. Masalah autokorelasi umumnya terjadi pada regresi yang datanya time series. Untuk mendeteksi masalah autokorelasi dapat dilakukan dengan menggunakan uji Durbin Watson. Mengacu kepada pendapat Sunyoto (2009:91), Pengambilan keputusan ada tidaknya autokorelasi adalah sebagai berikut:

1) angka D-W dibawah -2 berarti ada autokorelasi positif,,

2) angka D-W diantara -2 sampai +2 berarti tidak ada autokorelasi, 3) angka D-W di atas +2 berarti ada autokorelasi negatif.

Tabel 4.4

Hasil Uji Autokorelasi Model Summaryb Model R R Square Adjusted R Square Std. Error of the Estimate Durbin-Watson 1 .301a .091 .033 .10520 1.568

a. Predictors: (Constant), ln_PKSP, ln_ROA, LN_Size, ln_DER, ln_NPM, ln_ROE

b. Dependent Variable: ln_TPLK Sumber: Lampiran x

Tabel 4.4 memperlihatkan nilai statistik D-W sebesar 1.568 Angka ini terletak di antara -2 sampai +2, dari pengamatan ini dapat disimpulkan bahwa tidak terjadi autokorelasi dalam penelitian ini.

4. Uji Multikolinieritas

Pengujian bertujuan mengetahui ada tidaknya multikolinearitas antar variabel – variabel independen. Model regresi yang baik seharusnya tidak terjadi korelasi antar variabel independen. Deteksi dilakukan dengan melihat nilai VIF (Variable Inflation Factor) dan toleransi. Menurut Ghozali (2005:91) untuk melihat ada atau tidaknya multikolinearitas dalam model regresi dapat dilihat dari:

a) nilai tolerance dan lawannya, b) Variance Inflation Factor (VIF)

Kedua ukuran ini menunjukkan setiap variabel independen manakah yang dijelaskan oleh variabel independen lainnya. Tolerance mengukur variabilitas variabel independen yang terpilih yang tidak dijelaskan oleh variabel independen lainnya. Jadi, nilai tolerance yang rendah sama dengan nilai VIF yang tinggi (karena VIF=1/tolerance). Nilai cutoff yang umum dipakai untuk menunjukkan adanya multikolinearitas adalah nilai tolerance < 0.01 atau sama dengan VIF>10.

Tabel 4.5

Hasil Uji Multikolinearitas Coefficientsa Model Unstandardized Coefficients Standardized Coefficients t Sig. Collinearity Statistics B Std.

Error Beta Tolerance VIF

1 (Constant) 3.699 .085 43.713 .000 ln_ROE .030 .028 .342 1.079 .283 .096 10.467 ln_DER -.032 .019 -.269 -1.658 .101 .364 2.747 ln_ROA -.054 .028 -.707 -1.927 .057 .071 14.049 LN_Size .010 .010 .103 .967 .336 .843 1.187 ln_NPM .004 .013 .059 .324 .747 .290 3.443 ln_PKSP .014 .011 .123 1.220 .226 .934 1.071 a. Dependent Variable: ln_TPLK Sumber: Lampiran 9

Berdasarkan tabel 4.4 diatas dapat dilihat bahwa tidak ada satupun variabel bebas yang memiliki nilai VIF lebih dari 10 dan tidak ada yang memiliki

tolerance value lebih kecil dari 0,1. Jadi dapat disimpulkan bahwa penelitian ini

bebas dari adanya multikolinearitas. Dari hasil uji ini maka dapat disimpulkan bahwa semua variabel bebas yang dipakai dalam penelitian ini lolos uji gejala multikolinearitas.

C. Hasil Pengujian Hipotesis

Dokumen terkait