BAB III METODE PENELITIAN
3.6. Metode Analisis Data
Metode penelitian analisis dalam penelitian ini dilakukan dengan menganalisis data dengan menggunakan metode analisis statistik dan menggunakan software SPSS 17.0. pengujian statistik dalam penelitian ini terdiri dari pengujian asumsi klasik dan pengujian hipotesis.
Penggunaan analisis regresi dalam statistik harus bebas dari asumsi- asumsi klasik.
Uji asumsi klasik yang dilakukan adalah uji normalitas, uji multikolinieritas, uji heterosdastisitas dan uji autokorelasi.
1. Uji Normalitas
Tujuan uji normalitas adalah untuk mengetahui apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal. Uji ini berguna untuk tahap awal dalam metode pemilihan analisis dara. Jika data normal, maka digunakan statistik parametrik, dan jika data tidak normal maka digunakan statistik nonparametrik atau lakukan treatment agar data normal. Data yang baik adalah data yang mempunyai pola seperti distribusi normal. Untuk melihat normalitas dapat dilakukan dengan melihat histogram atau pola distribusi data normal.
Normalitas dapat dideteksi dengan melihat penyebaran data (titik) pada sumbu diagonal dari grafik atau dengan melihat histogram dari nilai residualnya. Dasar pengambilan keputusannya adalah :
a. Jika data menyebar disekitar garis diagonal dan mengikuti arah garis diagonal atau garis histogramnya menunjukkan pola berdistribusi normal, maka model regresi memenuhi asumsi normalitas.
b. Jika data menyebar jauh dari diagonal dan tidak mengikuti arah garis diagonal atau grafik histogram menunjukkan data
berdistribusi normal, maka model regresi tidak memenuhi asumsi normalitas.
Dalam penelitian ini penelitia menggunakan uji Kolmogorov- Smirnov (K-S) untuk menguji normalitas data. Uji K-S dibuat dengan membuat hipotesis :
H0 : data residual berdistribusi normal
Ha : data residual tidak berdistribusi normal.
Bila signifikasi > 0,05 dengan α = 5%, berarti distribusi data normal dan H0 diterima, sebaliknya bila nilai signifikansi < 0,05 berarti distribusi data tidak normal dan Ha diterima. Data yang tidak terdistribusi secara tidak normal dapat ditransformasikan agas menjadi normal. Jika data tidak normal ada beberapa cara mengubah model regresi menjadi normal menurut Jogiyanto (2003, 172), yaitu :
a. Dengan melakukan tranformasi data ke bentuk lain, yaitu Logaritma Natural, akar kuadrat, Logaritma lo
b. Lakukan trimming, yaitu mengubah observasi yang bersifat outliner.
c. Lakukan winsorizing, yaitu mengubah nilai-nilai data outliner menjadi nilai-nilai minimum atau maksimum yang diizinkan supaya distribusinya menjadi normal.
2. Uji Multikolinearitas
Menurut Ghozali (2005) “uji ini bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel independen”. Model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel independen. Multikolinearitas adalah situasi adanya korelasi variabel-variabel independen antara yang satu dengan yang
lainnya. Jika terjadi korelasi sempurna diantara sesama variabe bebas, maka konsekuensinya adalah :
a. Koefisien-koefisien regresi menjadi tidak dapat ditaksir
b. Nilai standar error setiap koefisien regresi menjadi tak terhingga.
Ada tidaknya multikolinearitas dapat dideteksi dengan melihat nilai tolerance dan variance inflation factor (VIF), serta dengan menganalisis matrik korelasi variabel-variabel independen. Nilai cut off yang umum dipakai untuk menunjukkan adanya multikolinearitas adalah jika nilai VIF tidak lebih dari sepuluh dan nilai tolerance tidak kurang dari 0,1 maka model dapat dikatakan terbebas dari multikolonearitas.
3. Uji Heteroskedastisitas
Uji heterodastisitas bertujuan untuk melihat apakah didalam model regresi terjadi ketidaksamaan variabel pengganggu dari satu pengamatan dangan pengamatan yang lain. Model regresi yang baik seharusnya tidak terjadi heteroskedastisitas. Menurut Nugroho (2005,62) cara memprediksi ada tidaknya heteroskedastisitas pada suatu model dapat dilihat dari pola gambar scatterplot model tersebut. Analisis pada gambar Scatterplot yang menyatakan model regresi linier berganda tidak terdapat heteroskedastisitas jika :
a. Titik-titik data menyebar di atas, dibawah atau disekitar angka nol.
b. Titik-titik data tidak mengumpul hanya di atas atau dibawah saja.
c. Penyebaran titik-titik data tidak boleh membentuk pola bergelombang melebar kemudian menyempit dan melebar kembali.
d. Penyebaran titik data sebaiknya tidak berpola. 4. Uji autokorelasi
Uji ini bertujuan untuk melihat apakah dalam suatu model regresi linier terdapat korelasi atau kesalahan pengganggu pada periode t dengan kesalahan periode t-1. Jika terjadi auto korelasi, maka terdapat problem autokorelasi. Autokorelasi muncul karena observasi yang berurutan sepanjang tahun yang berkaitan satu dengan yang lainnya. Hal ini sering ditemukan pada data time series.
Pada data cross section, masalah autokorelasi relatif tidak terjadi. Uji yang digunakan dalam penelitian untuk mendeteksi ada tidaknya autokorelasi adalah dengan uji Durbin-Watson (DW). Kriteria untuk penilaian terjadinya autokorelasi yaitu :
a. Nilai D-W lebih kecil dari -2 berarti ada korelasi positif. b. Nilai D-W diantara -2 sampai +2 berarti tidak ada autokorelasi. c. Nilai D-W lebih besar dari +2 berarti ada autokorelasi.
3.6.2. Pengujian Hipotesis
Hipotesis diuji dengan menggunakan analisis regresi linier berganda. Analisis ini digunakan untuk mengetahui apakah semua variabel independen
mempunyai pengaruh terhadap variabel dependen. Model regresi untuk menguji hipotesisi dalam penelitian ini menggunakan uji-F (simultan) dan uji- t (parsial).
1. Uji Signifikansi Simultan (Uji-F)
Pengujian F-test digunakan untuk menunjukkan apakah semua variabel independen yang dimasukkan dalam model mempunyai pengaruh secara bersama-sama terhadap variabel dependen. Data dianalisis dengan model regresi berganda, yaitu :
Y=a + b1X1 + b2X2 +e
Keterangan :
Y = harga saham.
a = konstanta.
b1, b2 = koefisien regresi. X1 = Earnings Per Share.
X2 = Dividend Per Share.
e = error (kesalahan pengganggu). Hipotesis yang akan diuji adalah sebagai berikut :
H0 = Tidak semua variabel independen berpengaruh secara
simultan terhadap variabel dependen.
Ha = Semua variabel independen berpengaruh secara simultan
terhadap variabel dependen.
Uji ini dilakukan dengan membandingkan signifikansi F-hitung dengan F-tabel dengan ketentuan sebagai berikut :
a. Jika F-hitung < F-tabel, maka H0 diterima dan Ha ditolak untuk
α = 5%.
b. Jika F-hitung > F-tabel, maka H0 ditolak dan Ha diterima untuk
α = 5%.
2. Uji Signifikansi Parsial (Uji-t)
Pengujian t-test digunakan untuk menunjukkan seberapa jauh engaruh satu variabel independen terhadap variabel dependen. Hipotesis yang akan diuji adalah sebagai berikut :
H0 = Tidak semua variabel independen berpengaruh secara
parsial terhadap variabel dependen.
Ha = Semua variabel independen berpengaruh secara parsial
terhadap variabel dependen.
3.7. Jadwal Penelitian