• Tidak ada hasil yang ditemukan

BAB III METODOLOGI PENELITIAN

D. Metode Analisis

Analisis yang digunakan dalam penelitian ini menggunakan tahap – tahap sebagai berikut :

a. Uji Dasar Asumsi Klasik

Asumsi dasar klasik adalah bahwa hubungan antara variabel independen dengan variabel dependen bersifat linear serta tidak terjadi autokorelasi, heteroskedastisitas, dan multikolinieritas diantara variabel independen dalam regresi tersebut. Oleh karena itu, diperlukan pengujian dan pembersihan terhadap pelanggaran asumsi dasar jika memang terjadi.

Pengujian – pengujian asumsi dasar klasik regresi terdiri dari : 1. Uji Normalitas Data

Pengujian normalitas adalah pengujian tentang kenormalan distribusi data. Uji normalitas bertujuan untuk menguji apakah dalam model regresi dependen variabel dan independen variabel ataupun keduanya mempunyai distribusi yang normal atau tidak. Menurut Singgih Santoso (2004 : 124) ada beberapa cara untuk mendeteksi normalitas yaitu dengan penyebaran data (titik) pada sumbu diagonal dari grafik. Dasar pengambilan keputusan dalam uji normalitas adalah :

- Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal maka model regresi tersebut memenuhi asumsi normalitas.

- Jika data menyebar dari garis diagonal dan atau tidak mengikuti arah garis diagonal maka model regresi tidak memenuhi asumsi normalitas.

2. Uji Multikolinieritas

Uji multikolinieritas ini bertujuan untuk mendeteksi ada tidaknya hubungan antar beberapa atau semua variabel independen dalam suatu model regresi. Multikolinieritas merupakan suatu keadaan dimana satu atau lebih

variabel independen dinyatakan sebagai kondisi linier dengan variabel lainnya. Artinya bahwa jika diantara variabel bebas yang digunakan sama sekali tidak berkorelasi satu dengan yang lainnya maka bisa dikatakan tidak terjadi multikolinieritas. Untuk mendeteksi adanya multikolinieritas dapat dilihat dari besarnya VIF (variance inflation factor) dan tolerance.

Pedoman suatu model regresi yang terbebas dari gejala multikolinieritas adalah :

a. Mempunyai nilai VIF di sekitar angka 1. b. Mempunyai angka tolerance mendekati 1

3. Uji Autokorelasi

Salah satu asumsi dari model regresi linier klasik adalah bahwa tidak ada autokorelasi serial ( autocorrelation or serrial correlation) antara kesalahan pengganggu (ei).

Autokorelasi dapat didefinisikan pula terjadinya korelasi diantara data pengamatan sebelumnya, dengan kata lain bahwa munculnya suatu data dipengaruhi oleh data sebelumnya. Tujuan dari autokorelasi adalah untuk menguji apakah dalam model linier ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada periode t-1. Sebelumnya, jika terjadi korelasi maka dinamakan ada problem autokorelasi. Menurut Singgih Santoso (2000 : 216) model regresi yang baik adalah regresi yang bebas dari autokorelasi.

Terjadinya autokorelasi atau tidak dapat dilihat melalui Durbin- Watson. Panduan mengenai Durbin-Watson untuk mendeteksi autokorelasi

dapat dilihat pada buku statistik yang relevan. Bila nilai DW terletak diantara du < d < 4 – du maka dapat dikatakantidak terjadi autokorelasi baik positif maupun negatif, atau jika nilai d mencapai sekitar 2 dimana du adalah batas atas dan dl adalah batas bawah.

1. 0 < d < du : ada autokorelasi positif.

2. dl < d < du : ragu-ragu ada autokorelasi positif (inconclusive). 3. du < d < 4 – dl : tidak terjadi autokorelasi positif maupun negatif. 4. 4 – du < d < 4 - dl : ragu-ragu ada autokorelasi negatif.

5. 4 – dl < d < 4 : ada autokorelasi negatif.

Selain itu, untuk mendeteksi gejala autokorelasi dapat diambil patokan sebagai berikut :

1. Angka D – W di bawah –2, berarti terdapat autokorelasi positif.

2. Angka D – W di antara –2 sampai +2, berarti tidak terdapat autokorelasi.

3. Angka D – W di atas +2, berarti terdapat autokorelasi negatif.

4. Uji Heteroskedastisitas

Heteroskedastisitas adalah suatu keadaan dimana varian dari kesalahan pengganggu tidak konstan untuk semua nilai variabel bebas. Uji heteroskedastisitas ini bertujuan untuk menguji apakahdalam model regresi ketidaksamaan varian dari residual suatu pengamatan ke pengamatan yang lain. Jika varian dari residual satu pengamatan ke pengamatan yang lain tetap maka disebut Homoskedastisitas dan bila berbeda disebut heteroskedastisitas.

Menurut Singgih Santoso (2000 : 210) ada beberapa cara untuk mendeteksi ada tidaknya heteroskedastisitas, antara lain :

1. Melihat grafikplot antara nilai prediksi variabel terikat (ZPRED) dengan residualnya (SRESID). Deteksi ada tidaknya heteroskedastisitas dengan melihat ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan ZPRED dimana sumbu X dan Y yang telah diprediksi dan sumbu Y adalah residual (Y prediksi –Y sesungguhnya) yang telah distudentized. 2. Dasar analisis, jika ada pola tertentu seperti titik-titik yang ada membentuk

suatu pola tertentu yang teratur (bergelombang, melebar, kemudian menyempit) maka telah terjadi heteroskedastisitas. Jika tidak ada pola yang jelas serta titik menyebar diatas dan dibawah angka 0 pada sumbu Y maka tidak terjadi heteroskedastisitas.

b. Regresi

Persamaan regresi adalah suatu persamaan matematika yang mendefinisikan hubungan dua variabel. Hubungan yang dimaksud yaitu hubungan antara variabel independen (X) dan variabel dependen (Y), dimana pada penelitian ini risiko sistematis, likuiditas ( bid ask spread dan trading volume activity), dan stock split sebagai variabel independen (X), sedangkan return saham sebagai variabel dependen (Y). Variabel stock split adalah variabel dummy dengan memberikan nilai 1 untuk kategori periode sebelum stock split serta nilai 0 untuk periode sesudah stock split.

Model persamaan regresi yang digunakan adalah :

Y = a + b

1

x

1

+ b

2

x

2

+ b

3

x

3

+

b

4

x

4

+ ei

Keterangan :

Y = rata-rata tingkat pengembalian saham bulanan a = konstanta

b1 = koefisien regresi pertama

b2 = koefisien regresi kedua

x1 = rata-rata risiko sistematis bulanan

x2 = rata-rata likuiditas ( bid-ask spread) bulanan

x3 = rata-rata likuiditas ( trading volume activity) bulanan

x4 = stock split sebelum dan sesudah stock split

ei = error term

C. Uji Hipotesis

1. Uji t

Uji t adalah menguji pengaruh variabel independen terhadap variabel dependen. Dalam hal ini variabel independen terdiri dari risiko sistematis dan likuiditas saham, sedangkan variabel dependennya adalah return saham.

Uji t digunakan untuk melihat apakah terdapat pengaruh yang signifikan antara variabel risiko sistematis dan likuiditas saham terhadap return saham secara parsial.

bi - (βi)

T =

Sb

Dimana :

bi = koefisien variabel ke i

βi = parameter ke i yang dihipotesiskan

Sb = kesalahan standar atau standar error sampel

Adapun Sb dapat dihitung dengan :

Sc Sb = ∑ Xi 2 – ( ∑ Xi)2 n ∑Yi2 - α∑Yi - b∑XiYi Sc = n - k

Pengujian menggunakan uji t dua arah dengan hipotesis sebagai berikut :

Ho : β = 0 (variabel bebas tidak mempengaruhi variabel tidak bebas).

H1 : β≠ 0 (variabel bebas mempengaruhi variabel tidak bebas).

Dengan ketentuan jika Ho diterima maka variabel tidak signifikan dan

jika Ho ditolak (H1 diterima) maka varibel signifikan.

2. Uji F

Uji F adalah uji kemampuan variabel bebas terhadap variabel tidak bebas secara bersama-sama. Dalam hal ini variabel independen terdiri dari risiko sistematis dan likuiditas saham, sedangkan variabel dependennya adalah return saham. Uji F dimaksudkan untuk melihat kemampuan menyeluruh dari

variabel bebas untuk dapat atau mampu menjelaskan tingkah laku atau keragaman variabel tidak bebas. Uji F juga dimaksudkan untuk mengetahui apakah semua variabel bebas memiliki koefisien regresi sama dengan nol.

Rumus Uji F adalah : R2 / ( k – 1 ) F =

(1 – R2) / (n – 3)

Dengan uji F, hipotesis yang diajukan adalah : Ho : β1 , β2 = 0

H 1 : β1 , β2≠ 0

Dengan ketentuan jika Ho diterima maka variabel tidak signifikan dan

jika Ho ditolak maka variabel signifikan.

3. Uji R Square

Uji ketepatan perkiraan (R2) dilakukan untuk mendeteksi ketepatan paling baik dari garis regresi. Uji ini dilakukan dengan melihat besarnya nilai koefisien determinasi R2 yang merupakan besaran nilai non negatif. Besarnya nilai koefisien determinasi adalah antara nol sampai dengan 1. Koefisien determinasi bernilai nol berarti tidak ada hubungan antara variabel independen dengan variabel dependen, sebaliknya nilai koefisien determinasi 1 berarti suatu kecocokan sempurna dari ketepatan perkiraan model. Nilai Koefisien determinasi lebih besar dari 0,5 menunjukkan variabel bebas dapat menjelaskan variabel tidak bebas dengan baik atau kuat, sama dengan 0,5 dikatakan sedang dan kurang dari 0,5 relatif kurang baik. Apabila

mendapatkan koefisien determinasi kurang dari 0,5 ada beberapa penyebab yang mungkin salah satu diantaranya adalah spesifikasi model yang salah yaitu pemilihan variabel yang kurang tepat atau pengukuran yang tidak akurat.

4. Uji Beda Dua Rata-Rata

Uji beda dua rata-rata adalah menguji kemampuan generalisasi rata- rata dua sample yang tidak saling berhubungan. Uji ini dilakukan terhadap dua sample yang berpasangan; Sampel yang berpasangan diartikan sebagai sebuah sample dengan subjek yang sama, namun mengalami dua perlakuan yang berbeda, seperti subjek A akan mendapat perlakuan 1 kemudian II (Santoso, 2007 :181).

Pengujian untuk hipotesis kedua menggunakan uji beda dua rata-rata untuk mengetahui perbedaan return, risiko sistematis, bid-ask spread, dan

trading volume activity sebelum dan sesudah stock split. Jika hasil pengujian menunjukkan bahwa terdapat perbedaan yang signifikan antara sebelum dan sesudah split maka dikatakan bahwa aktivitas split mempengaruhi return, risiko sistematis, bid-ask spread, dan trading volume activity. Jika tidak ada perbedaan yang signifikan antara sebelum dan sesudah split maka dikatakan bahwa aktivitas split tidak mempengaruhi return, risiko sistematis, bid-ask spread, dan trading volume activity. Uji beda dua rata-rata dalam penelitian ini menggunakan uji beda dua rata-rata Paired Sample t-Test (Uji_t_Paired).

Dokumen terkait