• Tidak ada hasil yang ditemukan

BAB III METODOLOGI PENELITIAN

D. Metode Analisis

1. Uji Normalitas

Uji normalitas bertujuan untuk menguji apakah dalam model regresi variabel dependent, variabel independent atau keduanya terdistribusi normal atau tidak. Model regresi yang baik adalah yang disribusi datanya normal atau mendekati normal.

Untuk menguji apakah data terdisribusi normal atau tidak, dapat dilakukan dengan beberapa cara. Salah satu metode menguji normalitas data adalah dengan melihat grafik Normal Probabilty Plot. Menurut Singgih Santoso (2000: 214) untuk melakukan pengujian normalitas data dapat dilihat dari penyebaran data pada sumbu diagonal dari grafik. Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal, maka model tersebtu memenuhi asumsi normalitas. Sebaliknya jika data menyebar menjauhi garis diagonal dan atau tidak mengikuti arah garis diagonal, maka model regresi tersebut tidak memenuhi asumsi normalitas.

Selain itu untuk menguji normalitas data dapat pula dilakukan dengan Kolmogorov Smirnov. Jika nilai K-S kurang dari nilai tabel atau nilai 2 tailed p lebih besar dari α berarti data adalah normal. Jika nilai K-S lebih dari nilai tabel atau nilai 2 tailed p lebih kecil dari α berarti data tidak normal.

2. Uji Asumsi Klasik

Dalam penggunaan analisis regresi agar menunjukkan hubungan yang valid atau tidak bias maka perlu pengujian asumsi klasik pada model regresi yang digunakan. Adapun asumsi dasar yang harus dipenuhi antara lain :

a. Uji Multikolinearitas

Multikolinieritas pertama kali dikemukakan oleh ranger Frish dalam bukunya “Statistical Confluence Analysis By Means Of Complete Regression System”. Frish mengatakan bahwa multikolinier adalah adanya lebih dari satu hubungan linier yang sempurna (Suharyadi, 2004:528).

Multikolinearitas adalah suatu keadaan dimana satu atau lebih variabel independent terdapat korelasi atau hubungan dengan variabel independent lainnya atau dengan kata lain satu atau lebih variabel independent merupakan satu fungsi linear dari variabel independent lainnya. Artinya bahwa jika di antara peubah-peubah bebas yang digunakan sama sekali tidak berkorelasi satu dengan yang lain bahwa bisa dikatakan tidak terjadi multikolinearitas.

Uji Multikoliearitas bertujuan untuk menguji apakah pada model regresi ditemukan ada tidaknya hubungan antara beberapa atau semua variabel independen. Jika variabel independen saling berkorelasi, maka variabel-variabel ini tidak orthogonal. Variabel orthogonal adalah variabel independen yang nilai korelasi antar sesama variabel independen sama dengan nol.

Untuk mendeteksi multikolinearitas pada suatu model dapat dilihat dari nilai tolerance dan VIF (Variance Inflation Factor) dari masing-masing variabel. Jika nilai tolerance tidak kurang dari 0.1 dan nilai VIF lebih kecil dari 10 berarti tidak terdapat multikolinearitas.

b. Uji Autokorelasi

Istilah Autokorelasi (Autocorrelation) menurut Maurice G. Kendall dan William R. Buckland. Autokorelasi merupakan kondisi antara anggota observasi yang disusun menurut urutan waktu (Suharyadi, 2004:529).

Autokorelasi dapat didefinisikan pula terjadinya korelasi di antara data pengamatan sebelumnya, dengan kata lain bahwa munculnya suatu data dipengaruhi oleh data sebelumnya. Untuk mendeteksi terjadi autokorelasi atau tidak pada model regresi dapat dilakukan dengan uji Durbin Watson, dengan rumus sebagai berikut:

( )

= − = n t t a t t t e e e d 1 2 2 2 1

Menurut Singgih Santoso (2000:218) bila nilai DW terletak diantara -2 < d < 2maka dapat dikatakan tidak terjadi autokorelasi baik positif maupun negatif. Secara umum deteksi adanya autokorelasi bisa diambil patokan :

1) Angka DW berada di bawah -2, berarti ada autokorelasi positif. 2) Angka DW berada diantara -2 sampa 2, berarti tidak ada autokorelasi. 3) Angka DW berada di atas 2, berarti ada autokorelasi negatif.

c. Uji Heteroskedastisitas

Heteroskedastisitas adalah suatu keadaan di mana varian dari faktor pengganggu tidak konstan untuk semua nilai variabel bebas. Uji heteroskedatisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan varian dari residual satu pengamatan ke pengamatan yang lain. Jika residual dari satu pengamatan lain ke pengamatan yang lain tetap, maka disebut homoskedastisitas dan jika berbeda disebut heteroskedastisitas. Model yang baik adalah homoskedastisitas atau tidak terjadi heteroskedastisitas.

Untuk memprediksi ada tidaknya heteroskedastisitas pada suatu model regresi dapat dilihat dari pola gambar scatterplot model tersebut. Analisis pada gambar scatterplot yang menyatakan model regresi tidak terdapat heteroskedastisitas jika :

1) Titik-titik data menyebar di atas dan di bawah atau di sekitar angka nol.

2) Titik-titik data tidak mengumpul hanya di atas atau di bawah saja. 3) Penyebaran titik-titik data tidak boleh membentuk pola bergelombang

melebar kemudian menyempit dan melebar kembali. 4) Penyebaran titik-titik data sebaiknya tidak berpola. 3. Analisis Regresi Linier Berganda

Analisis regresi dalam penelitian ini menjadi alat untuk mengukur bagaimana pengaruh dari variabel independen terhadap variabel dependen. Tujuan dari analisis regresi adalah untuk memprediksi besarnya variabel

dependen dengan menggunakan data variabel independen yang sudah diketahui besarnya (Santoso, 2000: 163).

Untuk mengetahui pengaruh variabel dependen terhadap variabel independen, maka digunakan model regresi berganda dengan persamaan sebagai berikut :

Y = a + b1X1 + b2X2 + b3X3 + b4X4 + εr

Dimana :

Y = Volume perdagangan saham di Indonesia.

a = intercept (variabel yang tidak dipengaruhi oleh variabel dependen dan variabel independen)

b = koefisien regresi dari variabel independen X1 = Tingkat inflasi yang terjadi di Indonesia X2 = Bi rates

X3 = Jumlah uang yang beredar (M2) di Indonesia. X4 = Nilai tukar Rupiah terhadap Dolar Amerika

εr = faktor pengganggu

4. Uji Koefisien Determinasi (R2)

Koefisien determinasi adalah kemampuan variabel independen menjelaskan variebel dependen (terikat). Koefisien determinasi menunjukkan suatu proporsi dari varian yang dapat diterangkan oleh persamaan regresi (Regression Of Sum Square, RSS) terhadap varian total (Total Of Sum Square, TSS). Besarnya koefisien determinasi dirumuskan sebagai berikut :

R2 =

( ) ( )

( )

2 2 2 2 2 1 1 . . . . Y Y n Y YX b b n a Y+ YX + Σ Σ Σ − Σ Σ Σ −

Dan untuk menghitung R2 digunakan rumus sebagai berikut :

Nilai R2 akan berkisar antara 0 sampai dengan 1 (Suharyadi, 2004:515). 5. Uji Hipotesis

a. Uji F (secara simultan)

Uji F dilakukan untuk melihat kemaknaan dari hasil model regresi tersebut. Bila nilai Fhitung lebih besar dari pada Ftabel atau tingkat signifikannya lebih kecil dari 5% (α : 5% = 0.05) maka hal ini menunjukkan bahwa Ho ditolak dan Ha diterima, yang berarti bahwa variabel independen mempunyai pengaruh yang signifikan terhadap variabel dependen secara simultan.

Untuk menentukan Fhitung dapat dilakukan dengan rumus : F =

( )

(

R

)

(

n k

)

k R − − − / 1 1 / 2 2 Dimana: R2 = koefisien determinasi n = jumlah pengamatan / sampel

k = jumlah parameter yang diestimasi dalam regresi b. Uji t (secara parsial)

Uji t digunakan untuk menganalisis pengaruh variabel independen terhadap variabel dependen secara parsial, dengan menganggap variabel lain bersifat konstan atau digunkan untuk mengetahui ada atau tidaknya

pengaruh yang signifikan antara variabel X dan variabel Y. Bila thitung

lebih besar dari pada ttabel atau nilai signifikan t < α : 5% (0.05) maka Ho

ditolak dan Ha diterima, yang berarti terdapat pengaruh signifikan secara parsial variabel independen terhadap variabel dependen.

thitung dapat ditentukan dengan rumus sebagai berikut :

( )

Sb i bi thitung = − β

β1 = 0 dengan rumus thitung Sb bi

Dimana :

bi = koefisien variabel ke-i

βi = parameter ke-i yang dihipotesiskan Sb = kesalahan standar

Sb adalah Standard error dari koefisien regresi dengan rumus matematis sebagai berikut :

( )

= n x x se Sb 2 2

se adalah standard error sampel yang dirumuskan sebagai berikut :

2 2 − =

n e se

Dimana Σ e2 dapat dirumuskan sebagai berikut :

Dokumen terkait