• Tidak ada hasil yang ditemukan

BAB III METODOLOGI PENELITIAN

F. Metode Analisis Data

Metode analisis data yang digunakan dalam penelitian ini adalah model analisis regresi dengan bantuan Software SPSS for windows. Penggunaan metode analisis regresi dalam pengujian hipotesis, terlebih dahulu diuji apakah model tersebut memenuhi asusmsi klasik atau tidak.

1. Pengujian Asumsi Klasik

Pengujian regresi linear berganda dapat dilakukan setelah model dari penelitian ini memenuhi syarat-syarat yaitu lolos dari asumsi klasik. Syarat-syarat tersebut adalah data tersebut harus terdistribusi secara normal, tidak mengandung multikolinearitas, autokorelasi dan heterokedastisitas. Untuk itu sebelum melakukan pengujian regresi linear berganda perlu dilakukan terlebih dahulu pengujian asumsi klasik.

a. Uji Normalitas

Menurut Erlina dan Mulyani (2007 : 103), ”uji ini berguna untuk tahap awal dalam metode pemilihan analisis data. Jika data normal, gunakan statistik parametrik dan jika data tidak normal gunakan statistik non parametrik atau lakukan treatment agar data normal.” Menurut Ghozali (2005 : 110), ”uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal. Seperti diketahui bahwa uji t dan F mengasumsikan bahwa nilai residual mengikuti distribusi normal. Kalau asumsi ini dilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel kecil.”

Dua cara untuk mendeteksi apakah residual berdistribusi normal atau tidak menurut Ghozali (2005 : 110),

1) analisis grafik

Salah satu cara termudah untuk melihat normalitas residual adalah dengan melihat grafik histogram yang membandingkan antara data observasi dengan distribusi yang mendekati distribusi normal. Metode yang lebih handal adalah dengan melihat normal probability plot yang membandingkan distribusi kumulatif dari distribusi normal. Distribusi normal akan membentuk satu garis lurus diagonal dan plotnya data

residual akan dibandingkan dengan garis diagonal. Jika distribusi data residua l normal, maka garis yang menggambarkan data sesungguhnya akan mengikuti garis diagonalnya.

2) analisis statistik

Uji statistik sederhana dapat dilakukan dengan melihat nilai kurtosis dan nilai Z-skewness. Uji statistik lain yang dapat digunakan untuk menguji normalitas residual adalah uji statistik non parametrik Kolmogorov- Smirnov (K-S).

Pedoman pengambilan keputusan tentang data tersebut mendekati atau merupakan distribusi normal berdasarkan uji Kolmogorov Smirnov dapat dilihat dari :

a) nilai Sig. atau signifikan atau probabilitas < 0,05, maka distribusi data adalah tidak normal,

b) nilai Sig. atau signifikan atau probabilitas > 0,05, maka distribusi data adalah normal.

b. Uji Multikolinearitas

Menurut Gujarati (1995) dalam Hadi (2006 : 168), “uji multikolinearitas berhubungan dengan adanya korelasi antar variabel independen. Sebuah persamaan terjangkit penyakit ini bila dua atau lebih variabel independen memiliki tingkat korelasi yang tinggi. Sebuah persamaan regresi dikatakan baik bila persamaan tersebut memiliki variabel independen yang saling tidak berkorelasi.”

Untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi menurut Hadi (2006 : 168) dapat dilihat dari :

1) salah satu ciri regresi yang terjangkit multikolineartas adalah persamaan tersebut memiliki nilai R2 yang sangat tinggi, tetapi hanya memiliki sedikit variabel independen yang signifikan (memiliki nilai t hitung tinggi). Keadaan yang paling ekstrim adalah bila model memiliki nilai R2 dan F

hitung yang tinggi dan secara otomatis akan memiliki nilai signifikansi F yang sangat bagus tetapi tidak satupun variabel independen yang memiliki nilai t cukup (signifikan). Bila hal ini terjadi maka bisa disimpulkan bahwa bagusnya F dan R2 karena adanya interaksi antar variabel independen yang cukup tinggi (multikolinear)

2) indikator lain yang bisa dipakai adalah CI (Condition Index) atau Eigenvalues. Bila CI berkisar antara10 sampai dengan 30 maka kita bisa mengatakan bahwa persamaan tersebut terjangkit multikolinear. Bila CI > 30 maka terjangkitnya semakin kecil.

3) VIF (Variabel Inflation Factor) juga bisa digunakan sebagai indicator. Bila VIF > 10 maka variabel tersebut memiliki kolinearitas yang tinggi.

Menurut Ghozali (2005 : 91), untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi,

1) nilai R2 yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi secara individual variabel-variabel independennya banyak yang tidak signifikan mempengaruhi variabel dependen.

2) menganalisis matrik korelasi variabel-variabel independen. Jika antar variabel independen ada korelasi yang cukup tinggi (umumnya di atas 0.90), maka hal ini merupakan indikasi adanya multikolinearitas. Tidak adanya korelasi yang tinggi antar variabel independen tidak berarti bebas dari multikolinearitas. Multikolinearitas dapat disebabkan karena adanya efek kombinasi dua atau lebih variabel independen.

3) multikolinearitas dapat juga dilihat dari a) nilai tolerance dan lawannya b) variance inflation factor (VIF). Kedua ukuran ini menunjukkan setiap variabel independen manakah yang dijelaskan oleh variabel independen lainnya. Dalam pengertian sederhana setiap variabel independen menjadi variabel dependen (terikat) dan diregres terhadap variabel independen lainnya. Tolerance mengukur variabilitas variabel independen yang terpilih yang tidak dijelaskan oleh variabel independen lainnya. Jadi nilai tolerance yang rendah sama dengan nilai VIF tinggi (karena VIF = 1/ Tolerence). Nilai cutoff yang umum dipakai untuk menunjukkan adanya multikolinearitas adalah nilai tolerance < 0.10 atau sama dengan nilai VIF > 10.

Beberapa cara mengobati apabila terjadi multikolonieritas dalam data penelitian adalah sebagai berikut:

a) menggabungkan data crossection dan time series (pooling data)

b) mengeluarkan satu atau lebih variabel independen yang mempunyai korelasi tinggi dari model regresi dan identifikasikan variabel independen lainnya untuk membantu prediksi.

c) transformasi variabel merupakan salah satu cara mengurangi hubungan linear di antara variabel independen.

d) menggunakan model dengan variabel independen yang mempunyai korelasi tinggi hanya semata-mata untuk prediksi (jangan mencoba untuk menginterpretasikan koefisien regresinya).

e) menggunakan metode analisis yang lebih canggih seperti Bayesian regression atau dalam kasus khusus ridge regression.

c. Uji Heterokedastisitas,

Uji heterokedastisitas dilakukan untuk menguji apakah dalam sebuah model regresi terjadi ketidaksamaan varians dari residual dari satu pengamatan ke pengamatan yang lain. Jika varians dari residual dari suatu pengamatan ke pengamatan lainnya tetap, maka disebut Homoskedastisitas. Dan jika varians berbeda, maka disebut heteroskedastisitas. Model regresi yang baik adalah yang tidak terjadi heteroskedastisitas. Suatu model dikatakan terdapat gejala heterokedesitas jika koefisien parameter beta dari persamaan regresi tersebut signifikan secara statistik. Sebaliknya, jika parameter beta tidak signifikan secara

statisik, hal ini menunjukkan bahwa data model empiris yang diestimasi tidak terdapat heterokedesitas (Erlina, 2007:108).

Menurut Gujarati (1995) dalam Hadi (2006 : 172), “untuk mengetahui adanya masalah heteroskesdatisitas ini kita bisa menggunakan korelasi jenjang Spearman, tes Park, tes Goldfeld-Quandt, tes BPG, tes White atau tes Glejser.” Bila menggunakan korelasi jenjang Spearman, maka kita harus menghitung nilai korelasi untuk setiap variabel independen terhadap nilai residu, baru kemudian dicari tingkat signifikansinya. Park dan Glejser test memiliki dasar test yang sama yaitu meregresikan kembali nilai residu ke variabel independen.

Menurut Hadi (2006 : 174), salah satu cara untuk mengurangi masalah heteroskesdatisitas adalah “menurunkan besarnya rentang (range) data. Salah satu cara yang bisa dilakukan untuk menurunkan rentang data adalah melakukan transformasi (manipulasi) logaritma. Tindakan ini bisa dilakukan bila semua data bertanda positif.”

d. Uji Autokorelasi

Masalah autokorelasi akan muncul bila data yang dipakai adalah data runtut waktu (timeseries). “Autokorelasi akan muncul bila data sesudahnya merupakan fungsi dari data sebelumnya atau data sesudahnya memiliki korelasi yang tinggi dengan data sebelumnya pada data runtut waktu dan besaran data sangat tergantung pada tempat data tersebut terjadi.”(Hadi, 2006 : 175)

Menurut Singgih (2002 : 218) Untuk mendeteksi adanya autokorelasi bisa digunakan tes Durbin Watson (D-W). Panduan mengenai angka D-W untuk

mendeteksi autokorelasi bisa dilihat pada tabel D-W, yang bisa dilihat pada buku statistik yang relevan. Namun demikian secara umum bisa diambil patokan:

1) angka D-W di bawah -2 berarti ada autokorelasi positif,

2) angka D-W di antara -2 sampai +2, berarti tidak ada autokorelasi, 3) angka D-W diatas +2 berarti ada autokorelasi negatif.

Jika terjadi autokorelasi, maka dapat diatasi dengan cara: a) melakukan transformasi data,

b) menambah data observasi.

2. Model dan Teknik Analisis Data a. Model Regresi Berganda

Pada tahapan ini penulis akan membuat model regresi yang menggambarkan hubungan antara Devidend per Share dan Return On Equity sebagai variabel independen terhadap variabel dependen yakni harga saham, sehingga dapat digunakan untuk menafsirkan nilai Y apabila variabel X diketahui.

Y= a + b1X1 + b2X2 + e

Dimana : Y = Harga saham

X1 = Devidend Per Share (DPS)

X2 = Return on Equity (ROE)

a = Konstanta

b1, b2 = Koefisien regresi

b. Pengujian Hipotesis 1) Uji Parsial (Uji t Statistik)

Pengujian ini bertujuan untuk mengetahui apakah masing-masing variabel independen mempengaruhi variabel dependen secara signifikan. Bentuk pengujiannnya adalah :

Ho : b1,b2 =0 , artinya Devidend per Share dan Return On Equity secara Parsial

tidak mempunyai pengaruh yang signifikan terhadap Harga saham.

Ha : b1,b2 ≠0 , artinya Devidend per Share dan Return On Equity secara parsial

mempunyai pengaruh yang signifikan terhadap Harga saham.

Pengujian dilakukan menggunakan uji – t dengan tingkat pengujian pada α 5% derajat kebebasan (degree of freedom) atau df=(n – k).

Kriteria pengambilan keputusan : Ho diterima jika t hitung < t tabel

Ha diterima jika t hitung > t tabel

2) Pengujian secara Simultan (Uji F Statistik)

Uji F digunakan untuk menunjukkan apakah semua variabel independen yang dimasukkan dalam model mempunyai pengaruh secara bersama-sama terhadap variabel dependen (Ghozali, 2005 : 84). Bentuk pengujiannya adalah :

Ho : b1=b2 =0, artinya variabel Devidend per Share dan Return On Equity

secara bersama-sama tidak mempunyai pengaruh yang signifikan terhadap Harga saham.

Ha : b1≠b2≠0, artinya Devidend per Share dan Return On Equity secara

bersama-sama mempunyai pengaruh yang signifikan terhadap Harga saham. Kriteria pengambilan keputusan :

Ho diterima jika F hitung < F tabel

Ha diterima jika F hitung > F tabel

3). Koefisien Determinasi (R²)

Pengujian Koefisien Determinasi (R²) digunakan untuk mengukur proporsi atau persentase sumbangan variabel independen yang diteliti terhadap variasi naik turunnya variabel dependen. Koefisien determinasi berkisar antara nol sampai dengan satu ( 0 ≤ R² ≤ 1 ). Hal ini berarti bila R² = 0 menunjukkan tidak adanya pengaruh antara variabel independen terhadap variabel dependen, bila R² semakin besar mendekati 1, menunjukkan semakin kuatnya pengaruh variabel independen terhadap variabel dependen dan bila R² semakin kecil mendekati nol maka dapat dikatakan semakin kecilnya pengaruh variabel independen terhadap variabel dependen.

Dokumen terkait