III. METODE PENELITIAN
6. Model dan Teknik Analisis Data
Penelitian ini dilakukan dengan teknik analisis multiple regression. Oleh
sebab itu, perlu dilakukan upaya untuk menghindari berbagai penyimpangan terkait dengan kondisi data yang dianalisis. Penyimpangan yang harus dihindarkan adalah penyimpangan dari asumsi klasik, agar tidak timbul masalah akibat penggunaan
6.1. Pengujian Data
Pengujian data dilakukan dengan menggunakan 4 (empat) uji asumsi klasik yang penting sebelum dilakukan pengujian hipotesis, yaitu:
a. Uji Normalitas
Uji normalitas bertujuan untuk menguji apakah dalam model regresi, baik variabel bebas maupun variabel tak bebas berdistribusi secara normal atau tidak. Model regresi yang baik adalah berdistribusi normal atau paling tidak mendekati normal. Asumsi bahwa data yang digunakan adalah berdistribusi normal diperlukan untuk mengarahkan uji signifikansi dari variabel-variabel bebas. Jika hal ini diabaikan, maka model regresi tetap tidak bias.
Ada beberapa metode untuk mendeteksi apakah data berdistribusi normal atau
tidak. Pada penelitian ini digunakan metode Kolmogorov-Smirnov. Apabila hasil
pengujian menunjukkan angka signifikansi di atas 0.05, maka data telah berdistribusi normal. Sebaliknya, jika menunjukkan angka signifikansi di bawah 0.05, maka data tidak berdistribusi normal.
Untuk data yang tidak berdistribusi normal, dilakukan transformasi untuk menormalkannya atau setidaknya mendekati normal. Hal ini dapat memperbaiki analisis dan dapat memberikan keuntungan lebih lanjut melalui pengurangan dampak nilai-nilai ekstrim. Transformasi yang dilakukan untuk tiap variabel juga berbeda- beda, tergantung kepada pola penyimpangan distribusi normal dari variabel tersebut.
b. Uji Multikolinearitas
Uji Multikolinearitas bertujuan untuk menguji apakah dalam model regresi, ditemukan adanya korelasi atau hubungan linear yang sempurna di antara variabel- variabel bebas (Gujarati, 2003). Model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel-variabel bebas.
Konsekuensi dari adanya kolinearitas sempurna di antara variabel-variabel bebas adalah bahwa koefisien regresinya tidak tertentu dan kesalahan standarnya tidak terhingga. Jika tingkat kolinearitasnya tinggi tetapi tidak sempurna, penaksiran koefisien regresi adalah mungkin, tetapi kesalahan standarnya akan cenderung besar. Hal ini mengakibatkan nilai populasi dari koefisien tidak dapat ditaksir dengan tepat. Adanya multikolinearitas di antara variabel-variabel bebas membuat kita tidak dapat mengetahui variabel bebas mana yang mempengaruhi variabel tak bebas secara akurat. Indikator bahwa suatu model terbebas dari multikolinearitas adalah:
1) Mempunyai VIF yang tidak melebihi angka 10. Apabila melebihi angka 10 berarti
terjadi persoalan multikolinearitas.
2) Mempunyai angka tolerance di atas 0,1. Apabila mendekati angka 0,1 berarti
terjadi persoalan multikolinearitas.
Pedoman suatu model regresi yang bebas multikolinearitas adalah koefisien korelasi antar variabel bebas haruslah lemah. Terdapat problem multikolinearitas yang berat jika korelasi parsial antar variabel bebas lebih besar dari 0,8. (Gujarati, 2003).
Jika terjadi multikolinearitas, maka dapat diperbaiki dengan cara mengeluarkan salah satu variabel bebas yang mempunyai korelasi yang kuat. Bila variabel-variabel bebas berkorelasi secara sempurna, maka metode kuadrat terkecil tidak dapat digunakan. Adanya multikolinearitas mengakibatkan penaksir-penaksir kuadrat terkecil menjadi tidak efisien. Oleh karena itu, masalah multikolinearitas
harus dianggap sebagai satu kelemahan (black mark) yang mengurangi keyakinan
dalam uji signifikansi konvensional terhadap penaksir-penaksir kuadrat terkecil.
c. Uji Autokorelasi
Uji autokorelasi bertujuan untuk menguji apakah dalam model regresi, terdapat korelasi antar anggota sampel yang diurutkan berdasarkan waktu untuk data time series atau menurut urutan tempat/ruang untuk data cross section. Model regresi yang baik adalah bebas dari autokorelasi.
Konsekuensi dari adanya autokorelasi dalam suatu model regresi adalah interval keyakinan menjadi lebar serta pengujian F-stat & t-stat tidak valid, di mana jika dipaksakan akan menyesatkan dalam mengambil kesimpulan terutama tentang signifikan atau tidaknya secara statistik bagi setiap koefisien regresi yang diuji.
Bila ada masalah autokorelasi dalam kasus persamaan regresi linear berganda, Uji F dan Uji–t, maka dapat dideteksi dengan menggunakan metode yang paling umum yaitu Durbin Watson (DW stat) dengan rumus:
n ∑(et –et-1) 2 DW = t-1 . n ∑ et 2 t-1
Di mana, DW adalah nilai DW hitung, et adalah nilai residu dari persamaan
regresi pada periode t, dan et-1 adalah nilai residu dari persamaan regresi pada periode
t-1. Lebih lanjut, bila angka DW di bawah -2 berarti ada autokorelasi positif, bila angka DW di antara -2 sampai +2 berarti tidak ada autokorelasi, dan bila angka DW di atas +2 berarti ada autokorelasi negatif (Santoso, 2004).
d. Uji Heteroskedastisitas
Uji heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan varians dari residual satu pengamatan ke pengamatan lainnya.
Model regresi yang baik adalah apabila gangguan (disturbance) yang muncul dalam
fungsi regresi populasi bersifat homoskedastik, yaitu semua gangguan tadi mempunyai varians yang sama.
Uji heteroskedastisitas dapat dilakukan dengan metode spearman’s rank
correlation test, metode grafik, atau analisis residual. Jika menggunakan metode
spearman’s rank correlation test, maka langkah-langkah yang ditempuh adalah (Santoso, 2004):
1) Menghitung nilai residu atau kesalahan penggangu dari persamaan regresi, selanjutnya tanpa melihat tanda nilai residu (diabsolutkan), disusun berdampingan dengan variabel bebas berdasarkan nilai tertinggi sampai terendah.
2) Menghitung koefisien korelasi rank spearman antara residu dengan variabel
bebas tadi. Selanjutnya mengamati tingkat signifikansi, maka data dikatakan terdapat heteroskedastisitas begitu juga sebaliknya.
Jika menggunakan metode grafik, maka hanya perlu melihat ada tidaknya pola
tertentu yang terdapat pada scatterplot. Dasar pengambilan kesimpulan adalah
sebagai berikut (Santoso, 2004):
1) Jika pola seperti titik-titik (poin-poin) yang ada membentuk suatu pola tertentu yang teratur (bergelombang, melebar, kemudian menyempit), maka telah terjadi heteroskedastisitas.
2) Jika tidak ada pola yang jelas, serta titik-titik (poin-poin) menyebar di atas dan di bawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas.
Jika menggunakan analisis residual, maka dilakukan regresi antara variabel- variabel bebas dengan unstandardize residual sebagai dependent variabel. Apabila nilai sig. dari variabel-variabel bebas lebih kecil dari 0,05 berarti terdapat masalah heteroskedastisitas. Sebaliknya, apabila nilai sig. dari variable-variabel bebas lebih besar dari 0,05 berarti tidak terjadi heteroskedastisitas.
Apabila terjadi heteroskedastisitas, ada beberapa cara yang dapat dilakukan untuk mengatasinya. Cara-cara ini adalah dalam bentuk transformasi atas variabel- variabel dalam model regresi yang sedang ditaksir. Yaitu dengan melakukan transformasi dalam bentuk membagi model regresi asal dengan salah satu variabel bebas yang digunakan dalam model ini atau melakukan transformasi logaritma.
6.2. Pengujian Hipotesis a. Teknik Analisis
Berdasarkan hipotesis penelitian yang telah dikemukakan sebelumnya, maka pengujian hipotesis dilakukan dengan menggunakan teknik analisis regresi berganda (multiple regression), di mana terdapat hubungan kausal lebih dari satu variabel bebas dengan satu variabel tak bebas. Persamaan regresi yang akan dianalisis adalah sebagai berikut:
Y = a + b1X1 + b2X2 + b3X3 + b4X4 + e
Di mana, a adalah intersep atau angka konstanta, b1 sampai dengan b4 adalah
koefisien regresi dari masing-masing variabel bebas, Y adalah variabel stock return, X1 adalah variabel economic value added, X2 adalah variabel residual income, X3
adalah variabel earnings, X4 adalah variabel cash from operation, dan e adalah
b. Uji Hipotesis Dengan Uji-t
Untuk menentukan signifikansi secara parsial antara masing-masing variabel bebas dengan variabel tak bebas, maka hipotesis diuji dengan uji-t pada taraf signifikan sebesar α = 5 % secara dua arah (two tail). Untuk mencari nilai t hitung digunakan rumus sebagai berikut:
2 r - 1 2 - n r t =
Di mana, t adalah nilai t hitung, r adalah nilai koefisien korelasi, r2 adalah nilai koefisien determinasi, dan n adalah jumlah anggota sampel. Selanjutnya, diambil keputusan tentang diterima atau ditolaknya hipotesis nol, yaitu dengan cara membandingan t hitung dengan t tabel dengan kriteria sebagai berikut:
a) H0 diterima dan Ha ditolak bila ttabel > thitung
b) H0 ditolak dan Ha diterima bila ttabel < thitung
Untuk lebih jelasnya dapat dilihat pada kurva distribusi-t berikut ini:
Gambar 2. Kurva Distribusi-t
α= 2.5% 0 t tabel t hitung Daerah penolakan Ho Daerah penerimaan Ho Daerah penolakan Ho α= 2.5% t tabel t hitung
c. Uji Hipotesis Dengan Uji F
Pada regresi linier berganda, uji hipotesis ditentukan dengan menggunakan uji F. Pengujian ini dilakukan untuk menentukan signifikansi pengaruh variabel-variabel bebas secara simultan terhadap variabel tak bebas. Adapun persamaan F hitung adalah sebagai berikut:
R2/ k Fh =
(1 - R2) / (n -k -1)
Di mana, Fh adalah nilai F hitung, R2 adalah koefisien determinasi, k adalah
jumlah variabel bebas, dan n adalah jumlah anggota sampel. Selanjutnya, ketentuan untuk nilai F adalah sebagai berikut:
a) F hitung > F tabel, maka Ho ditolak dan Ha diterima, berarti terdapat pengaruh antara
seluruh variabel bebas secara simultan dengan variabel tak bebas.
b) F hitung < F tabel, maka Ho diterima dan Ha ditolak, berarti tidak terdapat pengaruh