• Tidak ada hasil yang ditemukan

METODE PENELITIAN

D. Metode Analisis Data

1. Menghitung Initial Return (IR)

Keuntungan permulaan berlebih (initial return), yaitu selisih antara harga saham pada hari pertama penutupan (closing price) dengan harga penawaran perdana (offering price) dibagi dengan harga penawaran perdana (offering price) dikali 100%. Secara sistematis dapat dirumuskan sebagai berikut (Suyatmin dan Sujadi, 2006: 21-22):

IR = [(Pt1-Pt0)/ Pt0] x 100% 2. Uji-t Satu Sampel (One Sample t-test)

Uji-t satu sampel (one sample t-test) digunakan untuk menguji purata (mean) dari satu sampel tunggal terhadap suatu purata acuan (μ0) dengan asumsi data terdistribusi normal (Uyanto, 2006: 77). Dalam penelitian ini objek yang akan diuji menggunakan uji-t satu sampel ini adalah seluruh IPO saham perusahaan dari tahun 2005 sampai dengan

2012 di Bursa Efek Indonesia. Penelitian ini akan menguji apakah telah terjadi underpricing pada penawaran umum perdana (IPO) di Bursa Efek Indonesia dari tahun 2005-2012 dengan α = 0,05. Jika hal ini terjadi, maka nilai initial return perusahaan akan lebih tinggi dari rata-rata μ0 = 0, karena itu digunakan uji hipotesis satu sisi (one sided atau one tailed test) untuk sisi atas (upper tailed) dengan hipotesis:

H0 : μ ≤ 0

Ha : μ > 0

Keputusan yang didapatkan apakah terjadi underpricing pada penawaran umum perdana (IPO) di Bursa Efek Indonesia dari tahun 2005-2012. Kriteria pengujian hipotesisnya adalah sebagai berikut:

Jika P-value < α, maka H0 ditolak Jika P-value ≥ α, maka H0 tidak dapat ditolak 3. Metode Analisis

Metode analisis yang digunakan untuk menguji hipotesis adalah analisis regresi berganda (multiple regression) yaitu untuk mengetahui pengaruh perubahan variabel independen terhadap dependen baik secara sendiri-sendiri maupun secara bersama-sama. Model Regresi Linear Berganda yang digunakan adalah:

Y = α0 + β1X1 + β2X2 + β3X3 + e

Dimana:

X1 = Return on Asset X2 = Reputasi Auditor X3 = Ukuran Perusahaan

α0 = Konstanta

e = Nilai residual atau pengganggu

β = Koefisien Regresi

Sebelum dilakukan pengujian dengan regresi berganda, variabel-variabel penelitian diuji dengan asumsi klasik atau bisa dikenal dengan uji BLUE (Best Linear Unbiased Estimate) yaitu data terdistribusi normal (uji normalitas), tidak terjadinya heterokedasitas, tidak terjadinya autokorelasi dan todak terjadinya multikolinearitas (Suyatmin dan Sujadi, 2006: 22). Uji asumsi klasik terdiri dari pengujian-pengujian sebagai berikut:

a. Uji Normalitas Data

Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual (e) di dalam suatu persamaan memiliki distribusi normal. Seperti diketahui uji t dan F mengasumsikan bahwa nilai residual mengikuti distribusi normal. Jika asumsi ini dilanggar maka uji statistik menjadi tidak valid. Ada dua cara untuk mendeteksi apakah residual berdistribusi normal atau tidak yaitu dengan analisis grafik dan uji statistik (Imam Ghozali, 2012: 160).

Normalitas dapat dideteksi dengan melihat penyebaran data (titik) pada sumbu diagonal dari grafik atau dengan melihat histogram dari residualnya. Dasar pengambilan keputusan (Imam Ghozali, 2012: 163):

1) Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal atau grafik histogramnya menunjukkan pola distribusi normal, maka model regresi memenuhi asumsi normalitas.

2) Jika data menyebar jauh dari diagonal dan tidak mengikuti arah garis diagonal atau grafik histogram tidak menunjukkan pola distribusi normal, maka model regresi tidak memenuhi asumsi normalitas.

Uji statistik lain yang dapat digunakan untuk menguji normalitas residual adalah uji statistik non-parametik Kolmogorov-Smirnov (K-S). Uji K-S dilakukan dengan membuat hipotesis (Imam Ghozali, 2012: 164):

H0: Data residual berdistribusi normal Ha: Data residual tidak berdistribusi normal b. Uji Heteroskedastisitas

Uji heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Jika variance dari residual satu pengamatan yang lain tetap, maka disebut homoskedastisitas

dan jika berbeda disebut heteroskedastisitas. Model regresi yang baik adalah homoskedastisitas atau tidak terjadi heteroskedastisitas (Imam Ghozali, 2012: 139). Deteksi ada tidaknya heteroskedastisitas dapat dilakukan dengan melihat ada tidaknya pola tertentu pada grafik scatterplot antara variabel dependen dan residualnya dimana sumbu Y adalah Y yang diprediksi, dan sumbu X adalah residual (Y prediksi – Y sesungguhnya) yang telah di studentized. Dasar analisis (Imam Ghozali, 2012: 139):

1) Jika terdapat pola tertentu seperti titik-titik yang ada membentuk pola tertentu yang teratur (bergelombang, melebar kemudian menyempit), maka mengindikasikan telah terjadi heteroskedastisitas.

2) Jika tidak ada pola yang jelas, serta titik menyebar diatas dan di bawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas.

c. Uji Autokorelasi

Uji autokorelasi bertujuan untuk menguji apakah model regresi linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pengganggu pada periode t-1 (sebelumnya). Jika terjadi korelasi maka dinamakan ada problem autokorelasi (Imam Ghozali, 2012: 110). Autokorelasi biasanya terjadi pada deret waktu (time series data) (data yang hanya mempunyai satu observasi untuk setiap variabel pada setiap satuan waktu) (Salvatore, 2001: 170).

Artinya autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu sama lain. Uji autokorelasi juga dapat didefinisikan adanya korelasi antara anggota serangkaian observasi yang telah diurutkan menurut waktu (seperti dalam runtun waktu/time series) atau ruang (seperti data cross section). Untuk mengambil keputusan ada tidaknya autokorelasi bisa menggunakan tabel autokorelasi sebagai berikut:

Tabel 3.1 Tabel Autokorelasi

No Hiportesis Nol Keputusan Jika 1 Tidak ada autokorelasi

positif Tolak 0 < d < dl 2 Tidak ada autokorelasi

positif

Tanpa

keputusan dl ≤ d ≤ du 3 Tidak ada autokorelasi

negatif Tolak 4dl < d < 4 4 Tidak ada autokorelasi

negatif

Tanpa

keputusan 4-du ≤ d ≤ 4-dl 5 Tidak ada autokorelasi

positif maupun negatif Tidak ditolak du < d < 4-du Sumber: Imam Ghozali (2012: 111)

d. Uji Multikolonieritas

Uji multikolonieritas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas atau independen. Model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel independen (Imam Ghozali, 2012: 105). Adanya multikolinearitas dapat dilihat dari tolerance value atau Variance Inflation Factor (VIF). Nilai cut off yang umum dipakai

untuk menunjukkan adanya multikoleniaritas adalah nilai tolerance < 0,10 atau VIF > 10 (Imam Ghozali, 2012: 106).

Menurut Imam Ghozali cara untuk mengobati bila terjadi multikolinearitas:

1) Menggabungkan data cross section dan time series (pooling data).

2) Keluarkan satu atau lebih variabel independen yang mempunyai korelasi lebih dari model regresi dan identifikasikan variabel independen lainnya untuk membantu prediksi.

3) Transformasi variabel merupakan salah stu cara mengurangi hubungan linear diantara variabel independen. Transformasi dapat dilakukan dalam bentuk logaritma natural.

4) Gunakan model dengan variabel independen yang mempunyai korelasi tinggi hanya semata-mata untuk prediksi (jangan mencoba untuk mneginterpretasikan koefisien regresinya). 5) Gunakan metode analisis yang lebih canggih seperti Bayessian

Regression. 4. Pengujian Hipotesis

a. Uji Parsial atau Uji t

Uji t digunakan untuk menganalisis pengaruh variabel independen terhadap variabel dependen secara parsial. Apabila nilai Thitung lebih besar dari Ttabel atau tingkat signifikan T< α = 5% maka

bahwa variabel independen mempunyai pengaruh signifikan terhadap variabel dependen secara parsial.

b. Uji Simultan atau Uji F

Uji F dilakukan untuk melihat makna dari hasil model regresi. Apabila nilai Fhitung lebih besar dari Ftabel atau tingkat signifikan lebih kecil dari 5% maka ini menunjukkan bahwa H0 ditolak dan Ha diterima. Hal ini berarti bahwa variabel independen mempunyai pengaruh signifikan terhadap variabel dependen secara simultan. c. Koefisien Determinasi

Koefisien determinasi (adjusted R square) pada intinya mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel dependen. Nilai adjusted R square berkisar antara 0 sampai dengan 1, bila adjusted R square kecil berarti kemampuan variabel bebas dalam menjelaskan variasi variabel terikat amat terbatas. Nilai yang mendekati satu berarti variabel bebas memberikan hampir semua informasi yang dibutuhkan untuk meprediksi variasi variabel terikat. Secara umum koefisien determinasi untuk data silang (cross section) relatif rendah karena adanya variasi yang besar antara masing-masing pengamatan, sedangkan untuk data runtun waktu (time series) biasanya mempunyai nilai koefisien determinasi yang tinggi. Banyak peneliti menganjrkan untuk menggunakan nilai adjusted R square pada saat mengevaluasi nama model regresi terbaik.

Dokumen terkait