• Tidak ada hasil yang ditemukan

METODOLOGI PENELITIAN A.Ruang Lingkup Penelitian

D. Metode Analisis

1. Uji Asumsi Klasik

Model regresi yang baik adalah model regresi yang menghasilkan estimasi linier tidak bias (Best Linear Unbias Estimator/BLUE). Kondisi ini

88 akan terjadi jika dipenuhi beberapa asumsi, yang disebut dengan asumsi klasik. Asumsi klasik selengkapnya adalah sebagai berikut :

a. Uji Normalitas

Uji ini bertujuan untuk mengetahui data dalam variabel yang akan digunakan dalam penelitian, data yang baik dan layak digunakan dalam penelitian adalah data yang memiliki distribusi normal. Normalitas data dapat dilihat dengan beberapa cara diantaranya, dengan uji Jarque-Bera atau Histogram Test. Suatu variabel dikatakan normal jika korelogram pada gambar menunjukkan bahwa residual berdistribusi normal (Winarno, 2009:5.24).

Asumsi normalitas gangguan Ut adalah penting sekali mengingat uji validitas pengaruh variabel independen baik secara serempak (uji F) maupun sendiri-sendiri (uji t) dan estimasi nilai variabel dependen mensyaratkan hal ini. Apabila asumsi ini tidak terpenuhi, maka kedua uji ini dan estimasi nilai variabel dependen adalah tidak valid untuk sampel kecil atau tertentu (Gujarati, 2006:67)

Untuk menguji dengan lebih akurat, diperlukan alat analisis dan EViews menggunakan 2 (dua) cara, yaitu dengan Histogram dan Uji Jarque-Bera. Uji Jarque-Bera adalah uji statistik untuk mengetahui apakah data berdistribusi normal. Ujiini mengukur perbedaan skewness dan kurtosis data dan dibandingkan dengan apabila datanya bersifat normal. Rumus yang digunakan adalah: (Winarno, 2009:5.37)

89 Dimana :

N = ukuran sampel

S = skewness/kemencengan K = kurtosis/peruncingan

K = banyaknya koefisien yang digunakan di dalam persamaan Berikut hipotesis langkah-langkah pengujian normalitas:

Hipotesis:

Ho : Model tidak normal. Ha : Model normal.

Bila probabilitas Obs*R2> 0.05 → signifikan, Ho ditolak. Bila probabilitas Obs*R2< 0.05 → tidak signifikan, Ho diterima.

Salah satu asumsi dalam analisis statistik adalah data berdistribusi normal. Dalam analisis multivariate, para peneliti menggunakan pedoman jika tiap variabel terdiri dari 30 data, maka data sudah berdistribusi normal. Apabila melibatkan 3 variabel, maka diperlukan 3 x 30 = 90 (Ajija, 2011:42).

Jika residual tidak normal tetapi dekat dengan nilai kritis maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan

90 trimming data outliers atau menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk logaritma natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau menyebar kesamping kanan dan kiri.

b. Uji Multikolinearitas

Multikolinearitas artinya terdapat korelasi yang signifikan diantara dua atau lebih variabel bebas dalam suatu model regresi. Untuk mendeteksi ada atau tidaknya multikolinearitas dalam model persamaan penelitian ini, penulis menggunakan matriks korelasi (Correlation Matriks). Indikasi awal adanya masalah multikolinearitas dalam model adalah mempuyai standard error besar dan nilai statistik t yang rendah.(Widarjono, 2007:113). Karena melibatkan beberapa variabel independen, maka multikolinieartias tidak akan terjadi pada persamaan regresi sederhana (yang terdiri atas satu variabel dependent dan satu variabel independent). (Winarno, 2011 : 5.1)

Menurut Widarjono (2007:119) penyembuhan multikolinearitas ada dua, yaitu memperbaiki model supaya terbebas dari multikolinearitas atau membiarkan model mengandung multikolinearitas. Jika kita tetap membiarkan model kita terdapat multikolinearitas, maka hal tersebut akan menyulitkan kita untuk memperoleh estimator dengan standar error yang kecil.

91 Masalah multikolinearitas timbul karena kita hanya mempunyai jumlah observasi yang sedikit. Cara menghilangkan multikolinearitas yaitu dengan cara menghilangkan salah satu variabel independent yang mempunyai hubungan linear kuat, mentransformasi variabel dan menambahkan jumlah data. (Widarjono, 2007:120)

Apabila pengujian multikolinearitas dilakukan dengan menggunakan correlation matrix, jika hasilnya ada yang melebihi dari 0,8 itu menandakan bahwa terjadi multikolinearitas yang serius. Jika terjadi multikolinearitas yang serius, maka akan berakibat buruk, karena hal tersebut akan mengakibatkan pada kesalahan standar estimator yang besar (Gujarati, 2006:68).

1) Uji hipotesis

Ho : tidak ada multikolineritas Ha : ada multikolineritas

2) Pada output Eviews 6.0 adalah sebagai berikut: (Widarjono,2007:54)

a) Pada Correlation Matrix, jika nilai korelasi yang dihasilkan sangat tinggi (umumnya < 0,8) = Tidak terdapat multikolineritas (tolak Ha terima Ho)

b) Pada Correlation Matrix, jika nilai korelasi yang dihasilkan sangat tinggi (umumnya > 0,8) = Terdapat multikolineritas. (tolak Ho terima Ha)

92 Apabila terjadi Multikolinearitas menurut (Gujarati, 2006:45) disarankan untuk mengatasinya dapat dilakukan dengan cara sebagai berikut :

a) Adanya informasi sebelumnya (information apriori)

b) Menghubungkan data cross sectional dan data urutan waktu, yang dikenal sebagai penggabungan data (pooling the data). c) Mengeluarkan satu variabel atau lebih.

d) Transformasi variabel serta penambahan variabel baru.

e) Selanjutnya bisa dengan mentransformasikan salah satu (atau beberapa) variabel dengan melakukan diferensiasi. (Winarno, 2011:5.7-5.8). Diferensiasi berguna untuk melakukan penurunan data yang membuat nilai estimasi sekecil mungkin, sehingga terbebas dari penyakit atau melanggar uji asumsi klasik. (Gujarati, 2006:185)

c. Uji Heteroskedastisitas

Uji heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain.

Asumsi dalam model regresi adalah dengan memenuhi (1) residual memiliki nilai rata-rata nol, (2) residual memiliki varian yang konstan,dan (3) residual suatu observasi tidak saling berhubungan dengan residual observasi lainnya sehingga menghasilkan estimator yang BLUE. Apabila asumsi (1) tidak terpenuhi yang terpengaruh hanyalah slope

93 estimator dan ini tidak membawa konsekuensi serius dalam analisis ekonometrik. Sedangkan jika asumsi (2) dan (3) tidak terpenuhi, maka akan berdampak pada prediksi dengan model yang dibangun. Dalam kenyataannya, nilai residual sulit memiliki varian yang konstan. Hal ini sering terjadi pada data yang bersifat cross section dibanding time series. (Winarno, 2011:5.8)

Jika variance dari residual satu pengamatan ke pengamatan lain tetap, maka disebut Homoskedastisitas dan jika variance tidak konstan atau berubah-ubah disebut denfan Heteroskedastisitas. Model regresi yang baik adalah yang Homoskedastisitas atau tidak terjadi Heteroskedastisitas. (Nachrowi, 2006:109)

Secara simbolis, heteroskedastisitas dinyatakan sebagai berikut :

E(u2i) = σ2i

Gangguan ui yang tercakup dalam fungsi regresi populasi bersifat

homokedastis artinya, semua memiliki varians yang sama, σ2. Jika tidak

demikian – jika varians ui adalah σ2i, yang menunjukkannya bervariasi

dari observasi ke observasi – berarti kita menghadapisituasi heteroskedastisitas, atau varians tak sama, atau nonkonstan. (Gujarati, 2006:82)

Ada beberapa metode yang dapat digunakan untuk mengidentifikasi ada tidaknya masalah heterokedastisitas. Diantaranya dapat menggunakan Uji Harvey. Berikut hipotesis langkah-langkah untuk pengujian Heteroskedastisitas:

94 Hipotesis:

Ho: Model tidak terdapat Heteroskedastisitas Ha: Terdapat Heteroskedastisitas

Bila probabilitas Obs*R2 > 0.05 → Ho diterima Bila probabilitas Obs*R2 < 0.05 → Ho ditolak

Apabila Obs*R2 pada Uji Harvey lebih dari 0.05 maka Ho diterima berarti model bebas dari masalah heteroskedastisitas.

d. Uji Autokorelasi

Autokolerasi bertujuan untuk mengetahui apakah dalam sebuah model regresi linier ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada periode t-i (sebelumnya). Tentu saja model regresi yang baik adalah regresi bebas dari autokolerasi. (Gujarati, 2006:112).

Sejalan dengan keterangan lainnya yang mengatakan bahwa uji autokolerasi dilakukan untuk mengetahui apakah ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan periode t sebelumnya pada model regresi linier yang dipergunakan. (Nisfiannor, 2009:92)

Apabila nilai yang diharapkan dari koefisien korelasi sederhana antara setiap dua pengamatan error term adalah tidak sama dengan nol, maka error term tersebut dikatakan memiliki otokorelasi tanpa sifat perubahan, maka disebut otokorelasi murni (pure autocorrelation)

95 (Hamja, 2012:25). Berikut hipotesis langkah-langkah pengujian autokorelasi:

Hipotesis:

Ho : Model tidak terdapat Autokorelasi. Ha : Terdapat Autokorelasi.

Bila probabilitas Obs*R2> 0.05 → Ho diterima.

Bila probabilitas Obs*R2< 0.05 → Ho ditolak

Apabila probabilitas Obs*R2 lebih besar dari 0.05 maka model tersebut tidak terdapat autokorelasi. Apabila probabilitas Obs*R2 lebih kecil dari 0.05 maka model tersebut terdapat autokorelasi.

Apabila data mengandung autokorelasi, data harus segera diperbaiki agar model tetap dapat digunakan. Untuk menghilangkan masalah autokorelasi, maka dilakukan estimasi dengan diferensi tingkat satu (Winarno, 2009:5.31)

Autokorelasi (atau otokorelasi) menunjukkan korelasi di antara anggota serangkaian observasi yang di urutkan menurut waktu atau ruang. Untuk mendeteksi adanya autokorelasi, yaitu memperhatikan t-statistik, R-Square, uji F, dan Durbin Watson (DW) atau melakukan uji LM (Metode Bruesch godfrey) (Ajija, 2011:35).

Apabila D-W berada diantara 1,54 hingga 2,46 maka model tersebut tidak terdapat autokolerasi. Sebaliknya, jika DW tidak berada

96 diantara 1,54 hingga 2,46 maka model tersebut terdapat autokolerasi. (Winarno, 2009:5.27)

Dokumen terkait