• Tidak ada hasil yang ditemukan

Teknik ini merupakan teknik yang paling sederhana untuk mengestimasi parameter model data panel, yaitu dengan mengkombinasikan data cross-section dan time series sebagai satu kesatuan tanpa melihat adanya perbedaan waktu dan individu. Pendekatan yang dipakai pada model ini adalah metode OLS.

2. Fixed Effect Model (FEM)

Teknik ini mengestimasi data panel dengan menggunakan variabel dummy untuk menangkap adanya perbedaan intersep antara individu atau cross-sction maupun antar waktu time series. Pendekatan yang digunakan pada model ini menggunakan metode least square dummy variabel (LSDV).

3. Random Effect Model (REM)

53

Teknik ini akan mengestimasi data panel dimana variabel gangguan mungkin saling berhubungan antar waktu dan antar individu. Perbedaan antar waktu dan individu diakomodasi lewat error. Karena adanya korelasi antar variabel maka metode OLS tidak bisa digunakan sehingga metode random effect menggunakan metode Generalized least square (GLS). Keuntungan menggunakan teknik ini akan menghilangkan heteroskedastisitas.

Sebelum menentukan model mana yang akan digunakan, perlu dilakukan uji spesifikasi model terlebih dahulu. Uji spesifikasi model tersebut antara lain:

a. Uji Chow

Pengujian untuk menentukan model fixed effect atau common effect yang paling tepat digunakan dalam mengestimasi data panel.

Pengambilan keputusan dilakukan jika

1. Nilai probabilitas < batas kritis, maka tolak H0 atau memilih fixed effect daripada common effect.

2. Nilai probabilitas > batas kritis, maka terima H0 atau memilih common effect daripada fixed effect.

b. Uji Hausman

Pengujian statistik untuk memilih apakah model fixed effect atau random effect yang paling tepat. Pengambilan keputusan dilakukan jika:

1. Nilai chi squares hitung > nilai chi squares tabel atau nilai probabilitas chi squares < taraf signifikansi, maka tolak H0 atau memilih fixed effect daripada random effect.

2. Nilai chi square hitung < chi squares tabel atau nilai probabilitas chi square > taraf signifikansi, maka tidak menolak H0 atau memilih random effect daripada fixed effect.

c. Uji lagrange multiplier (LM)

Uji untuk mengetahui apakah model random effect lebih baik daripada metode common effect (OLS). Pengambilan keputusan dilakukan jika:

1. Nilai p value < batas kritis, maka tolak H0 atau memilih random effect dari pada common effect.

2. Nilai p value > batas kritis, maka terima H0 atau memilih common effect daripada random effect.

3.6.3 Uji Asumsi Klasik 1. Uji Heteroskedastisitas

Suatu asumsi penting dari model regresi linear klasik adalah bahwa gangguan (disturbance) ui yang muncul dalam fungsi regresi populasi adalah homoskedastik; yaitu semua ganguan tadi mempunyai varian yang sama. Jika asumsi ini tidak dipenuhi, maka kita mempunyai heteroskedastisitas.

Heteroskedastisitas tidak merusak sifat ketidakbiasaan dan konsistensi dari penaksir OLS. Permasalahannya penaksir ini tidak lagi mempunyai varians minimum atau efisien, dengan perkataan lain mereka tidak lagi BLUE (Best

55

Linear Unbiased Estimator). Penaksir BLUE diberikan oleh metode kuadrat terkecil tetimbang (Gujarati,2003).

Untuk mengetahui apakah terjadi heteroskedastisitas atau tidak dalam sebuah model, dapat menggunakan uji White. Uji ini secara manual dapat dilakukan dengan melakukan regresi dengan menempatkan residual kuadrat sebagai variabel depandent terhadap variabel bebas. Dapatkan nilai R2 untuk menghitung x2, dimana x2 = n*R2. Pengujiannya adalah jika x2< x2 tabel, maka hipotesis alternatif adanya heteroskedastisitas dalam model ditolak (Gujarati, 2003).

2. Uji Normalitas

Uji normalitas dalam analisis regresi dilakukan untuk menguji apakah data yang akan diteliti memiliki variabel pengganggu yang berdistribusi normal.

Dalam penelitian ini digunakan statistic pengujian Jarque-Bera yang terdapat dalam program Eviews. Jika nilai probabilitas Jarque-Bera lebih besar dari nilai Alpha (p > α) maka data tersebut berdistribusi normal sedangkan jika nilai probabilitas lebih kecil dari nilai Alpha (p < α) maka data tersebut tidak berdistribusi normal.

3. Uji Multikolinearitas

Multikolinearitas adalah salah satu pelanggaran asumsi klasik bahwa suatu model regresi dikatakn baik. Asumsi yang seharusnya dipenuhi adalah bahwa antar variabel bebas tidak terdapat korelasi sehingga estimasi parameter koefisien regresi dari masing-masing variabel bebas benar-benar menggambarkan pengaruhnya terhadap variabel tidak bebas. Penyakit ini terjadi jika pada regresi

linear berganda terdapat hubungan antar variabel bebas. Jika suatu model regresi terjangkit penyakit multikolinearitas, maka akan menimbulkan kesulitan untuk melihat pengaruh variabel penjelas terhadap variabel yang dijelaskan (Gujarati, 2003).

Uji multikolinearitas dapat dilakukan dengan melihat nilai R2 dan nilai t statistik yang signifikan. Apabila nilai R2 yang tinggi hanya diikuti oleh sedikit nilai t statistik yang signifikan, maka mengidentifikasi adanya masalah multikolinearitas dalam model tersebut. Selain itu kita juga dapat mendeteksi penyakit multikoliniaritas dalam model tersebut. Selain itu, kita juga dapat mendeteksi penyakit multikolinearitas dalam model tersebut. Selain itu, kita juga dapat mendeteksi penyakit multikolinearitas dengan melihat correlation matric, dimana batas kolerasi antara semua variabel bebsa tidak lebih dari.

3.6.4 Uji Hipotesis

1. Koefisien Determinasi R2 (Goodness of Fit)

Menurut Gujarati (2003) Koefisien determinasi (R2) merupakan ukuran ringkas yang menginformasikan kepada kita seberapa baik sebuah garis regresi sampel sesuai dengan datanya. Koefisien determinasi pada intinya mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel dependen.

Nilai koefisien determinasi adalah antara nol dan satu. Koefisien determinasi memiliki dua sifat, yaitu:

a. Besarnya tidak pernah negatif

57

b. Batasannya adalah 0 ≤ R2 ≤ 1. Jika R2 bernilai 1, artinya kesesuaian garisnya tepat. Akan tetapi, jika R2 bernilai nol maka tidak ada hubungan antara regresan dengan regresor.

2. Uji F

Uji F diperuntukkan guna melakukan hipotesis koefisien (slope) regresi secara bersamaan dan memastikan bahwa model yang dipilih layak atau tidak mengintepretasikan pengaruh variabel bebas terhadap variabel terikat. Uji ini sangat penting karena jika tidak lolos uji F maka hasil uji t tidak relevan. Uji F digunakan untuk menunjukkan apakah keseluruhan variabel independen berpengaruh terhadap variabel dependen dengan menggunakan level of significance 5%.

3. Uji t (Uji Signifikansi Parsial)

Uji t dilakukan untuk mengetahui apakah variabel independen secara individual mempengaruhi variabel independennya. Uji t ini dilakukan dengan membandingkan t hitung dengan t tabel. Apabila >, maka variabel independen berpengaruh secara signifikan terhadap variabel dependennnya, begitu pula sebaliknya.

BAB IV

HASIL DAN PEMBAHASAN

Dokumen terkait