• Tidak ada hasil yang ditemukan

Tujuan penelitian ini adalah ingin menganalisis pengaruh variabel independen terhadap variabel dependennya. Di sisi lain, penelitian ini melibatkan data yang bersifat time series (runtut waktu) dan cross section (lintas bagian). Sifat time series terlihat dari diambilnya kurun waktu 3 tahun, sedangkan cross section terlihat dari dijadikannya 45 kabupaten/kota sebagai sampel. Mempertimbangkan hal itu, analisis data yang digunakan dalam penelitian ini adalah metode regresi data panel. Data panel adalah gabungan antara data time series dengan data cross section.

28

Sesuai dengan tujuan penelitian tersebut serta mengacu pada model Solow dalam menganalisis pertumbuhan ekonomi, maka dalam penelitian ini model persamaan regresi yang digunakan adalah sebagai berikut:

lnYit = β0 + ln β1Git + ln β2Iit + ln β3Lit + µit

dimana:

ln = logaritma natural

Y = PDRB (dalam milyar rupiah)

β = konstanta

G = belanja pemerintah (dalam milyar rupiah)

I = rasio panjang jalan terhadap wilayah (dalam km/km2) L = kesempatan kerja (dalam orang)

µ = residu

i = unit cross section (kab/kota hasil pemekaran) t = tahun yang diteliti

Untuk melakukan analisis data dengan metode tersebut, penelitian ini akan menggunakan bantuan program Eviews 6.0.

3.7.1. Regresi Data Panel

Menurut Gujarati (2004), data panel (pooled data) atau yang disebut juga data longitudinal merupakan gabungan antara data cross section dan data time series. Data

cross section adalah data yang dikumpulkan dalam satu waktu terhadap banyak

individu, sedangkan data time series merupakan data yang dikumpulkan dari waktu ke waktu terhadap suatu individu. Metode data panel merupakan suatu metode yang digunakan untuk melakukan analisis empirik yang tidak mungkin dilakukan jika hanya menggunakan data time series atau cross section.Dengan penjelasan tersebut, regresi data panel berbeda dengan regresi time series maupun regresi cross section. Regresi data panel memiliki dua subscription pada setiap variabel, yakni i dan t, dimana i menunjukkan aspek cross section dan t menunjukkan aspek time series.

Adapun keuntungan-keuntungan menggunakan analisis regresi data panel, sebagaimana dipaparkan oleh Baltagi (1995) antara lain:

1. Mengatasi masalah heterogenitas individu (individual heterogenity).

2. Memberikan data yang lebih informatif, mengurangi masalah kolinieritas pada variabel, mengatasi masalah penghilangan variabel (ommited variable), dan menghasilkan degree of freedom yang lebih besar.

3. Mempelajari perubahan yang bersifat dinamis (dynamics of adjustment). 4. Dapat mengidentifikasi dan menghitung efek yang tidak dapat dilakukan pada

analisis time series atau cross section murni.

5. Dapat mengurangi bias dalam pengestimasian karena data cukup banyak. 3.7.2. Tahapan Analisis dengan Regresi Data Panel

Sebagaimana analisis dengan menggunakan regresi sederhana, untuk melakukan analisis regresi data panel juga harus mengikuti tahapan-tahapan tertentu.

29

Gambar 4. Tahapan Analisis Regresi Data Panel

Secara garis besar, tahapan dalam analisis regresi data panel diawali dengan melakukan estimasi terhadap model-model persamaan regresinya. Setelah itu dilanjutkan dengan melakukan uji kesesuaian model untuk menentukan manakah model persamaan regresi yang paling tepat digunakan dalam penelitian ini. Selanjutnya, dari model persamaan yang paling sesuai tersebut dilakukan uji asumsi klasik. Jika uji asumsi klasik telah dilakukan, baru kemudian model persamaan tersebut dapat diinterpretasi.

3.7.3. Estimasi Model Regresi Data Panel

Biasanya dengan menggunakan data panel akan dihasilkan intersep dan koefisien slope yang berbeda pada setiap individu (kabupaten/kota) dan setiap periode waktu. Oleh karena itu, di dalam mengestimasi persamaan akan sangat tergantung dari asumsi yang dibuat tentang intersep, koefisien slope, dan variabel gangguannya. Untuk mengestimasi parameter model regresi dengan data panel, terdapat 3 model yang biasa digunakan, yaitu:

a. Common Effects Model

Merupakan pendekatan model data panel yang paling sederhana karena hanya dengan mengkombinasikan data time series dan cross section dalam bentuk pool, dan menggunakan teknik kuadrat terkecil atau least square untuk mengestimasi koefisiennya. Oleh karena itu, model ini juga sering disebut Pooled Least Square (PLS). Pada model ini tidak diperhatikan dimensi waktu maupun individu, sehingga diasumsikan bahwa perilaku individu tidak berbeda dalam berbagai kurun waktu. Metode yang dapat digunakan untuk mengestimasi model ini adalah Ordinary Least Sequare (OLS) atau teknik kuadrat terkecil.

b. Fixed Effects Model

Asumsi pembuatan model yang menghasilkan intersep konstan untuk setiap individu (i) dan waktu (t) dianggap kurang realistik sehingga dibutuhkan model yang lebih dapat menangkap perbedaan tersebut. Model efek tetap (Fixed Effects), model ini mengasumsikan bahwa perbedaan antar individu dapat diakomodasi dari perbedaan intersepnya. Untuk mengestimasi model Fixed Effects dengan intersep berbeda antar individu, maka digunakan teknik variabel dummy. Model estimasi ini sering juga disebut dengan teknik Least Squares Dummy Variable (LSDV).

c. Random Effects Model

Di dalam mengestimasi data panel dengan model Fixed Effects melalui teknik LSDV menunjukkan ketidakpastian model yang digunakan. Untuk mengatasi masalah ini bisa digunakan variable residual yang dikenal sebagai model Estimasi Model Uji Kesesuaian Model Uji Asumsi Klasik Interpretasi

30

Random Effects. Pada model ini, akan dipilih estimasi data panel dimana residual mungkin saling berhubungan antar waktu dan antar individu. Oleh karena itu, pada model ini diasumsikan bahwa ada perbedaan intersep untuk setiap individu dan intersep tersebut merupakan variable random atau stakastik. Sehingga dalam model ini terdapat dua komponen residual, yaitu residual secara menyeluruh, yang merupakan kombinasi time series dan cross section, dan residual secara individu yang merupakan karakteristik random dari observasi unit ke-i dan tetap sepanjang waktu.

3.7.4. Penentuan Model Regresi Data Panel yang Sesuai

Untuk menentukan model regresi data panel mana yang paling sesuai untuk penelitian ini, apakah Common Effects Model, Fixed Effects Model, atau Random Effects Model, perlu dilakukan sejumlah pengujian. Alat uji yang biasa digunakan adalah:

a. Uji Statistik F atau Likelihood Ratio

Alat pengujian untuk menentukan apakah model Common Effect atau Fixed Effect yang paling tepat digunakan dalam mengestimasi data panel.

b. Uji Hausman

Alat pengujian statistik untuk memilih apakah model Fixed Effect atau model Random Effect yang paling tepat digunakan.

c. Uji Lagrange Multiplier

Pengujian untuk mengetahui mana yang lebih baik antara model Random Effect dengan model Common Effect.

3.7.5. Uji Asumsi Klasik

Suatu fungsi regresi yang diperoleh dari hasil perhitungan pendugaan dengan metode kuadrat terkecil (OLS) dari koefisien regresi adalah penduga tak bias linear terbaik (best linear unbiased estimator-BLUE) apabila asumsi-asumsi yang mendasari model tersebut terpenuhi. Sebaliknya jika ada (paling tidak: satu) asumsi dalam model regresi yang tidak dapat dipenuhi oleh fungsi regresi yang diperoleh maka kebenaran pendugaan dan atau pengujian hipotesis untuk pengambilan keputusan itu diragukan (Firdaus, 2011). Oleh karena itu agar model regresi BLUE (Best Linear Unbiased Estimator) maka perlu dilakukan uji asumsi klasik terlebih dahulu. Uji persyaratan analisis untuk regresi yang sering digunakan adalah sebagai berikut:

a. Uji Normalitas

Uji normalitas digunakan untuk mengetahui apakah data berdistribusi normal atau tidak. Dalam penelitian ini menggunakan uji Jarque-Bera untuk melihat apakah data terdistribusi normal atau tidak. Uji ini menggunakan hasil residual dan chi-square probability distribution, hipotesis yang akan diuji adalah : Ho : Sampel berasal dari populasi yang berdistribusi normal

Ha : Sampel berasal dari populasi yang tidak berdistribusi normal

Kriteria pengujian adalah bila nilai chi squaretabel > nilai JBhitung, maka Ho

yang menyatakan residual berdistribusi normal diterima. Sebaliknya, bila nilai chi squaretabel < nilai JBhitung, maka Ho yang menyatakan residual berdistribusi

31 b. Uji Multikolinieritas

Uji multikolinieritas bertujuan untuk menguji, apakah pada model regresi ditemukan adanya korelasi antar variabel bebas (independent variable). Model regresi yang baik seharusnya tidak terjadi korelasi tinggi di antara variabel- variabel bebas. Bila terjadi hubungan linear yang sempurna di antara beberapa atau semua variabel bebas dari suatu model regresi maka dikatakan terdapat masalah multikolinieritas dalam model tersebut. Masalah multikolinieritas mengakibatkan adanya kesulitan untuk dapat memisahkan pengaruh variabel penjelas terhadap variabel yang dijelaskan.

Untuk mendeteksi ada tidaknya gejala multikolinieritas dapat dilakukan dengan menggunakan korelasi parsial (examination of partial correlation). Metode ini dimunculkan oleh Farrar dan Glaubel, metodenya adalah dengan melihat nilai R2 dari model utama yang diestimasi dan nilai R2 dari regresi antar variabel bebasnya. Bila R2 model utama lebih tinggi dibandingkan R2 dari regresi antar variabel-variabel bebasnya, dikatakan tidak terdapat masalah multikolinieritas.

c. Uji Autokorelasi

Uji autokorelasi bertujuan menguji apakah dalam model regresi linier terdapat korelasi antara serangkaian data observasi cross section atau time series-nya. Salah satu cara untuk mendeteksi gejala autokorelasi digunakan uji Durbin Watson. Caranya dengan membandingkan nilai Durbin Watson (d-hitung)

dengan nilai d-tabel. Hasil perbandingan akan menghasilkan kesimpulan seperti

kriteria sebagai berikut:

1. Jika d < dL, berarti terdapat autokorelasi positif 2. Jika d > (4 – dL), berarti terdapat autokorelasi negatif 3. Jika dU < d < (4 – dL), berarti tidak terdapat autokorelasi 4. Jika dL < d < dU atau (4 – dU), berarti tidak dapat disimpulkan Berikut ini adalah daerah pengujian Durbin Watson:

d. Uji Heteroskedastisitas

Uji heteroskedastisitas digunakan untuk mengetahui apakah terjadi penyimpangan model karena gangguan varian yang berbeda antar data observasi satu dengan data obsevasi lainnya. Heteroskedastisitas muncul apabila error atau residual model yang diamati tidak memiliki varian yang konstan dari satu observasi ke obsevasi lainnya. Konsekuensi adanya heteroskedastisitas dalam model regresi adalah estimator yang diperoleh menjadi tidak efisien.

Cara melakukan uji heteroskedastisitas adalah dengan melakukan regresi antara harga mutlak residual (error) dengan variabel-variabel bebas.

32

Hipotesisnya adalah:

Ho : Tidak terdapat pelanggaran heterokedastisitas atau asumsi homokedastisitas terpenuhi

Ha : Terdapat pelanggaran heterokedastisitas atau asumsi homokedastisitas tidak terpenuhi

Kriteria pengujiannya adalah apabila p-value dari persamaan lebih besar dari α, hal ini berarti data dari model yang diestimasi tidak terdapat pelanggaran asumsi heterokedastisitas atau Ho diterima. Sebaliknya apabila p-value lebih kecil dari α, maka Ho ditolak, yang berarti terdapat pelanggaran asumsi heterokedastisitas.