• Tidak ada hasil yang ditemukan

IV. METODOLOGI PENELITIAN

4.9. Penyimpangan Asumsi Klasik dan Pemecahannya

OLS mengandung beberapa asumsi yang harus dipenuhi terlebih dahulu, yaitu: 1. Hubungan antara variabel terikat Y dan sejumlah variabel bebas X1 dan X2

merupakan hubungan linier.

2. X1 dan X2 bukan variabel stokastik, berarti nilai-nilai telah ditetapkan dan tidak ada hubungan linier yang persis antar variabel bebas.

3. Error memiliki expected value(nilai harapan) nol, E( ) = 0

4. Error dari observasi-observasi yang berbeda independen secara statistik,

E( i j) = 0, untuk semua i ≠ j

5. Errormemiliki varians yang konstan untuk semua observasi E( 2) = σ

Jika semua asumsi tersebut dipenuhi maka berdasarkan teorema Gauss- Markov dikatakan bahwa estimasi yang didapatkan merupakan penaksir linier yang tidak bias dan terbaik, atau disebut Best Linier Unbiased Estimation

(BLUE), dalam arti memiliki varians minimum.

2

Parameter-parameter yang telah diestimasi dengan metode di atas kemudian akan diuji untuk melihat apakah suatu hipotesa bisa diterima atau tidak. Cara pengujian yang dapat dilakukan untuk menentukan baik atau buruknya model adalah dengan uji nilai t jika secara parsial, dan uji F jika secara simultan dan adjusted R2

4.9. Penyimpangan Asumsi Klasik dan Pemecahannya .

Dalam rangka menghasilkan model yang efisien, feasible, dan konsisten, maka perlu pendeteksian terhadap pelanggaran asumsi model yaitu gangguan antar waktu (time-related distrubance), gangguan antar individu (cross sectional distrubance) dan gangguan akibat keduanya. Pengestimasian terhadap model

tersebut hasilnya diharapkan memperoleh konstanta intercept yang berbeda-beda untuk masing-masing negara ASEAN di masing-masing tahun. Agar model yang digunakan dalam model ini feasible dan efektif, maka kita perlu melihat pelanggaran asumsi dasar yaitu:

4.9.1. Kolinearitas Jamak

Kolinearitas jamak adalah adanya hubungan linier yang signifikan antara beberapa atau semua variabel independen dalam model regresi. Kolinearitas jamak muncul jika di antara variabel independen memiliki korelasi yang tinggi sehingga kita sulit memisahkan efek satu variabel independen terhadap variabel dependen dari efek variabel independen yang lain.

1. Varians dan galat baku untuk koefisien regresi menjadi tinggi sehingga nilai t hitung menjadi lebih kecil dan sebagai akibatnya kita cenderung tidak dapat menolak hipotesa nol karena besarnya galat baku dugaan. Dengan t hitung yang mengecil menyebabkan signifikansi dari t menjadi turun.

2. Nilai koefisien regresi bukan nilai yang sebenarnya. Ada koefisien yang

overestimates dan ada koefisien yang underestimates.

Pelanggaran ini menjadi masalah jika tujuan melakukan regresi adalah untuk menafsirkan koefisien regresi. Indikasi adanya kolinearitas jamak:

1. Jika ditemukan nilai R2

2. Korelasi sederhana yang relatif tinggi (0.8 atau lebih) antara satu atau lebih pasang variabel independen. Jika koefisien korelasi kurang dari 0.8 berarti masalah tidak terlalu serius, belum terjadi kolinearitas berganda. Jika koefisien korelasi lebih 0.9 berarti kolinearitas berganda merupakan masalah serius.

yang tinggi dan nilai statistik F yang signifikan tetapi sebagian besar nilai statistik t tidak signifikan.

3. Regresi bantuan (Auxilary Regression), dengan cara meregresi masing-masing peubah bebas pada peubah bebas lainnya. Apabila nilai yang diperoleh R2

Pemecahan masalah kolinearitas jamak: (1) Mengurangi variabel independen dalam model, (2) Mengubah bentuk model, dan (3) Menambah data atau memilih sampel baru yang sesuai.

-nya tinggi maka ada indikasi kebergantungan linier yang hampir pasti di antara kolom-kolom X.

4.9.2. Heteroskedastisitas

Heteroskedastisitas terjadi jika error dalam persamaan regresi memiliki varians yang tidak konstan. Heteroskedastis tidak menyebabkan penduga parameter menjadi bias, tetapi menyebabkan penduga tersebut tidak efisien sehingga dapat menganggu pengujian hipotesis. Heteroskedastisitas biasanya muncul pada data cross section dan tidak terjadi pada data time series (deret waktu) karena perubahan dalam variabel dependen dan perubahan-perubahan dalam satu atau lebih variabel independen kemungkinan adalah sama besar.

Efek dari heteroskedastisitas adalah pendugaan kuadrat terkecil membobot lebih berat pada observasi yang memiliki varians galat lebih besar dibanding pada observasi yang memiliki varians galat lebih kecil. Hal ini terjadi karena jumlah residual kuadrat dari galat yang memiliki varians yang lebih besar kemungkinan adalah lebih besar dari pada jumlah residual kuadrat dari galat yang mempunyai varians yang lebih kecil. Karena pembobotan implisit ini, penduga-penduga parameter kuadrat terkecil biasa adalah tidak bias dan konsisten, tapi tidak efisien, yaitu varians dugaannya bukanlah varians minimum. Selain itu, varians dugaan

dari parameter-parameter dugaan adalah penduga-penduga yang bias dari varians yang sebenarnya.

Untuk menguji ada tidaknya heteroskedastisitas dalam penelitian ini dapat digunakan Uji Breusch-Pagandengan tahapan:

Model sederhana: , setelah melakukan estimasi dengan model di atas kita memperoleh Least Squares residual i. Selanjutnya kita hitung , dimana . Kemudian kita estimasi residual yang telah dinormalisasi dengan variabel X (semua variabel independen) sesuai model di atas, yaitu:

...(22)

Dari hasil estimasi tersebut diperoleh R2 dan ErrorSum of Squares (ESS) yang nantinya akan digunakan untuk memperoleh nilai Regression Sum of Squares (RSS). Dimana RSS = ESS/(1-R2). Selanjutnya 12 RSS mengikuti distribusi Chi-square. Jika 12 RSS < nilai kritis dari Chi-square, kita terima Ho yang menyatakan homokedastis (Pindyck, 1997)

Pemecahan masalah heteroskedastisitas adalah Weighted Least Square, yaitu membobotkan setiap variabel dengan varians yang tidak konstan. Tujuannya membuat varians jadi konstan. Selain itu, juga dapat dilakukan dengan mentransformasi model dalam bentuk logaritma natural.

4.9.3. Autokorelasi/Korelasi Serial

Salah satu asumsi dasar dari penerapan metode regresi dengan kuadrat terkecil adalah tidak adanya korelasi antar gangguan. Adanya masalah autokorelasi ini akan menghasilkan hasil estimasi koefisien yang konsisten dan tidak bias tetapi dengan varians yang besar, atau dengan perkataan lain hasil tidak efisien. Korelasi serial terjadi jika galat-galat dari observasi yang berbeda

berkorelasi, dengan kata lain terjadi korelasi galat antar waktu. Jika galat-galat dari periode-periode waktu yang berbeda (biasanya berdekatan) berkorelasi, dikatakan bahwa galat itu berkorelasi serial. Korelasi serial biasanya terjadi pada data time series.

Cara yang paling sering digunakan untuk mendeteksi adanya autokorelasi adalah Uji Durbin Watson (DW), meliputi perhitungan uji statistik yang didasarkan pada residual-residual dari prosedur regresi kuadrat terkecil biasa. Statistiknya didefinisikan sebagai:

...(23)

atau ………...…(24)

Dimana ρ adalah koefisien autokorelasi derajat pertama dari sampel yang nilainya 0 – 1. Jika ρ = 0, maka d = β, dan jika ρ = +1, maka terjadi autokorelasi sempurna sehingga diharapkan d berada disekitar 2. Uji DW ini hanya dapat digunakan untuk autokorelasi tingkat satu (first order autocorrelation) dan mensyaratkan adanya intersep dalam model regresi dan tidak ada variabel lag di antara variabel penjelas. Hipotesis yang akan diuji adalah:

Ho : ρ = 0 (tidak ada autokorelasi)

H1: ρ > 0 (ada autokorelasi)

Keputusan ada tidaknya autokorelasi adalah dengan melihat selang kepercayaan yang didapat dari hasil pengujian yang mencakup lima daerah yaitu :

1. Bila nilai kurang dari DW1 terjadi korelasi serial positif .

2. Bila nilai antara DW1 dan DWu tidak dapat ditentukan apakah ada atau tidak korelasi serial.

3. Bila nilai antara DW1 dan 4 – Dwu maka bebas korelasi serial.

4. Bila nilai antara 4 – DW1 dan 4 – Dwu maka tidak dapat ditentukan apakah ada korelasi serial.

5. Bila lebih dari 4 – DW1 Korelasi serial negatif.

Sementara koreksi terhadap korelasi serial dalam penelitian ini akan digunakan adalah Prosedur Hidreth-Lu. Prosedur ini menspesifikasikan nilai- nilai untuk ρ, yaitu nilai-nilai ruang yang mengakomodasi taksiran-taksiran nilai ρ, yaitu:

...(25)

Kemudian model awal ditransformasi dengan rumus:

...(26) Jadi, semua observasi ditransformasi. Untuk menghindari kehilangan observasi awal kita trransformasi dengan dan setelah itu diestimasi dengan panel data. Hasilnya DW meningkat dan tidak ada autokorelasi (Gujarati, 1995)

Dokumen terkait