• Tidak ada hasil yang ditemukan

BAB I NORMALITAS. Pengujian Normalitas

N/A
N/A
Protected

Academic year: 2022

Membagikan "BAB I NORMALITAS. Pengujian Normalitas"

Copied!
92
0
0

Teks penuh

(1)

BAB I

NORMALITAS

Pengujian Normalitas

Untuk penerapan OLS untuk regresi linier klasik, diasumsikan bahwa distribusi probabilitas dari gangguan u1 memiliki nilai rata-rata yang diharapkan sama dengan nol, tidak berkorelasi dan mempunyai varian yang konstan. Dengan asumsi ini OLS estimator atau penaksir akan memenuhi sifat-sifat statistik yang diinginkan seperti unbiased dan memiliki varian yang minimum.

Ada beberapa uji untuk mengetahui normal atau tidaknya faktor gangguan u2 antara lain Jargue-Bera test atau J-B test. Uji ini menggunakan hasil estiminasi residual dan chisguare probability distribution.

Adapun langkah-langkah untuk mendapatkan nilai J-B hitung adalah sebagai berikut :

(1)Hitung Skewness dan Kurtosis untuk menghitung J – B hitung (2)Hitung besarnya nilai J-B statistik

Dengan rumus:

Dimana: n = jumlah observasi

S = Skewness (Kemencengan) K = Kurtosis (Keruncingan)

(3) Bandingkan nilai J-B hitung dengan X 2 – tabel, dengan aturan :

Bila nilai J-B hitung > nilai X 2 tabel, maka hipotesis yang menyatakan bahwa residual u1 berdistribusi normal dapat ditolak.

Bila nilai J-B hitung < nilai X 2 – tabel, maka yang menyatakan bahwa residual u1 berditribusi normal tidak dapat ditolak.

Langkah – langkah pengerjaan :

(1) Fasilitas untuk menguji normality menggunakan J-B test disediakan oleh Eviews, caranya, pertama, dengan menampilkan hasil regresi yang akan kita uji

(2)Pilh menu Residual Test / Hisrogram - Normality test, dan akan ditampilkan diagram dengan perhitungan J – B statistiknya :

(2)

Diagram 1. Hasil Uji Normalitas : J – B Test

(3)

BAB II

MULTIKOLINEARITAS

A. PENGERTIAN

Multikolinearitas artinya terdapat korelasi yang signifikan di antara dua atau lebih variabel independent dalam model regresi.

B. CARA MENDETEKSI ADANYA MULTIKOLINEARITAS

a. R2 cukup tinggi (0,7 – 1,0) tetapi uji-tnya untuk masing- masing koefisien regresinya menunjukkan tidak

signifikan.

Misalnya : Y = 24.7747 + 0.9415 X2 – 0.0424 X3 + e Standar error (6.7525) (0.8229) (0.0807) Nilai t (3.6690) (1.1441) (-0.5261)

(4)

Adj. R2 = 0.9531 df = 7

Dari hasil regresi dapat dilihat bahwa 98 persen dari variasi peneluaran konsumsi dijelaskan oleh pendapatan dan harga barang lain secara bersama-sama. Apabila diuji secara individual, maka hasilnya adalah tidak signifikan tapi apabila diuji secara keseluruhan variabel independentnya maka hasilnya adalah signifikan. Juadi kemungkinan besar terdapat Multikolinearitas antara X1 dan X2.

b. Tingginya nilai R2 merupakan syarata yang cukup (sufficient) akan tetapi bukan merupakan syarat yang penting untuk terjadinya multikorelineartitas, sebab pada R2 yang rendah (<5%) bisa juga terjadi multikolinearitas.

c. Meregresikan variabel independent X dengan variabel independent variabel-variabel lain, kemudian dihitung R2- nya yaitu dengan uji F (uji signifikansi).

Jika F* adalah F hitung maka :

Jika F* > F tabel, artinya Ho ditolak; Ha diterima ada multikolinearitas Jika F* < F tabel, artinya Ho diterima; Ha diterima

tidak ada multikolinearitas

d. Menggunakan Matriks Korelasi (Correlation Matrix) Langkah-langkahnya adalah sebagai berikut :

1. Pastikan data sudah siap (berada pada kota group) 2. Klik Views, pilih Correlations seperti tampilan berikut :

Gambar 4.1 Tampilan Group untuk masuk ke Menu Correlation

(5)

Maka hasil yang didapat akan seperti tampilan berikut :

Gambar 4.2 Tampilan Correlation Matrix

C. PENANGGULANGAN TERHADAP MULTIKOLINEARITAS Cara menanggulangi multikolinearitas :

1. Menambah jumlah data / observasi Y = b1 + b2 X2 + b3 X3 + µ

Dimana : Y = konsumsi X2 = pendapatan

X3 = harga barang itu sendiri

Pendapatan dan harga barang itu sendiri merupakan dua variabel yang saling mempengaruhi sehingga mengakibatkan terjadinya Multikolinearitas. Penambahan data baru dapat menghilangkan Multikolinearitas yang tidak begitu serius.

2. Salah satu cara utnuk menghilangkan multikolinearitas adalah menghilangkan satu atau lebih variabel bebas yang mempunyai kolinearitas tinggi, yang setelah itu diuji dengan menggunakan Uji Wald.

Adapun langkah-langkahnya sebagai berikut :

1. Klik Views, lalu pilih Cefficient Test dan klik Wald – Coefficient Restrictions. Seperti tampilan berikut :

(6)

Gambar 4.3 Menu Uji Wald Restriction

2. Ketik salah satu koefisien dari variabel bebas yang ingin dihilangkan (yang paling tidak signifikan) seperti pada tampilan berikut :

Gambar 4.4 Tampilan Correlation Restriction

(7)

3. Hasil akan seperti tampilan berikut :

Gambar 4.5 Tampilan Layar Uji Wald

D. INTERPRETASI PENGUJIAN WALD TEST

Jika F statistik signifikan (probabilita < 0,05) maka penghilangan variabel bebas yang mengandung multikolinearitas akan mengubah interpretasi dari persamaan regresinya sehingga penghilangan variabel tersebut tidak diperbolehkan.

Dengan kata lain sekalipun variabel tersebut mengandung multikolinearitas namun memiliki pengaruh terhadap variabel dependentnya.

Jika F statistik tidak signifikan (probabilita > 0,05) maka penghilangan variabel yang mengandung multikolinearitas tidak akan mengubah interpretasi dari persamaan regresinya sehingga penghilangan variabel tersebut diperbolehkan.

Catatan : Perlu diperhatikan bahwa kadang-kadang menghilangkan satu atau lebih variabel independent dapat lebih jelek pengaruhnya dibandingkan dengan membiarkan adanya multikolinearitas dapat lebih jelek pengaruhnya dibandingkan dengan membiarkan adanya multikolinearitas kecuali jika variabel yang dhilangkan itu secara teoritis tidak berpengaruh.

Contoh soal : (soal dibawah ini akan terus digunakan untuk materi praktikum-praktikum selanjutnya)

(8)

Di bawah ini adalah mengenai Jumlah Uang Beredar (JUB)

Contoh Soal 1 JUB = f (RSBI, GDP)

JUB = α0 + β1RSBI + β2GDP + µ Keterangan :

JUB = Jumlah Uang Beredar (US$) RSBI = Tingkat Suku Bunga SBI (%) GDP = Gross Domestic Produsct (US$) Soal :

1. Lakukanlah pengujian multikolinearitas terhadap soal di atas.

2. Jika ada multikolinearitas, tanggunglangi dan interpretasikan hasilnya.

Jawaban Langkah 1 :

Masukkan data di atas Langkah 2 :

Lakukanlah regresi sesuai dengan model persamaan di atas Langkah 3 :

Lakukanlah pengujian multikolinearitas dengan menggunakan correlation matrix, sehingga hasilnya akan tampak seperti gambar di bawah ini :

(9)

Correlation Matrix

Lihat gambar

Korelasi antara RSBI dan GDP adalah sebesar 0,74 (lihat kembali teori di atas). Karena korelasi antar kedua variabel tersebut mendekati nilai 1 (1.0000), maka antara RSBI dan GDP terdapat multikonearitas yang kuat.

Catatan : multikolinearitas yang kuat terjadi jika korelasi antar dua atau lebih variabel lebih dari 0,70.

Langkah 4 :

Lakukanlah penanggulangan multikonearitas dengan menggunakan Wald test. (lihat teori penanggulangan).

Langkah 5 :

Interpretasi sesuai dengan hasil pengujian Wald Test.

Langkah 4 dan 5, lihat penjelasan asisten di depan kelas.

(10)

SOAL

Berdasarkan data di bawah ini, dimana JUB adalah jumlah uang beredar, G adalah pengeluaran pemerintah, dan Gdp adalah Gross Domestic Product.

obs JUB G GDP

1983 21469 585 75832 1984 18385 412 62665 1985 23417 766 86554 1986 28661 971 93638 1987 35885 1075 113718 1988 42998 1304 134105 1989 54704 1829 156851 1990 86470 2495 198597 1991 97105 2771 228450 1992 118053 3554 269884 1993 145303 3744 287976 1994 186514 4504 372221 1995 224368 4960 456381 1996 366534 5955 557659 1997 178120 2945 283782

Pertanyaan:

1. Regreslah JUB dengan G dan GDP 2. Uji ada atau tidak multikolinearitas 3. Atasilah jika terdapat multikolinearitas

(11)

BAB III

HETEROSKEDASTISITAS

A. PENGERTIAN

Salah satu asumsi penting dalam analisa regresi adalah variasi gangguan acak (µ) pada setiap variabel bebas adalah homoskedastisitas. Asumsi ini dapat ditulis sebagai berikut :

E (µi2) = δ 2 I = 1, 2, ………n

Ketidaksamaan inilah yang disebut sebagai heteroskedastisitas.

(12)

Hal tersebut dikarenakan beberapa hal, yaitu : 1. Error Learning Model

Sebagaimana adanya proses perbaikan yang dilakukan unit-unit ekonomi, maka perilaku kesalahan menjadi lebih kecil dengan bertambahnya waktu. Dalam hal ini diharapkan δ 2 menurun.

2. Perbaikan Dalam Pengumpulan Data

Dengan meningkatnya mutu tekhnik pengumpulan data, maka δ

2 diharapkan menurun. Jadi sebuah bank yang mempunyai peralatan pemrosesan data yang canggih cenderung melakukan kesalahan yang lebih sedikit pada laporan bulanan atau kuartalan dibandingkan bank tanpa fasilitas tersebut.

3. Kesalahan spesifikasi model

Salah satu asumsi dalam analisis regresi adalah model dispesifikasi secara benar. Jika satu variabel yang semestinya harus dimasukkan, tetapi karena suatu hal variabel tersebut tidak dimasukkan, hal itu akan menyebabkan residual dari regresi akan memberikan hasil yang berbeda dengan benar dan varians dari kesalahan tidak konstan.

B. PENDETEKSIAN HETEROSKEDASTISITAS a. Uji Park

Uji ini mengasumsikan bahwa δi 2 adalah fungsi dari variabel bebas Xi. Fungsi yang dianjurkan adalah :

δi 2 = δ 2 Xi β e vi atau 1n δi2 = δ2 β 1n Xi + vi

Karena δ 2 tidak diketahui, Park mengasumsikan agar µi2

digunakan sebagai proxy, dan dilakukan regresi : 1n µi 2 = 1n δ 2 + β 1n Xi + vi

(13)

= α +β 1n Xi + vi

Jika β signifikan, maka ada heteroskedasitas dalam data sebab hipotesis pengujian heteroskedasitas adalah :

H0 : Tidak ada heteroskedastisitas Ha : Ada heteroskedastisitas

Contoh:

Berikut adalah data hipotetis tentang Pengeluaran Konsumsi (Y) dalam Juta Rp dan Pendapatan (X) dalam juta Rp pertahun pada 30 responden di DKI Jakarta (Sudah di rangking dari yang terkecil ke yang terbesar):

No Y X

1 55 80

2 70 85

3 75 90

4 65 100

5 74 105

6 80 110

7 84 115

8 79 120

9 90 125

10 98 130

11 95 140

12 108 145

13 113 150

14 110 160

15 125 165

16 115 180

17 130 185

18 135 190

19 120 200

20 140 205

21 144 210

22 152 220

23 140 225

24 137 230

25 145 240

26 175 245

27 189 250

28 180 260

(14)

29 178 265

30 191 270

Print out berikut adalah hasil regresi OLS dengan model Y = f (X,e)

Dependent Variable: Y Method: Least Squares Date: 06/07/01 Time: 09:00 Sample: 1 30

Included observations: 30

Variable Coefficient Std. Error t-Statistic Prob.

C 9.290307 5.231386 1.775879 0.0866 X 0.637785 0.028617 22.28718 0.0000 R-squared 0.946638 Mean dependent var 119.7333 Adjusted R-squared 0.944732 S.D. dependent var 39.06134 S.E. of regression 9.182968 Akaike info criterion 7.336918 Sum squared resid 2361.153 Schwarz criterion 7.430332 Log likelihood -108.0538 F-statistic 496.7183 Durbin-Watson stat 1.590347 Prob(F-statistic) 0.000000

Berdasarkan print-out tersebut dapat dihitung nilai residual (µI) untuk kemudian di kuadratkan dan di Ln kan. Caranya sebagai berikut:

a. Pada tampilan hasil regresi, klik View lalu pilih make residual series dan ketik Residual dan kilk OK seperti tampilan berikut ini:

(15)

Gambar 8.1. Tampilan Make Residual

Dari residual tersebut dapat dihitung residual kuadrat (µi2) lalu di Ln kan dengan menggunakan Generate pada workfile yaitu:

RES2=RESIDUAL^2 LNRES2=LOG(RES2)

LNX=LOG(X)

Gambar 8.2. Hasil Uji Park

Dengan meregres model : LNRES2 = f (LNX) maka diperoleh hasil seperti Gambar 2.2.

Dari hasil print out tersebut terlihat bahwa koefisien LNX memiliki probabilitas 0.8154 (tidak signifikan pada α = 5%), hal ini berarti bahwa tidak ada heteroskedastisitas pada model tersebut.

Note: Pada uji Park ini, jika variabel bebasnya lebih dari 1 maka diregres secara terpisah, dengan demikian dapat diketahui variabel mana yang menyebabkan adanya heteroskedastisitas

(16)

b. Goldfeld-Quant Test

Langkah-langkah pengujiannya adalah sebagai berikut :

1. Urutkanlah dari variabel bebas X dari yang terkecil yang terbesar

2. Kemudian buat dua regresi secara terpisah, pertama untuk nilai X yang terkecil. Kedua untuk nilai X besar dan hilangkan beberapa data yang ada ditengah.

3. Buatlah rasio RSS (Residual Sum of Square = error sum if square) dari regresi kedua terhadap regresi pertama (RSS2/RSS1) untuk mendapatkan nilai F hitung.

4. Lakukan uji F dengan menggunakan derajat kebebasan (degree of freedom) sebesar (n-d-2k)/2, dimana

n = banyaknya observasi,

d = banyaknya data atau nilai observasi yang hilang k = banyaknya parameter yang diperkirakan.

Kriteria uji F jika :

F hitung > F tabel, maka ada heteroskedasitas

F hitung < F tabel, maka tidak ada heteroskedasitas

Uji Goldfeld-Quant ini sangat tepat untuk sampel besar ( n > 30).

Seandainya tidak ada data yang dibuang (d = 0) tes masih berlaku tetapi kemampuan untuk mendeteksi adanya heteroskedasitas agak berkurang.

Contoh:

40%

Nilai Terkecil 15%-20%

Dihilangkan 40%

Nilai terbesar

(17)

Dengan data yang sama pada uji Park di atas, maka dibuang 20% nilai tengah dari total observasi (6 observasi), yaitu observasi ke 13 s/d observasi ke 18. Kita dapat meregres dua kelompok data yaitu kelompok I (obs ke 1 s/d obs ke 12) dan kelompok II (obs ke 19 s/d obs ke 30). Hasil regresinya adalah sebagai berikut:

Dependent Variable: Y Method: Least Squares

Date: 06/07/01 Time: 09:01 Sample: 1 12

Included observations: 12

Variable Coefficien

t Std. Error t-Statistic Prob.

C 7.41214

2 9.53586

6 0.777291 0.4550

X 0.65728

9 0.08373

6 7.849565 0.0000

R-squared 0.86036

6 Mean dependent

var 81.08333

Adjusted R-squared 0.84640

2 S.D. dependent var 14.91466 S.E. of regression 5.84528

3 Akaike info

criterion 6.520159

Sum squared resid 341.673

4 Schwarz criterion 6.600977 Log likelihood -37.1209

5 F-statistic 61.61567 Durbin-Watson stat 2.31711

6 Prob(F-statistic) 0.000014 Hasil Regresi kelompok I dengan RSS1 = 341.6734

Dependent Variable: Y Method: Least Squares

Date: 06/07/01 Time: 09:03 Sample: 19 30

(18)

Included observations: 12

Variable Coefficient Std. Error t-Statistic Prob.

C -49.74731 34.56614 -1.43919

2 0.1807 X 0.882258 0.146407 6.02607

7 0.0001 R-squared 0.784081 Mean dependent var 157.583 3 Adjusted R-squared 0.762489 S.D. dependent var 23.6545 5 S.E. of regression 11.52807 Akaike info criterion 7.87845 9 Sum squared resid 1328.965 Schwarz criterion 7.95927 7 Log likelihood -45.27076 F-statistic 36.3136 1 Durbin-Watson stat 1.315331 Prob(F-statistic) 0.00012 8 Hasil regresi kelompok II dengan RSS2 = 1328.965

F-stat = RSS2/RSS1 = 1328.965/341.6734

= 3.8896

F-tabel (α= 5%, df = {30 – 6 – 2(2)}/2 = 10)

= 2.98

F-stat > F-tabel ⇒ ada heteroskedastisitas Jika digunakan (α= 1%) maka

F-tabel (α= 1%, df = {30 – 6 – 2(2)}/2 = 10) = 4.85

F-stat < F-tabel ⇒ tidak ada heteroskedastisitas

c. Uji White

Hasil uji park bisa berbeda dengan uji Golfeld and Quant. Jika terjadi keraguan maka sebaiknya digunakan uji white yang pada prinsipnya meregres residual yang dikuadratkan dengan variabel bebas pada model.

(19)

Jika modelnya : Y = f(X,e) Maka model White-test nya adalah : µ2 = f(X, X2, e) Jika modelnya : Y = f(X1,X2, e)

Maka model White test mempunyai dua kemungkinan yaitu:

Model no cross term : µ2 = f(X1, X2, X12,X22 , e) Model cross term : µ2 = f(X1, X2, X12,X22

, X1X2, e)

Kriteria uji White adalah jika :

Obs* R square > χ2 tabel, maka ada heteroskedasitas

Obs* R square < χ2 tabel, maka tidak ada heteroskedasitas atau

Prob Obs* R square < 0.05, maka ada heteroskedasitas

Prob Obs* R square > 0.05, maka tidak ada heteroskedastisitas

Langkah-langkah pengujian White Test :

1. Lakukan estimasi fungsi regresi terlebih dahulu, menspesifikasikan variabel bebas dan variabel tidak bebas.

2. Klik View, Residual Test, White Heteroskedasticity (Cross term or no Cross term), seperti pada gambar berikut :

Gambar 2.3. Tampilan Layar Menu Uji White

Contoh:

(20)

Dengan data yang sama pada uji park dan goldfeld and quant, berikut ditampilkan hasi uji white:

White Heteroskedasticity Test:

F-statistic 2.917301 Probability 0.071274 Obs*R-squared 5.330902 Probability 0.069568 Test Equation:

Dependent Variable: RESID^2 Method: Least Squares

Date: 03/05/04 Time: 09:38 Sample: 1 30

Included observations: 30

Variable Coefficient Std. Error t-Statistic Prob.

C -12.29621 191.7731 -0.064119 0.9493 X 0.197385 2.368760 0.083329 0.9342 X^2 0.001700 0.006707 0.253503 0.8018 R-squared 0.177697 Mean dependent var 78.70511 Adjusted R-squared 0.116785 S.D. dependent var 112.5823 S.E. of regression 105.8043 Akaike info criterion 12.25570 Sum squared resid 302252.7 Schwarz criterion 12.39582 Log likelihood -180.8355 F-statistic 2.917301 Durbin-Watson stat 1.856573 Prob(F-statistic) 0.071274

Obs* R- square = 5.331

χ2 tabel dengan (α= 5%,df = 2) = 5.990

Obs* R square < χ2 tabel, maka tidak ada heteroskedasitas atau

Prob Obs* R square = 0.0695

Prob Obs* R square > 0.05,maka tidak ada heteroskedastisitas

Note: df pada χ2 tabel adalah jumlah variabel bebas (regresors) pada regresi model White-test kecuali konstanta.

C. PENANGGULANGAN TERHADAP HETEROSKEDASTISITAS 1. Transformasi Logaritma Natural

Jika model berikut ini mengandung heteroskedastisitas : Y = α + α + u

(21)

Lakukanlah tranformasi seperti model logaritma di bawah ini : LnYi = βi + β2 LnXi

Transformasi dalam bentuk logaritma akan memperkecil skala dari observasi dan kemungkinan besar varians juga akan semakin mengecil dan ada kemungkinan homoskedastisitas terpenuhi.

2. Transformasi Dengan Membagi Persamaan Dengan Variabel Bebas

Jika model regresi yang telah diuji terdapat heteroskedastisitas maka salah satu penanggulangannya dapat dilakukan dengan membagi persamaan regresi tersebut dengan variabel bebas (independen) yang mengandung heteroskedastisitas. Variabel bebas (independen) yang mengandung heteroskedastisitas tersebut diperoleh dari pengujian White-Test.

Yi = α1 + α2Xi + ui

E (uiXi) ≠ 0 dan E (ui2) ≠δu2

Jika diasumsikan (ui2) = δ2 ≠ 0 maka dengan mentransformasikan model regresi tersebut diperoleh model regresi baru sebagai berikut :

Yi / Xi = bo / Xi + b1 + ui/Xi

Dimana : Var (ui/Xi)2 = 1/Xi2 var (ui)2 = 1/Xi2 δ2 Xi2 = δ2 Homoskedastisitas

Maka kesalahan penggangu menjadi homoskedastisitas. Dengan demikian koefisien regresi dari model baru didapat dengan menggunakan OLS tersebut menjadi unbiased, consistent dan efficient.

(22)

Soal latihan:

Berikut adalah data Biaya R & D, Sales dan Profit pada 18 kelompok Industri sebuah negara pada tahun 2000 (dalam Juta US$)

No Industri Sales R & D Profit

1 Kontainer dan Pengepakan 6,375

.3 62.

5 185.

1

2 LKBB 11,62

6.4 92.

9 1,569 .5 3 Industri Jasa 14,65

5.1 178.

3 276.

8 4 Baja dan Tambang 21,86

9.2 258.

4 2,828 .1 5 Perumahan dan Konstruksi 26,40

8.3 494.

7 225.

9 6 Perdagangan umum 32,40

5.6 1,083

.0 3,751 .9 7 Industri waktu luang 35,10

7.7 1,620

.6 2,884 .1 8 Produksi Kertas dan Kayu 40,29

5.4 421.

7 4,645 .7

9 Makanan 70,76

1.6 509.

2 5,036 .4

10 Rumah Sakit 80,55

2.8 6,620

.1 13,869 .9 11 Pesawat terbang 95,29

4.0 3,918

.6 4,487 .8 12 Produk Pelanggan 101,31

4.1 1,595

.3 10,278 .9 13 Elektronik dan listrik 116,14

1.3 6,107

.5 8,787 .3

14 Kimia 122,31

5.7 4,454

.1 16,438 .8

15 Konglomerat 141,64

9.9 3,163

.8 9,761 .4 16 Perlengkapan Kantor dan

komputer 175,02

5.8 13,210

.7 19,774 .5

(23)

17 Minyak 230,61

4.5 1,703

.8 22,626 .6

18 Automotif 293,54

3.0 9,528

.2 18,415 .4

a. Lakukanlah regresi terhadap R & D = f(Sales, Profit,e)

b. Ujilah apakah ada penyakit heteroskedastisitas dengan Park Test sbb:

Ln µi 2 = α +β 1n Sales + e1 dan Ln µi 2 = α +β 1n Profit + e2

c. Lakukanlah Uji White dengan metode cross term

b. Jika ada penyakit heteroskedastisitas sembuhkanlah dengan Transformasi logaritma atau membagi dengan variabel yang menyebabkan terjadinya heteroskedastisitas.

c. Interpretasikanlah hasil yang sudah disembuhkan.

(24)

BAB IV

AUTOKORELASI

A. PENGERTIAN

Yaitu suatu keadaan dimana kesalahan pengganguan dari periode tertentu (µt) berkorelasi dengan kesalahan pengganggu dari periode sebelumnya (µt-1). Pada kondisi ini kesalahan pengganggu tidak bebas tetapi satu sama lain saling berhubungan. Bila kesalahan pengganggu periode t dengan t-1 berkorelasi maka terjadi kasus korelasi serial sederhana tingkat pertama (first order autocorrelation).

B. PENGARUH ADANYA AUTOKORELASI

Dengan adanya autokorelasi dengan dugaan parameter OLS masih

“UNBIASED” Dan “CONSISTENT” tetapi standar error dari dugaan parameter regresi adalah bias, sehingga mengakibatkan uji statistik menjadi tidak tepat dan interval kepercayaan menjadi bias (biased confidence intervals).

C. PENGUJIAN TERHADAP ADANYA AUTOKORELASI 1. UJI DURBIN – WATSON

Langkah-langkah pengujian autokorelasi dengan Durbin – Watson a. Tentukan hipotesis Null dan Hipotesis alternatif dengan

ketentuan

Ho : Tidak ada autokorelasi (positif/negatif) Ha : ada autokorelasi (positif/negatif)

b. Estimasi model dengan OLS dan hitung nilai residualnya

(25)

ut = Yt - βo - β1X1 - β2X2 - βkXk - ….. - βkXk

c. Hitung Durbin – Watson dengan rumus sebagai berikut :

Dimana: t = periode

n = jumlah observasi ut = Residual periode t ut-1 = residual periode t-1

d. Hitung Durbin Watson kritis yang terdiri dari nilai kritis dari batas atas (du) dan batas bawah (dl) dengan menggunakan jumlah data (n), jumlah variabel independen / bebas (k) serta tingkat signifikansi tertentu (α).

e. Nilai DW hitung dibandingkan dengan DW kritis dengan kriteria penerimaan dan penolakan hipotesis sebagai berikut :

HIPOTESIS NOL KEPUTUSAN KRITERIA

Ada auto korelasi positif Tolak 0 < d < dl Tidak ada auto korelasi

positif

Tidak ada

keputusan

dl < d < du Ada auto korelasi negatif Tolak 4-dl < d < 4 Tidak ada auto korelasi

negatif

Tidak ada

keputusan

4-du < d <

4-dl

Tidak ada auto korelasi Jangan tolak du < d < 4- du

Dari penjelasan di atas dapat dilihat pada gambar di bawah ini :

(26)

2. UJI LANGRANGE MULTIPLIER (LM TEST) Langkah-Langkah Pengujian :

a. Estimasi persamaan model dengan OLS

b. Klik View, Residual Test, serial correlation LM Test, sehingga akan muncul hasil print-out seperti ini :

Gambar 3.1 Tampilan Layar menu LM Test

c. Kemudian untuk Lags to include, ketik 1, seperti gambar di bawah ini :

(27)

Gambar 3.2 Tampilan Layar menu LM Test (LAGS)

d. Lihat hasil print-outnya, dimana :

# Jika R2 (T-1) > X2 atau probabilitas R2 (T-1) < 0.05, maka ada autokorelasi

# Jika R2 (T-1) < X2 atau probabilitas R2 (T-1) > 0.05, maka tidak ada autokorelasi

D. PENANGGULANGAN TERHADAP AUTOKORELASI

Dengan menggunakan “COCHRANE – ORCUTT PROCEDURE”

1. Buat estimasi persamaan regresi awal dan hitung residualnya (ut) Yt = βo + β1X1t + β2X2 + ut

2. Buat estimasi persamaan regresi untuk periode t-1

Y t-1 = βo + β1X1 t-1 + β2X2 t-1 + ut

3. Buat estimasi persamaan koefisien dari serial korelasi (FIRST DIFFERENCE EQUATION) dengan cara :

Y t = βo + β1X1 t + β2X2 t + ut ………..1)

(Y t-1 = βo + β1X1 t-1 + β2X2 t-1 + ut-1) ρ koefisien autokorelasi ρY t-1 = βoρ + ρβ1X1 t-1 + ρβ2X2 t-1 + ut-1ρ ………2)

Y t = βo + β1X1 t + β2X2 t + ut

ρY t-1 = βoρ + ρβ1X1 t-1 + ρβ2X2 t-1 + ut-1ρ

Y t - ρY t-1 = βo - βoρ + β1X1 t - ρβ1X1 t-1 + β2X2 t + ρβ2X2 t-1 + ut - ut–1ρ Y t - ρY t-1 = (1-ρ) βo + β1(X1 t - ρX1 t-1) + β2 (X2 t - ρX2 t-1)+ (ut - ut–1ρ) Dimana : Yt* = Yt - ρYt-1

βo* = (1-ρ) βo X 1t* = (X 1t - ρ X1t-1)

(28)

X 2t* = (X 2t - ρ X2t-1) ut* = (ut - ut-1ρ)

4. Buat estimasi nilai ρ melalui estimasi fungsi residual ut = ρut-1

+v, ut adalah residual, pada hasil estimasi ρ = coefficient resid (1)

5. Lakukan generate setiap variabel dimana Y21 = Yt – Y (-1) *ρ

X22 = X1t – X (-1) *ρ X23 = X2t – X (-1) *ρ

Catatan : untuk ρ langsung masukkan angkanya (lihat langkah (4))

6. Lalu lakukan regresi untuk perbaikan autokorelasi dengan MAKE EQUATION

Y2,1 C X2,2 X2,3

Contoh Soal Autokorelasi

Soal yang digunakan adalah contoh soal 1 (praktikum I) Instruksi :

1. Lakukanlah pengujian autokorelasi dengan menggunakan : a. LM-Test

b. Durbin-Watson Test

2. Lakukanlah penanggulangan autokorelasi

3. Interpretasikanlah model yang telah ditanggulangi Jawaban

1. Pengujian Autokorelasi dengan menggunakan LM-Test Langkah 1 :

Masukanlah data pada Contoh soal 1 (praktikum 1) Langkah 2 :

Regresikanlah model tersebut Langkah 3 :

Lakukanlah uji LM-Test (Lihat prosedur pengujian LM-Test), sehingga muncul hasil regresi di halaman berikut :

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 15.25434 Probability 0.00245 2 Obs*R-squared 8.715324 Probability 0.00315

(29)

5 Test Equation:

Dependent Variable: RESID Method: Least Squares

Date: 03/16/01 Time: 13:27 Variable Coefficien

t Std. Error t-Statistic Prob.

RSBI 0.894039 0.789838 1.131926 0.2817 GDP -0.030313 0.051350 -0.590318 0.5669 C 1375.418 9666.484 0.142287 0.8894 RESID(-1) -1.010293 0.258673 -3.905680 0.0025 R-squared 0.581022 Mean dependent var -6.79E- 12 Adjusted R-squared 0.466755 S.D. dependent var 26403.5 3 S.E. of regression 19280.82 Akaike info criterion 22.7947 9 Sum squared resid 4.09E+09 Schwarz criterion 22.9836 0 Log likelihood -166.9609 F-statistic 5.08477 9 Durbin-Watson stat 1.825773 Prob(F-statistic) 0.01893 1 HASIL REGRESI LM-TEST

Lihatlah hasil regresi di atas :

Probabilita Obs* R-Squared = 0.003155 lebih kecil daripada α (5%), maka terdapat autokorelasi. Atau untuk pengujian dapat juga membandingkan Obs* R-Squared dengan tabel Chi-Squared.

Untuk soal no. 2 dan 3 perhatikan pembahasan asisten di depan kelas.

Tugas / Quiz 2 Soal 1.

Perhatikanlah data dibawah ini :

Data Impor, GDP, CPI suatu Negara, tahun 1970 -1998

Tahun IMPOR CPI GDP Tahun IMPOR CPI GDP

1970 39,866.0 38.8 1,039.7 1985 338,088.

0 107.6 4,213.0 1971 45,579.0 40.5 1,128.6 1986 368,425.

0 109.6 4,452.9 1972 55,797.0 41.8 1,240.4 1987 409,765. 113.6 4,742.5

(30)

0 1973 70,499.0 44.4 1,385.5 1988 447,189.

0 118.3 5,108.3 1974 103,811.0 49.3 1,501.0 1989 477,365.

0 124.0 5,489.1 1975 98,185.0 53.8 1,635.2 1990 498,337.

0 130.7 5,803.2 1976 124,228.0 56.9 1,823.9 1991 490,981.

0 136.2 5,986.2 1977 151,907.0 60.6 2,031.4 1992 536,458.

0 140.3 6,318.9 1978 176,002.0 65.2 2,295.9 1993 589,441.

0 144.5 6,642.3 1979 212,007.0 72.6 2,566.4 1994 668,590.

0 148.2 7,054.3 1980 249,750.0 82.4 2,795.0 1995 749,574.

0 152.4 7,400.5 1981 265,067.0 90.9 3,131.3 1996 803,327.

0 156.9 7,813.2 1982 247,642.0 96.5 3,259.2 1997 876,366.

0 160.5 8,300.8 1983 268,901.0 99.6 3,534.9 1998 917,178.

0 163.0 8,759.9 1984 332,418.0 103.9 3,932.7

Ln Impor = f (LnCPIt , LnGDP) Pertanyaan :

1. Regresikanlah model di atas

2. Lakukanlah pengujian Multikolinearitas

3. Jika ada multikolinearitas apakah kita dapat membuang variabel yang menyebabkan multikolineritas tersebut ?

Soal 2.

Data Peggunaan BBM pada Mobil Angkutan Kota

No Obs PBBM KEC TK BK

1 39.6 100 66 22.5

2 39.3 103 73 22.5

3 38.9 106 78 22.5

4 38.8 113 92 22.5

5 38.2 106 78 22.5

6 42.2 109 90 25

7 40.9 110 92 25

8 40.7 101 74 25

(31)

9 40 111 95 25

10 39.3 105 81 25

11 38.8 111 95 25

12 38.4 110 92 25

13 38.4 110 92 25

14 38.4 110 92 25

15 46.9 90 52 27.5

16 36.3 112 103 27.5

17 36.1 103 84 27.5

18 36.1 103 84 27.5

19 35.4 111 102 27.5

20 35.3 111 102 27.5

21 35.1 102 81 27.5

22 35.1 106 90 27.5

23 35 106 90 27.5

24 33.2 109 102 30

25 32.9 109 102 30

26 32.3 120 130 30

27 32.2 106 95 30

28 32.2 106 95 30

29 32.2 109 102 30

30 32.2 106 95 30

Ket: PBBM = rata-rata mil/galon

KEC = rata-rata kecepatan (Mil/jam) TK = tenaga kuda kendaraan BK = berat kendaraan (ratus pound)

Pertanyaan:

a. Lakukan regresi terhadap PBBM = f(KEC, TK, BK, e)

b. Lakukan pengujian heteroskedastisitas dengan Park Test, Golfeld and Quant Test dan White-test.

c. Tanggulangilah penyakit tersebut dengan metode yang anda ketahui.

d. Interpretasikanlah hasil regresi yang sudah bebas dari heteroskedastisitas.

Soal 3.

Data Faktor-Faktor Yang Mempengaruhi Harga Timah

YEAR HT IHP HTL JPR HA

1973 21.89 45.10 220.40 1,491.00 19.00 1974 22.29 50.90 259.50 1,504.00 19.41 1975 19.63 53.30 256.30 1,438.00 20.93 1976 22.85 53.60 249.30 1,551.00 21.78 1977 33.77 54.60 352.30 1,646.00 23.68 1978 39.18 61.10 329.10 1,349.00 26.01 1979 30.58 61.90 219.60 1,224.00 27.52 1980 26.30 57.90 234.80 1,382.00 26.89

(32)

1981 30.70 64.80 237.40 1,553.70 26.85 1982 32.10 66.20 245.80 1,296.10 27.23 1983 30.00 66.70 229.20 1,365.00 25.46 1984 30.80 72.20 233.90 1,492.50 23.88 1985 30.80 76.50 234.20 1,634.90 22.62 1986 32.60 81.70 347.00 1,561.00 23.72 1987 35.40 89.80 468.10 1,509.70 24.50 1988 36.60 97.80 555.00 1,195.80 24.50 1989 38.60 100.00 418.00 1,321.90 24.98 1990 42.20 106.30 525.20 1,545.40 25.58 1991 47.90 111.10 620.70 1,499.50 27.18 1992 58.20 107.80 588.60 1,469.00 28.72 1993 52.00 109.60 444.40 2,084.50 29.00 1994 51.20 119.70 427.80 2,378.50 26.67 1995 59.50 129.80 727.10 2,057.50 25.33 1996 77.30 129.30 877.60 1,352.50 34.06 1997 64.20 117.80 556.60 1,171.40 39.79 1998 69.60 129.80 780.60 1,547.60 44.49 1999 66.80 137.10 750.70 1,989.80 51.23 2000 66.50 145.20 709.80 2,023.30 54.42 2001 98.30 152.50 935.70 1,749.20 61.01 2002 101.40 147.10 940.90 1,298.50 70.87

Ket: HT = Harga Timah (cent/pound) IHP = Indeks Harga

Produksi

HTL = Harga Timah di London (Poundsterling) JPR = Jumlah Pembangunan Rumah/th

HA = Harga Alumunium (cent/pound)

Pertanyaan:

a. Regresilah model LnHT = f (LnIHP, LnHTL, LnJPR, LnHA, e) dengan terlebih dahulu merubah data dalam bentuk Ln

b. Apakah ada penyakit autokorelasi ? (Gunakan D-W test dan LM – Test)

c. Jika ada, maka sembuhkan penyakit tersebut dengan terlebih dahulu menghitung koefisien ρ- nya.

Kerjakanlah soal-soal di atas pada kertas HVS, sertakan pula hasil print-out anda. Kumpulkanlah minggu depan pada praktikum IV!

BAB V

PERSAMAAN SIMULTAN

(33)

A. Pengertian

 Suatu himpunan persamaan dimana variabel dependen dalam satu atau lebih persamaan juga merupakan variabel independen dalam beberapa persamaan yang lain.

 Suatu model yang mempunyai hubungan sebab akibat antara variabel dependen dan variabel independennya, sehingga suatu variabel dapat dinyatakan sebagai variabel dependen maupun independen dalam persamaan yang lain.

Misalnya:

1. X = f (Y) tetapi Y = f (X) Qt = f (P) tetapi P = f (Qt) 2. Jumlah uang beredar M = a0 + b1 Y1 + u1

Y1 = b0 + b1M1 + b2I2 + u1

3. Fungsi demand : Q = b0 + b1P1 + b2P2+ b3Y1+ u1

Fungsi produksi : P = b0 + b1Q1 + b2W2 + v1

Variabel dalam persamaan simultan:

Variabel endogen/ endogenous variable : variabel dependen pada persamaan simultan (jumlahnya sama dengan jumlah persamaan dalam model simultan).

Variabel yang sudah diketahui nilainya/ predetermined variable : variabel ini diperlakukan sebagai variabel yang nir stokastik yang nilai-nilainya sudah tertentu atau sudah ditentukan.

Predetermined variable dibedakan menjadi dua, yaitu:

- Variabel eksogen : - Variabel eksogen sekarang  Xt , Pt

- Variabel eksogen waktu lampau  Xt-1, Pt-1

(34)

- Variabel endogen waktu lampau (lagged endogenous variabel)

 Yt-1, Qt-1

Dapatkah OLS digunakan untuk menaksir koefisien dalam persamaan simultan?

 Tidak dapat, jika OLS tersebut digunakan untuk meregres masing-masing persamaan secara sendiri-sendiri. Karena asumsi dari OLS adalah nir-stokastik atau jika stokastik, dianggap tidak tergantung pada variabel residual yang stokastik. Jika hanya dilakukan regresi pada salah satu model regresi, maka persamaan tunggal tersebut tidak dapat diperlakukan sebagai sebuah model yang lengkap.

 Dapat diterapkan, jika model persamaan tersebut sudah diubah dalam bentuk reduce form, yaitu dengan memasukkan salah satu persamaan pada persamaan yang lain.

B. Masalah Identifikasi dalam Persamaan Simultan

Masalah identifikasi sering dijumpai pada model ekonometri yang lebih dari satu persamaan. Untuk memecahkan masalah ini harus dilakukan pengujian atau persyaratan agar diketahui koefisien persamaan mana yang ditaksir. Persyaratan ini disebut Kondisi Identifikasi (condition og identification).

Ada dua macam dalil pengujian identifikasi, yaitu Order condition dan Rank condition. Notasi yang dipergunakan adalah:

M = jumlah variabel endogen dalam model m = jumlah variabel endogen dalam persamaan K = Jumlah variabel predetermined dalam model k = Jumlah variabel predetermined dalam persamaan

(35)

1. Order Conditions

Syarat identifikasi suatu persamaan struktural:

Pada persamaan simultan sejumlah M persamaan (yang tidak mempunyai predetermined variable)

M - 1 ≥ 1

Jika M-1 = 1, maka persamaan tersebut identified.

Jika M-1 > 1, maka persamaan tersebut overidentified.

Jika M-1 < 1, maka persamaan tersebut unidentified.

Contoh: Fungsi Demand Qt = α0 + α1Pt + u1t

Fungsi Supply Qt = β0 + β1Pt + u2t

Pada model ini Pt dan Qt merupakan variable endogen tanpa predetermined variable, agar identified maka M-1 = 1, jika tidak maka tidak identified.

Pada kasus ini (M = 2) dan 2 – 1 = 1 ⇒ identified

Pada persamaan yang memiliki predermined variable berlaku aturan:

K – k ≥ m –1

Jika K – k = m –1, maka persamaan tersebut identified . Jika K – k > m –1, maka persamaan tersebut overidentified .

Jika K – k < m –1, maka persamaan tersebut unidentified .

(36)

Contoh: Fungsi Demand Qt = α0 + α1Pt + α2 It + u1t-

………(1)

Fungsi Supply Qt = β0 + β1Pt + u2t………

……… (2)

Pada model ini Pt dan Qt merupakan variable endogen dan It adalah predetermined variable.

Persamaan (1) : K – k < m – 1 atau 1 – 1 < 2 – 1 ⇒ Unidentified

Persamaan (2) : M – 1 = 1 atau 2 – 1 = 1 ⇒ Indentified

Catatan

Persamaan yang dapat diselesaikan dengan sistem persamaan simultan adalah persamaan yang identified dan over identified.

2. Rank Conditions.

Suatu persamaan yang mempunyai M persamaan dikatakan identified, sekurang-kurangnya mempunyai satu determinan berdimensi (M-1) yang tidak sama dengan nol.

Kesimpulan :

Jika K – k = m –1, dan rank dari matriks A adalah (M-1), maka persamaan tersebut exactly identified .

Jika K – k > m –1, dan rank dari matriks A adalah (M-1), maka persamaan tersebut overidentified .

Jika K – k ≥ m –1, dan rank dari matriks A adalah kurang dari (M-1), maka persamaan tersebut underidentified .

Jika K – k < m –1, dan rank dari matriks A adalah kurang dari (M-1), maka persamaan tersebut unidentified.

(37)

C. Metode Persamaan Simultan

Indirect Least Squares (ILS)

Metode ILS dilakukan dengan cara menerapkan metode OLS pada persamaan reduced form.

Asumsi yang harus dipenuhi dalam penggunaan prosedur ILS:

1. Persamaan strukturalnya harus exactly identified.

2. Variabel residual dari persamaan reduced form-nya harus memenuhi semua asumsi stokastik dari teknik OLS. Jika asumsi ini tidak terpenuhi, maka akan menyebabkan bias pada penaksiran koefisiennya.

Contoh:

Diketahui suatu model persamaan simultan adalah sebagai berikut : Qd= α0 + α1 P+ α2 X + v

Qs= β0 + β1 P + β2 Pl + u Dimana:

Qd = Jumlah barang yang diminta Qs = Jumlah barang yang ditawarkan P = harga barang

X = Income Pl = harga Input

Persamaan reduce form-nya adalah sebagai berikut : P= Π0 + Π1 X + Π 2 Pl +Ω1

Q= Π 3 + Π 4 X + Π 5 Pl +Φ2

Persamaan Reduce Form dapat dicari dengan langkah sebagai berikut:

 Selesaikan persamaan Qd = Qs

α0 + α1 P+ α2 X + v = β0 + β1 P + β2 Pl + u

(38)

α1 P - β1 P = β0 - α0 - α2 X + β2 Pl + u - v

P = 



− + −



 + −





− −





1 1 1

1 2 1

1 2 1

1 0 0

β α β

α β β

α α β

α α

β u v

Pl X

P = ∏0 +∏1 X +∏3 Pl+Ω

 Kemudian substitusikan persamaan P diatas dengan salah satu persamaan Q, misalnya dengan Qd

Qd = α0 + α1 P+ α2 X + v

Qd = α0 + α1 



− + −



 + −





− −





1 1 1

1 2 1

1 2 1

1 0 0

β α β

α β β

α α β

α α

β u v

Pl

X + α2 X + v

Qd = α0 + 



− + −



 + −





− −





β α

α α β

α β α β

α α α β

α α α β α

1 1 1 1

1 2 1 1

1 2 1 1

1 0 1 0

1 u v

Pl X

+ α2 X + v

Qd = α0 + 



− + −



 + −





− −





1 1

1 1 1

1 2 1 1

1 2 1 1

1 0 1 0 1

β α

α α β

α β α β

α α α β

α α α β

α u v

Pl X

+ α2 X + v

Lalu samakan semua penyebutnya dengan α −1 β1

Qd = +





1 1

1 0 1

0α β

β α α

α 



− + −



 + −





− −





1 1

1 1 1

1 2 1 1

1 2 1 1

1 0 1 0 1

β α

α α β

α β α β

α α α β

α α α β

α u v

Pl X

+





− + −





1 1

1 1 1

1

2 1 2 1

β α

β α β

α

α β α

α v v

X

Qd =





− + −



 + −





− −





1 1

1 1 1

1 2 1 1

1 1 2 1

1

1 0 0 1

β α

β α β

α β α β

α β α β

α

β α β

α u v

Pl X

Qd = ∏3 +∏4 X +∏5 Pl

(39)

Dari persamaan reduce form-nya diperoleh 6 koefisien reduksi yaitu: Π0

Π1 Π2 Π3 Π4 dan Π5 yang akan digunakan untuk menaksir 6 koefisien structural yaituα0, α1, α2, β0, β1 dan β2

Langkah-langkah ILS:

1. Regres persamaan reduced form dengan metode OLS, yaitu : P= Π0 + Π1 X + Π 2 Pl +Ω1

Q= Π 3 + Π 4 X + Π 5 Pl +Φ2

2. Ambil nilai koefisien dari hasil regresi tersebut, kemudian

masukkan pada koefisien reduced form untuk menaksir koefisien struktural.

Hasil Regresi OLS persamaan reduced form Dependent Variable: P

Included observations: 22

Variable Coefficient Std. Error t-Statistic Prob.

X 0.017971 0.004477 4.014026 0.0007 PL -1.190681 0.384484 -3.096827 0.0059 C 94.08825 10.42454 9.025651 0.0000 R-squared 0.663099 Mean dependent var 109.0909 Adjusted R-

squared 0.627636 S.D. dependent var 24.97410 Log likelihood -89.52976 F-statistic 18.69819 Durbin-Watson

stat 0.847730 Prob(F-statistic) 0.000032 Dependent Variable: Q

Method: Least Squares

Date: 03/18/02 Time: 16:23 Sample: 1970 1991

Included observations: 22

Variable Coefficient Std. Error t-Statistic Prob.

X 0.009026 0.002417 3.735081 0.0014 PL -0.615342 0.207526 -2.965133 0.0080 C 95.32565 5.626663 16.94177 0.0000 R-squared 0.601576 Mean dependent var 100.8636 Adjusted R-

squared 0.559637 S.D. dependent var 12.39545 Log likelihood -75.96355 F-statistic 14.34395

(40)

Durbin-Watson

stat 2.276325 Prob(F-statistic) 0.000160

Two Stage Least Squares (TSLS)

Metode TSLS sering digunakan dengan alasan:

1. Untuk persamaan yang overidentified, penerapan TSLS menghasilkan taksiran tunggal (sedangkan ILS menghasilkan taksiran ganda).

2. Metode ini dapat diterapkan pada kasus exactly identified. Pada kasus ini taksiran TSLS = ILS.

3. Dengan TSLS tidak ada kesulitan untuk menaksir standar error, karena koefisien struktural ditaksir secara langsung dari regresi OLS pada langkah kedua (sedangkan pada ILS mengalami kesulitan dalam menaksir standar error).

CONTOH METODE 1 UNTUK TSLS:

Persamaan simultan adalah sebagai berikut : Qd= a11 + a12 P+ a13 X + v

Qs= b11+ b12 P + b12 Pl + u

Langkah-langkah TSLS: (untuk persamaan 1) 1. Regres P = a11 + a12 Pl+ a13 X + v

2. Buatlah nilai Fitted dan Residual dari regresi tersebut (PF dan RES1).

3. Regres Variabel Q dengan PF dan RES1.

Q = b11 + b12 PF+ b13 RES1 + b14 X + v

(41)

Gambar 4.1

Hasil regresi P = a11 + a12 Pl+ a13 X + v

Dependent Variable: P Method: Least Squares

Date: 03/18/02 Time: 22:56 Sample: 1970 1991

Included observations: 22

Variable Coefficient Std. Error t-Statistic Prob.

PL -1.190681 0.38448

4 -3.096827 0.0059 X 0.017971 0.00447

7 4.014026 0.0007 C 94.08825 10.4245

4 9.025651 0.0000 R-squared 0.663099 Mean dependent

var 109.090

9 Adjusted R-

squared 0.627636 S.D. dependent var 24.9741 0 S.E. of regression 15.23961 Akaike info

criterion 8.41179

7 Sum squared

resid 4412.668 Schwarz criterion 8.56057 5

(42)

Log likelihood -89.52976 F-statistic 18.6981 9 Durbin-Watson

stat 0.847730 Prob(F-statistic) 0.00003 2

Membuat fitted dari regresi P = a11 + a12 Pl+ a13 X + v

Gambar 4.2

(43)

Gambar 4.3.

Membuat residual dari regresi P = a11 + a12 Pl+ a13 X + v

Gambar 4.4.

(44)

Gambar 4.5.

Hasil regresi Q=b0 + b1 PF + b2 RES1 + b3X + e

Dependent Variable: Q Method: Least Squares

Date: 03/18/02 Time: 22:51 Sample: 1970 1991

Included observations: 22 Variable Coefficien

t Std. Error t-Statistic Prob.

PF 0.516798 0.178522 2.894866 0.0097 RES1 0.042096 0.126833 0.331900 0.7438 X -0.000262 0.000899 -0.290921 0.7744 C 46.70099 13.59172 3.435989 0.0029 R-squared 0.603999 Mean dependent var 100.8636 Adjusted R-

squared 0.537999 S.D. dependent var 12.39545 S.E. of

regression 8.425265 Akaike info criterion 7.263313 Sum squared

resid 1277.732 Schwarz criterion 7.461684 Log likelihood -75.89644 F-statistic 9.151495 Durbin-Watson

stat 2.301464 Prob(F-statistic) 0.000677 Lakukan langkah yang sama pada persamaan yang lain!

(45)

Langkah-langkah TSLS: (untuk persamaan 2) 1. Regres Q = a11 + a12 Pl+ a13 X + v

2. Buatlah nilai Fitted dan Residual dari regresi tersebut (QF dan RES2).

3. Regres Variabel P dengan QF dan RES2.

P = b11 + b12 QF+ b13 RES2 + b14 X + v Metode 2 TSLS:

Buka Workfile, pilih variabel yang dikehendaki akan diregresi , kemudian Klik estimation

Setelah muncul Equation Specification, pilih method TSLS Tuliskan instrument variable , Klik OK

Buatlah regresi P = a11 + a12 Q+ a13 Pl + v

Gambar 4.6

Hasil Regresi dengan Two Stage Least Squares (TSLS).

Dependent Variable: P

Method: Two-Stage Least Squares

(46)

Date: 03/18/02 Time: 16:40 Sample: 1970 1991

Included observations: 22 Instrument list: PL X

Variable Coefficien

t Std. Error t-Statistic Prob.

PL 0.034507 0.142983 0.241336 0.8119 Q 1.991068 0.699260 2.847392 0.0103 C -95.71162 60.00985 -1.594932 0.1272 R-squared 0.330473 Mean dependent var 109.0909 Adjusted R-

squared 0.259996 S.D. dependent var 24.97410 S.E. of

regression 21.48358 Sum squared resid 8769.343 F-statistic 9.408793 Durbin-Watson stat 1.790965 Prob(F-statistic) 0.001446

Dependent Variable: Q

Method: Two-Stage Least Squares Date: 03/18/02 Time: 16:42 Sample: 1970 1991

Included observations: 22 Instrument list: X PL

Variable Coefficie

nt Std. Error t-Statistic Prob.

P 0.51679

8 0.231710 2.23036

4 0.0380

X -0.00026

2 0.001167 -0.22414

1 0.8250

C 46.7009

9 17.64115 2.64727

5 0.0159 R-squared 0.29582

2 Mean dependent

var 100.863

6 Adjusted R-

squared 0.22169

8 S.D. dependent var 12.3954 5 S.E. of

regression 10.9354

4 Sum squared resid 2272.09 3 F-statistic 8.11581

0 Durbin-Watson stat 1.76922 7 Prob(F-statistic) 0.00283

3

(47)

System Method / Full Information Method

Dalam metode ini, seluruh persamaan dalam model diperhitungkan bersama-sama dan ditaksir secara simultan dengan memperhatikan seluruh batasan yang ada dalam sistem persamaan dalam model.

Contoh Metode System dengan menggunakan Eviews:

Klik Object, kemudian pilih New object

Gambar 4.7

Pilih System kemudian klik OK

(48)

Gambar 4.8

Tuliskan INST diikuti variabel instrumen-nya atau predetermined variabel

Inst x Pl

P= C(1)+ C(2)*Q+ C(3)*PL Q= C(4)+ C(5)*P+ C(6)*X

(49)

Gambar 4.9.

Klik, Procs kemudian klik estimate. Pilih Two Stage Least Squares (TSLS) dan Simultaneous, kemudian klik OK.

Gambar 4.10.

Hasil regresi persamaan simultan dengan menggunakan System.

System: UNTITLED

Estimation Method: Two-Stage Least Squares Date: 03/18/02 Time: 15:52

Sample: 1970 1991 Instruments: PL X C

Coefficien

t Std. Error t-Statistic Prob.

(50)

C(1) -95.71162 60.0098

5 -1.594932 0.1190 C(2) 1.991068 0.69926

0 2.847392 0.0071 C(3) 0.034507 0.14298

3 0.241336 0.8106 C(4) 46.70099 17.6411

5 2.647275 0.0117 C(5) 0.516798 0.23171

0 2.230364 0.0317 C(6) -0.000262 0.00116

7 -0.224141 0.8238 Determinant residual

covariance 9.78409

7 Equation: P=C(1)+C(2)*Q+C(3)*PL Observations: 22

--- ---

R-squared 0.33047

3 Mean dependent

var 109.0909

Adjusted R-squared 0.25999

6 S.D. dependent var 24.97410 S.E. of regression 21.4835

8 Sum squared resid 8769.343 Durbin-Watson stat 1.79096

5 Equation: Q=C(4)+C(5)*P+C(6)*X Observations: 22

--- ---

R-squared 0.295822 Mean dependent

var 100.8636

Adjusted R-

squared 0.221698 S.D. dependent var 12.39545 S.E. of regression 10.93544 Sum squared resid 2272.093 Durbin-Watson

stat 1.769227

(51)

Berikut adalah data yang digunakan dalam bagian simultan ini:

UJI HAUSMAN

 Uji Hausman dilakukan untuk mengetahui apakah terdapat hubungan simultan antara dua persamaan regresi yang ada.

Persamaan simultan adalah sebagai berikut : Qd= a11 + a12 P+ a13 X + v

Qs= b11+ b12 P + b12 Pl + u

Persamaan reduce form-nya adalah sebagai berikut :

(52)

P= η11+ η 12 X + η 13 Pl +Ω Q= η 14 + η 15 X + η 16 Pl +Ω

 Variabel endogen: P

Tahap 1 : Meregresikan Pt pada variabel-variabel eksogen (X) dan (Pl) Tahap 2 : Dapatkan residual dan fitted dari regresi di atas

(masukkan dalam data / variable)

Tahap 3 : Regres variabel endogen yang lain (Qt) pada residual dan fitted

yang telah dibuat.

Tahap 4 : Lakukan pengujian. Jika variabel residual signifikan, maka persamaannya adalah simultan.

Gambar 4.11 Hasil regresi :

Dependent Variable: P Method: Least Squares

Date: 03/19/02 Time: 21:24 Sample: 1970 1991

Included observations: 22 Variable Coefficie

nt

Std. Error t-Statistic Prob.

PL -1.19068 0.384484 -3.09682 0.0059

(53)

1 7

X 0.01797

1

0.004477 4.014026 0.0007

C 94.0882

5

10.42454 9.025651 0.0000 R-squared 0.66309

9

Mean dependent var

109.09 09 Adjusted R-

squared

0.62763 6

S.D. dependent var

24.974 10 S.E. of regression 15.2396

1

Akaike info criterion

8.4117 97 Sum squared

resid

4412.66 8

Schwarz criterion 8.5605 75 Log likelihood -89.5297

6

F-statistic 18.698 19 Durbin-Watson

stat

0.84773 0

Prob(F-statistic) 0.0000 32 Membuat Fitted dari hasil regresi

Gambar 4.12

Membuat Residual dari hasil regresi

Klik Procs, pilih forecast

(54)

Gambar 4.13

Gambar 4.14 Klik Procs, pilih Make Residual Series

Beri nama RESID1

(55)

Buatlah regresi Q = b0 + b1 Resid1 + b2 Pfit + e Hasil regresi di atas adalah sebagai berikut :

Dependent Variable: Q Method: Least Squares

Date: 03/19/02 Time: 21:29 Sample: 1970 1991

Included observations: 22 Variable Coefficie

nt

Std. Error t-Statistic Prob.

RESID1 0.04209 6

0.123740 0.340196 0.7374 PFIT 0.47201

5

0.088201 5.351585 0.0000

C 49.3711

4

9.780205 5.048068 0.0001 R-squared 0.60213

8

Mean dependent var

100.86 36 Adjusted R-

squared

0.56025 7

S.D. dependent var

12.395 45 S.E. of regression 8.21980

8

Akaike info criterion

7.1770 94 Sum squared

resid

1283.74 0

Schwarz criterion 7.3258 73 Log likelihood -75.9480

4

F-statistic 14.377 60 Durbin-Watson

stat

2.27898 0

Prob(F-statistic) 0.0001 58

 Variabel endogen : Qt

Tahap 1 : Meregresikan Qt pada variabel-variabel eksogen (X dan Pl) Tahap 2 : Dapatkan residual dan fitted dari regresi di atas

(masukkan dalam data / variable)

Gambar

Diagram 1. Hasil Uji Normalitas : J – B Test
Gambar 4.1 Tampilan Group untuk masuk ke Menu Correlation
Gambar 4.2 Tampilan Correlation Matrix
Gambar 4.4 Tampilan Correlation Restriction
+7

Referensi

Dokumen terkait

(2) Tindakan perbaikan untuk menghilangkan heteroskedastisitas dapat dilakukan dengan dua cara yaitu dengan mencari model regresi baru melalui prosedur metode kuadrat

Hasil uji heteroskedastisitas menunjukkan bahwa tidak terdapat gejala heteroskedastisitas dalam model regresi dalam penelitian ini karena seluruh nilai signifikansi

Uji Heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan lainnya. 31 Prasyarat yang

Uji heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi atau terdapat ketidaksamaan varians dari residual dari satu pengamatan ke pengamatan yang

Uji heteroskedastisitas adalah keadaan dimana terjadi ketidaksamaan varian dari residual satu pengamatan ke pengamatan yang lain pada model regresi. Model regresi

Bentuk model yang mengandung unsur persamaan satu jalur adalah padamodel regresi berganda.Dimana hanya terdapat satu variabel endogen yangdisebabkan oleh beberapa

Sedangkan jika dalam persamaan regresi terdapat lebih dari satu variabel bebas, maka model yang diperoleh disebut dengan regresi linier Berganda (multiple regression).. 2.1

Regresi linier merupakan suatu metode analisis statistik yang mempelajari pola hubungan antara dua variabel atau lebih menggunakan model persamaan linier, sehingga salah