• Tidak ada hasil yang ditemukan

Metode Analisis data

Dalam dokumen ANALISIS HUBUNGAN INFLASI DAN PENGANGGUR (Halaman 39-49)

II. TINJAUAN PUSTAKA DAN KERANGKA PEMIKIRAN

3.2. Metode Analisis data

Tahap pengolahan data dilakukan dengan alat bantu perangkat lunak atau software untuk membantu proses penelitian. Software KILM 5th Edition digunakan untuk pencarian data dari ILO, software IFS-CD room untuk pencarian data inflasi dari IMF, serta untuk pengolahan datanya dengan menggunakan Microsoft Excel 2007 dan Eviews 5.1. Metode analisis yang digunakan adalah dengan Ordinary Least Square (OLS) dan Granger Causality Test. 3.2.1. Ordinary Least Square (OLS)

Metode OLS digunakan untuk memperoleh estimasi parameter dalam menganalisis pengaruh variabel-variabel independen terhadap variabel dependen. Penelitian ini menggunakan OLS untuk memperoleh estimasi pengaruh tingkat inflasi terhadap tingkat pengangguran di Indonesia. Metode OLS dipilih karena

merupakan salah satu metode sederhana dengan analisis regresi yang kuat dan populer, dengan asumsi-asumsi tertentu (Gujarati, 1997). Model yang digunakan merupakan hasil modifikasi dari model yang digunakan oleh Simamare (2006) dengan mengganti variabel pertumbuhan ekonomi dengan inflasi, mengubah jumlah pengangguran sebagai persentase, serta mengubah jumlah angkatan kerja sebagai bentuk logaritma naturalnya.

UNt = λ1 INFt + λ2 LNAKt + λ 3 UNt-1 + et ………. (3.1) Di mana:

UNt = Tingkat pengangguran tahun t (dalam persen), INFt = Tingkat Inflasi per tahun t (persen),

LNAKt = Jumlah angkatan kerja tahun t (dalam persen), UNt-1 = Jumlah pengangguran tahun t-1 (persen), λ1,2,3 = Slope atau kemiringan,

et = Residual

Jumlah pengangguran tahun tertentu merupakan jumlah dari pengangguran tahun sebelumnya dan angkatan kerja baru yang menjadi pengangguran. Kedua variabel tersebut diduga berpengaruh positif terhadap tingkat pengangguran, sehingga digunakan dalam model sebagai variabel

independen. Karena UNt-1 merupakan lag dari UNt maka jumlah observasi dalam OLS berkurang satu, dari 24 untuk periode 1985-2008 menjadi 23 untuk periode 1986-2008.

Seberapa baik garis regresi mencocokkan data (Goodness of fit) dapat diukur melalui koefisien determinasi R2. Jika seluruh data berada pada garis regresi, maka terjadi kecocokan sempurna dan R2 bernilai satu. Semakin besar

nilai R2, maka semakin baik variabel-variabel independen dalam menjelaskan variabel dependen. 3.2.2. Uji Asumsi OLS

Tujuan dari analisis regresi bukan hanya mendapatkan parameter atau penaksir, tetapi juga membuktikan apakah penaksir tersebut sesuai dengan nilai sebenarnya. Dengan asumsi-asumsi dapat dilihat bahwa penaksir OLS adalah penaksir tak bias linear terbaik. Manurung, Manurung, dan Saragih (2005) dalam Simamare (2006) menyebutkan asumsi-asumsi yang digunakan yaitu: 1) Nilai rata-rata bersyarat dari unsur gangguan populasi et, tergantung kepada nilai-nilai tertentu variabel yang menjelaskan Xt adalah nol. Asumsi ini menyatakan bahwa tiap nilai variabel dependen Yt yang berhubungan dengan suatu Xt tertentu didistribusikan di sekitar nilai rata-rata, sehingga nilai et yang berhubungan dengan setiap Xt, memiliki rata-rata nol. Asumsi ini

merupakan salah satu sifat dari fungsi regresi dan dapat diabaikan karena penyimpangan yang terjadi hanya berdampak pada koefisien intersep yang bias.

2) Varians bersyarat dari et adalah konstan atau homoskedastik. Asumsi homoskedastisitas dari disturbance term error adalah selisih atau spread (scedasticity) bernilai sama atau equal (homo). Heteroskedastisitas, yaitu varians Yt yang tidak sama, memberikan konsekuensi varians tidak minimum dan penggunaan selang keyakinan atau tingkat signifikansi

yang semakin besar, yang sebenarnya tidak perlu, sehingga penaksir OLS kurang efisien. Pendeteksian ada atau tidaknya heteroskedastisitas dapat dilakukan dengan White’s General Heteroskedasticity Test (cross term). Pengujian dilaksanakan dengan melihat nilai Probability (Obs*R-squared) yang dihasilkan. Tolak H0 maka regresi model tersebut mengalami gejala heteroskedastisitas. Begitu pula sebaliknya, jika terima H0 maka regresi model tidak tersebut mengalami gejala heteroskedastisitas.

Kriteria uji: Hipotesis nol H0 : θi = 0 Hipotesis alternatif H1 : θi ≠ 0 Kaidah menolak hipotesis nol:

Probability (Obs*R-squared) < taraf nyata (α)

3) Tidak ada autokorelasi dalam gangguan. Masalah autokorelasi yang timbul juga tidak menunjukkan varians minimum walaupun BLUE sehingga tidak efisien, selang keyakinan menjadi lebar secara tak perlu, dan pengujian arti (signifikan) kurang kuat. Uji autokorelasi dilakukan dengan melihat probability (Obs*R-squared) pada Breusch-Godfrey (BG) Test. Apabila nilai probability (Obs*R-squared) lebih besar dari taraf nyata tertentu, maka regresi model tidak mengalami autokorelasi. Bila nilai probability (Obs*R-squared) lebih kecil dari taraf nyata tertentu, maka regresi model mengalami autokorelasi.

Hipotesis alternatif H1 : ρi ≠ 0 Kaidah menolak hipotesis nol:

Probability (Obs*R-squared) < taraf nyata (α)

4) Variabel yang menjelaskan adalah nonstokastik (yaitu, tetap dalam penyampelan berulang) atau, jika stokastik, didistribusikan secara independen dari gangguan et. Analisis regresi

merupakan penaksiran nilai rata-rata satu variabel dependen atas dasar nilai yang tetap variabel-variabel independen. Maka variabel-variabel-variabel-variabel yang menjelaskan ini diasumsikan mempunyai nilai yang tetap atau nonstokastik. Sekalipun variabel eksplanatoris mungkin sebenarnya stokastik, namun dapat diasumsikan bahwa variabel yang menjelaskan tersebut adalah tertentu dan hasil analisis regresi adalah tergantung pada nilai tertentu ini. Jika variabel explanatory ini bersifat random, maka setidaknya didistribusikan secara independen dari faktor gangguan et. Asumsi ini dapat dianggap terpenuhi karena salah satu sifat fungsi regresi menujukkan bahwa residual tidak berkorelasi dengan variabel eksplanatoris.

5) Tidak ada multikolinearitas di antara variabel yang menjelaskan. Asumsi ini mensyaratkan tidak ada hubungan linear di antara variabel yang menjelaskan. Pelanggaran asumsi ini, adanya multikolinearitas sempurna, koefisien regresi dari variabel eksplanatoris tidak dapat ditentukan dan variansnya tak berhingga. Jika multikolinearitas kurang dari sempurna, koefisien regresi dapat ditentukan tetapi variansnya sangat besar

sehingga tidak dapat menaksir koefisien secara akurat. Pendeteksian multikolinearitas, dilakukan mengikuti kaidah umum, yaitu:

a. Koefisien determinasi rendah dan probabilitas dari nilai statistik t tinggi. b. Koefisien korelasi antara variabel eksplanatoris tinggi, yaitu │0.8│atau lebih.

6) et didistribusikan secara normal. Untuk ukuran sampel meningkat sampai tak terbatas, penaksir OLS didistribusikan secara normal, sehingga penggunakan asumsi kenormalan tidak harus digunakan. Namun untuk ukuran sampel kecil, asumsi kenormalan menjadi penting untuk

maksud pengujian hipotesis dan peramalan. Uji normalitas dapat dilakukan dengan Jarque-Berra (JB) test. Jika probabilitas yang diperoleh lebih besar dari taraf nyata (α), maka asumsi residual terdistribusi dengan normal diterima. Jika probabilitas yang diperoleh lebih kecil dari taraf nyata (α), maka asumsi residual terdistribusi dengan normal ditolak.

Kriteria uji: Hipotesis nol H0 : residual terdistribusi normal Hipotesis alternatif H1 : residual tidak terdistribusi normal

Kaidah menolak hipotesis nol: Probability (JB test) < taraf nyata (α)

7) Model regresi linear dalam parameter. Parameter yang digunakan yaitu dalam bentuk pangkat satu.

8) Jumlah observasi N harus lebih besar dari jumlah parameter yang akan ditaksir atau jumlah observasi N harus lebih besar dari jumlah variabel eksplanatoris.

9) Variabilitas dalam variabel eksplanatoris. Nilai variabel eksplanatoris untuk sejumlah observasi N tidak sama.

10) Model regresi dispesifikasikan dengan benar. Penetuan model dalam OLS lebih mengacu kepada landasan teori yang digunakan. Uji bias spesifikasi model dapat dilakukan dengan Ramsey Regression Specification Error Test (RAMSEY RESET). Jika probabilitas dari nilai statistik F signifikan secara statistik pada tingkat signifikansi α, maka kesimpulan yang diperoleh yaitu model mengalami kesalahan spesifikasi. Sebaliknya, model regresi dispesifikasikan dengan benar jika probabilitas dari nilai statistik F tidak signifikan secara statistik pada tingkat

signifikansi α.

Asumsi pertama dan keempat dianggap telah terpenuhi. Asumsi ketujuh, kedelapan, dan kesembilan terpenuhi tanpa perlu menggunakan uji secara statistik. Parameter yang diestimasi (λ1,2,3) berpangkat satu, jumlah observasi yang digunakan (N=23) lebih besar dari jumlah parameter yang diestimasi (λi=3), dan variabel independen (INFt, LNAKt, UNt-1) memiliki variabilitas dalam data. Uji asumsi OLS secara statistik diterapkan terhadap lima asumsi lainnya, yaitu homoskedastisitas, non-autokorelasi, non-multikolinearitas, normalitas, dan non-bias spesifikasi model.

3.2.3. Uji Stabilitas Parameter

Metode yang digunakan untuk menguji stabilitas parameter regresi adalah chow breakpoint test (Gujarati, 1997). Dasar dari uji ini adalah untuk melihat apakah terdapat perbedaan hasil regresi atau perubahan struktural dari dua periode waktu, yaitu periode 1985-1996 dan periode 1997-2008. Langkah yang dilakukan yaitu dengan menghitung statistik F dengan formula:

...(3.2) Di mana:

RSST = residual sum squares dari hasil regresi untuk periode 1986-2008,

RSSP = residual sum squares dari hasil regresi untuk periode 1986-1996 ditambah residual sum squares dari hasil regresi untuk periode 1997-2008,

K = jumlah parameter, yaitu tiga,

N1 = jumlah observasi untuk periode 1986-1996, yaitu sebelas, N2 = jumlah observasi untuk periode 1997-2008, yaitu dua belas.

Asumsi yang digunakan yaitu tidak ada perubahan struktural akibat krisis ekonomi pada tahun 1997. Apabila nilai probabilitas dari statistik F lebih besar dari tingkat signifikansi α, maka hipotesis nol yang menyatakan bahwa parameter stabil diterima. Kelemahan dari metode ini adalah tidak diketahuinya letak perbedaan dari hasil regresi pada kedua periode, apakah pada intersep atau pada koefisien parameter.

3.2.4. Uji Kausalitas Granger

Granger (1969) dalam Gujarati (1997) mempostulasikan bahwa suatu variabel X dikatakan menyebabkan variabel lain, Y, apabila Y saat ini dapat diprediksi lebih baik dengan menggunakan nilai-nilai masa lalu X. Uji ini secara umum digunakan untuk menguji hubungan kausalitas antara 2 variabel.

Uji kausalitas Granger menyatakan bahwa jika nilai masa lalu dari variabel Y secara signifikan memberikan pengaruh peramalan pada nilai variabel lainnya; Xt+1, maka Y dikatakan Granger cause X dan begitu pula sebaliknya. Pengujian tersebut didasarkan pada regresi berikut ini: ………....………….. (3.3)

………..……. (3.4)

Di mana Yt dan Xt adalah variabel yang akan diuji, dan ut dan vt adalah white noise errors yang tidak berkorelasi satu sama lain, dan t menunjukkan periode waktu dan k an l adalah jumlah lag. Hipotesis nol (HO) adalah αl = δl = 0 untuk seluruh l dengan hipotesis alternatif (H1) adalah selain HO. Bila koefisien αl secara statistik signifikan tetapi δl tidak signifikan, maka X menyebabkan Y dan demikian sebaliknya. Tetapi bila αl dan δl keduanya signifikan maka terdapat kausalitas dua arah.

Dalam perkembangan analisis time series telah disarankan sejumlah perbaikan dalam uji standar Granger. Salah satunya disebabkan karena kausalitas Granger sangat sensitif pada dapat menjadi bias. Jika lag length yang dipilih lebih besar, maka lag yang tidak relevan pada suatu persamaan dapat menyebabkan estimasi yang tidak efisien.

IV. GAMBARAN UMUM PENGANGGURAN DAN INFLASI

Dalam dokumen ANALISIS HUBUNGAN INFLASI DAN PENGANGGUR (Halaman 39-49)

Dokumen terkait