• Tidak ada hasil yang ditemukan

BAYESIAN INFORMATION CRITERION (BIC)

N/A
N/A
Protected

Academic year: 2018

Membagikan "BAYESIAN INFORMATION CRITERION (BIC)"

Copied!
38
0
0

Teks penuh

(1)

PEMILIHAN MODEL REGRESI TERBAIK DENGAN BAYESIAN INFORMATION CRITERION (BIC)

oleh

NURUL KUSTINAH M0106057

SKRIPSI

ditulis dan diajukan untuk memenuhi sebagian persyaratan memperoleh gelar Sarjana Sains Matematika

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SEBELAS MARET SURAKARTA

2012

(2)

ii SKRIPSI

PEMILIHAN MODEL REGRESI TERBAIK DENGAN BAYESIAN INFORMATION CRITERION (BIC) telah dipertahankan di depan Dewan Penguji

pada hari Senin, 2 Januari 2012 dan dinyatakan telah memenuhi syarat.

Fakultas Matematika dan Ilmu Pengetahuan Alam Dekan

Ir. Ari Handono Ramelan, MSc., PhD NIP. 19610223 198601 1 001

Ketua Jurusan Matematika

Irwan Susanto, DEA NIP. 19710511 199512 1 001

(3)

iii

ABSTRAK

Nurul Kustinah, 2011. PEMILIHAN MODEL REGRESI TERBAIK DENGAN BAYESIAN INFORMATION CRITERION (BIC). Fakultas Matematika dan Ilmu Pengetahuan Alam. Universitas Sebelas Maret.

Pemilihan model regresi linear terbaik adalah memilih model regresi linear yang memiliki kecocokan dengan data. Terdapat beberapa kriteria sebagai tolak ukur untuk menilai suatu kecocokan model dengan data, salah satu satunya adalah BIC.

BIC merupakan metode pemilihan model terbaik dari beberapa kandidat model. Kriteria pemilihan model dengan menggunakan BIC didasarkan pada teorema Bayesian dan metode MLE. Tujuan dari penelitian ini adalah mengkaji ulang metode BIC dan menerapkannya dalam pemilihan model regresi terbaik. Berdasarkan hasil penelitian menunjukkan bahwa BIC memiliki bentuk umum yaitu

| = −2ln + ln .

Dalam memilih model regresi terbaik dengan BIC dilakukan dengan memilih model dengan nilai BIC terkecil yang didapat dari

= ln2 + ln !+"#

$ ln + 1.

Kata kunci: regresi linear, teorema Bayesian, MLE, BIC.

(4)

iv

ABSTRACT

Nurul Kustinah, 2011. THE BEST SELECTION REGRESSION MODEL WITH BAYESIAN INFORMATION CRITERION (BIC). Faculty of Mathematics and Natural Sciences. Sebelas Maret University.

The best regression model selection is method for selection the most appropriate fit between the regression model and the data. There are several criterias as a benchmark to evaluate the suitability of the model with data, one of them is BIC.

BIC is a method in model selection to choose the best of several candidate models. Criteria for model selection using BIC is based on Bayesian theorem and MLE. The aims of this research are to review the BIC and apply it in the best regression model selection. Based on the results, BIC has the general form

| = −2ln + ln .

In selecting the best regression model with BIC performed by selecting the model with the smallest BIC value obtained from

= ln2 + ln !+"#

$ ln + 1.

Keywords: linear regression, Bayesian theorem, MLE, BIC.

(5)

v MOTO

“Sesungguhnya sesudah kesulitan itu ada kemudahan.” (QS. Alam Nasyrah: 6)

“Dan Dia mendapatimu sebagai seorang yang bingung, lalu Dia beri petunjuk.”

(QS: Ad-Duhaa ayat 7)

“Jangan pernah menghindar dan selalu berkata tidak, majulah ke depan, hadapi hidupmu dan berkatalah, ya, aku bisa!”

(6)

vi

PERSEMBAHAN

Alhamdulillahirobbil ‘aalamiin...

Karya ini kupersembahkan untuk

Ibu dan Bapak tercinta

Yang tiada henti mendoakan aku

Kakakku Mas Rochim dan mbak Ita

Adikku Tirta dan Riyanti

Kak Gilang dan keluarga atas semua fasilitasnya

Valui Aditya dengan bantuan laptopnya

Damar, Bili, Uswa, Desi, Umi, Siti & Ahmad yang memberi semangat

(7)

vii

KATA PENGANTAR

Puji syukur penulis panjatkan kehadirat Tuhan Yang Maha Esa atas segala rahmat dan hidayah-Nya sehingga penulis dapat menyelesaikan skripsi ini. Selain itu, penulis mengucapkan terima kasih kepada seluruh pihak yang telah membantu dalam penyusunan skripsi ini.

1. Dra. Yuliana Susanti, M.Si dan Bowo Winarno, S.Si, M.Kom selaku Dosen Pembimbing I dan Dosen Pembimbing II yang telah memberikan bimbingan kepada penulis.

2. Endah Krisna Murti yang telah memberi bantuan diskusi materi kepada penulis.

3. Semua pihak yang telah membantu sehingga skripsi ini dapat selesai. Semoga skripsi ini bermanfaat untuk semua pihak.

Surakarta, 2 Januari 2012

Penulis

(8)

viii

2.1.1 Probabilitas Bersyarat ... 3

2.1.2 Estimasi Maksimum Likelihood ... 4

2.1.3 Distribusi Prior dan Distribusi Posterior ... 5

2.1.4 Teorema Bayes ... 6

(9)

ix

4.2BIC dalam Regresi ... 17

4.3Contoh Aplikasi pemilihan Model Regresi Terbaik dengan BIC... 19

BAB V PENUTUP ... 26

5.1Kesimpulan ... 26

5.2Saran ... 26

DAFTAR PUSTAKA ... 27 LAMPIRAN

(10)

x

DAFTAR GAMBAR

Halaman Gambar 2.1

Gambar 4.1

Pola plot residu terhadap & ... Plot probabilitas dari residu ...…..

9 20 Gambar 4.2 Plot residu dengan & ...……….. 21

(11)

xi

DAFTAR TABEL Halaman Tabel 4.1 Hasil Uji Multikolinearitas …………...……….… 21

Tabel 4.2 Hasil Uji F ... 23

Tabel 4.3 Hasil Uji t ... 24

Tabel 4.4 Nilai BIC dari model ... 24

(12)

1 BAB I

PENDAHULUAN

1.1 Latar Belakang Masalah

Analisis regresi adalah teknik statistik yang digunakan untuk menyelidiki dan memodelkan hubungan antara variabel-variabel yang terdiri dari variabel independen dan variabel dependen. Model regresi adalah suatu cara untuk mengetahui kecenderungan perubahan variabel dependen Y yang berubah sesuai perubahan variabel independen X. Model regresi dapat digunakan untuk beberapa tujuan antara lain untuk deskripsi data, estimasi dan prediksi. Penerapan dari regresi sangat banyak dan dapat ditemukan hampir disetiap bidang ilmu pengetahuan. Penerapan regresi diantaranya dapat ditemukan dalam analisis runtun waktu, ilmu ekonomi, biologi, dan ilmu sosial (Sembiring,1995).

Pada analisis regresi hubungan antara variabel dependen (Y)dan beberapa variabel independen (X) dapat dinyatakan dengan suatu model regresi linear yaitu

= + + ⋯ + + , dengan adalah banyaknya variabel independen,

adalah parameter dan adalah sesatan random dengan asumsi ~ (0; ), untuk = 1,2, … , (Neter dan Wasserman, 1996).

Ada beberapa metode pemilihan model regresi terbaik, diantaranya adalah metode Akaike’s Information Criterion (AIC) dan Bayesian Information Criterion (BIC). BIC merupakan salah satu kriteria pemilihan model terbaik dimana konsep dari metode ini dikemukakan oleh Schwarz (1978). Perumusan BIC menggunakan teorema Bayesian untuk menentukan probabilitas posterior. Estimasi parameter dalam model regresi menggunakan MLE. Kemudian BIC digunakan untuk pemilihan model regresi. Hasil pemilihan model dengan BIC cukup akurat karena jumlah parameter dalam model diperhatikan. Dalam penelitian ini, penulis mengkaji ulang metode BIC dan menerapkannya dalam regresi linear.

(13)

1.2 Perumusan Masalah

Berdasarkan uraian dalam latar belakang masalah, dapat dirumuskan permasalahan yaitu bagaimana menurunkan ulang metode BIC dan penerapan BIC dalam pemilihan model regresi terbaik.

1.3 Tujuan Penelitian

Tujuan yang ingin dicapai adalah menjelaskan metode BIC dan menerapkan BIC dalam regresi linear.

1.4 Manfaat Penelitian

Memberikan pemahaman yang lebih tentang BIC untuk pemilihan model regresi terbaik dan sebagai bahan referensi penelitian yang akan datang.

(14)

3

BAB II

LANDASAN TEORI

2.1 Tinjauan Pustaka

Pada bagian pertama dari bab ini diberikan tinjauan pustaka yang terdiri dari definisi maupun teorema sebagai dasar pengertian untuk mempermudah pembahasan selanjutnya. Pada bagian kedua dari bab ini disusun kerangka pemikiran yang menjelaskan alur dalam penulisan skripsi ini. Berikut ini akan diberikan beberapa definisi dan pengertian yang mendukung pemilihan model regresi terbaik berdasarkan metode BIC.

2.1.1 Probabilitas bersyarat

Pengertian tentang probabilitas bersyarat peristiwa A jika diketahui B telah terjadi ditulis sebagai | pada dua kejadian independen dan fungsi likelihood diberikan pada definisi dan teorema berikut menurut Bain dan Engelhardt(1992). Definisi 2.1. Diberikan suatu percobaan dengan S sebagai ruang sampel dan A1, A2, A3,… ,An merupakan kejadian asing yang mungkin terjadi. Sebuah fungsi

yang mengawankan nilai real dari P(A) dengan setiap kejadian A disebut

probabilitas dari A, dinotasikan P(A), jika memenuhi :

1. ≥ 0 untuk setiap himpunan bagian 2. P (S) = 1

3. ⋃ = ∑ .

Probabilitas terjadinya suatu peristiwa A, bila diketahui peristiwa B telah terjadi disebut probabilitas bersyarat dan dinotasikan | .

Definisi 2.2 S suatu ruang sampel dan A, B adalah peristiwa-peristiwa di dalam S. Probabilitas bersyarat P(A|B) didefinisikan sebagai

| = ∩ .

(15)

Definisi 2.3. S adalah suatu ruang sampel dari suatu percobaan. A1 , A2, ... , Ak

adalah peristiwa-peristiwa di dalam S, sedemikian hingga ∩ = ∅ untuk setiap dan ⋃ = .

Dikatakan bahwa A1 , A2, ... , Ak membentuk partisi dalam S.

Teorema 2.1. (Teorema Probabilitas Total). Jika A=[ A1 , A2, ... , Ak] adalah

partisi S dan B sebarang peristiwa anggota S, maka

P(B)=P(B|A1)P(A1)+P(B|A2)P(A2)+ ... +P(B|Ak)P(Ak).

2.1.2 Estimasi Maksimum Likelihood

Pengertian tentang estimasi maksimum likelihood yang diberikan pada definisi berikut menurut Bain dan Engelhardt(1992).

Definisi 2.4. Fungsi kepadatan bersama dari n variabel random , , … , pada , , … , dilambangkan dengan ! , , … , ; # dengan # $ % dimana % adalah ruang parameter yang tidak diketahui dinyatakan dengan fungsi likelihood. Untuk , , … , yang tetap fungsi likelihood adalah fungsi dari # dan dinotasikan & # . Jika , , … , mewakili sampel random dari ! , # maka,

& # = ∏ ! ; # = ! ; # ! ; # … ! ; # .

Definisi 2.5. Misalkan & # = ! , , … , ; # dengan # $ %, adalah fungsi kepadatan bersama dari variabel random , … , . Untuk himpunan pengamatan , , … , , suatu nilai #( dalam % yang memaksimumkan & # disebut sebagai estimator maksimum likelihood dari #. Secara sistematis ditulis,

!) , , … , ; #(* =./0+,-! , , … , ; # .

Memaksimumkan log & # lebih mudah dibandingkan memaksimumkan & # sehingga dapat ditulis sebagai,

(16)

5

Apabila Ω adalah interval terbuka dari L(# yang differensiabel dan diasumsikan maksimum pada Ω, maka estimator maksimum likelihood dari # diperoleh dengan menyelesaikan persamaan

23456 +

2+

= 0

.

Jika terdapat lebih dari satu penyelesaian untuk # maka dicari penyelesaian yang memaksimumkan L(# dengan membandingkan penyelesaian untuk # yang telah diperoleh. Kemudian dicari turunan kedua dari L(# . Bila nilainya negatif maka penyelesaian untuk # tersebut merupakan estimator maksimum.

Kegunaan MLE dalam mendapatkan estimator parameter dari suatu distribusi dapat digunakan untuk menyusun suatu matriks yang disebut matriks informasi Fisher. Invers dari matriks ini disebut matriks invarian-kovarian. Untuk menentukan variansi dan kovariansi yang asimtotik dari estimator maka dikonstruksikan sebuah matriks informasi I dengan elemen ke-8 adalah :

I9 = : ;< log& #; <# #

9 @

Invers matriks, IA adalah matriks varian-kovarian dari #(. Var )#( * = I dan cov )#( , #9* = I9.

2.1.3 Distribusi Prior dan Distribusi Posterior

Definisi distribusi prior dan distribusi posterior di bawah ini menurut Larson (1974).

Deinisi 2.6. Distribusi prior dari suatu parameter # merupakan fungsi kepadatan probabilitas yang menggambarkan tingkat keyakinan nilai #.

Sebagaimana ditulis oleh Larson, distribusi prior tersebut diperoleh sebelum melakukan analisis data.

Definisi 2.7. Fungsi kepadatan posterior untuk # merupakan fungsi kepadatan probabilitas bersyarat # diberikan nilai sampel y, sehingga

(17)

! #|B =C D,+C D .

Secara umum, distribusi posterior menggambarkan tingkat keyakinan terhadap kemungkinan nilai parameter # setelah diberikan nilai sampel.

2.1.4 Teorema Bayes

Percobaan awal yang telah dilakukan akan berpengaruh terhadap hasil percobaan sekarang. Untuk menghitung probabilitas kejadian sekarang dengan syarat kejadian awal dijelaskan dalam teorema Bayes. Teorema 2.2 di bawah ini diambil dari Bain dan Engelhardt (1992), sedangkan teorema 2.3 dan teorema 2.4 diambil dari Walpole dan Myers (1995).

Teorema 2.2. Jika A dan B adalah dua kejadian sebarang, maka

∪ = + − ∩ .

Akibatnya jika A dan B adalah kejadian yang saling asing, maka ∩ = ∅ sehingga ∪ = + . Selanjutnya jika , , … , saling asing,

maka ∪ ∪ … ∪ = + + ⋯ + .

Teorema 2.3. Misal kejadian , , … , merupakan kejadian yang saling asing dari ruang sampel S dengan ≠ 0 untuk = 1,2, … , . Maka untuk setiap kejadian A anggota S,

= ∑ ∩ = ∑ | .

Teorema 2.4. Misal kejadian , , … , merupakan kejadian yang saling asing dari ruang sampel S dengan ≠ 0 untuk = 1,2, … , . Misalkan A suatu kejadian sebarang dalam S dengan ≠ 0, maka

K| = L∩

Teorema 2.4 disebut sebagai teorema Bayes. Teorema Bayes memberikan aturan untuk menghitung probabilitas bersyarat peristiwa K diberikan A, jika masing-masing probabilitas tak bersyarat K dan probabilitas bersyarat A yang diberikan

K diketahui. Untuk selanjutnya, K disebut probabilitas prior, | K disebut sebagai fungsi likelihood dan K| disebut fungsi probabilitas posterior.

(18)

7

Z adalah distribusi marginal dari data sampel pada model U. Jadi rasio probabilitas posterior untuk 2 model U9 dan U adalah

Faktor Bayes sangatlah berhubungan dengan distribusi prior, hal ini dikarenakan faktor Bayes didefinisikan dengan rasio dari distribusi marginal yang bergantung pada nilai-nilai absolut dari prior-prior W (Kass and Raftery, 1995).

(19)

2.1.6 Uji Asumsi Klasik 2.1.6.1 Normalitas

Gujarati (1995) menjelaskan bahwa pada regresi linear klasik diasumsikan bahwa tiap ` didistribusikan secara normal dengan ` ~b 0, c .

Salah satu cara untuk menguji asumsi kenormalan adalah dengan uji Kolmogorov-Smirnov.

Pengujian hipotesis yang digunakan adalah sebagai berikut : a. de : Data berdistribusi normal

d ∶ Data tidak berdistribusi normal b. Tingkat signifikasi h

c. Daerah kritis: de ditolak jika ij kl m > ik/opV d. Statistik uji

ij kl m = Zq |re − |, = 1,2, … , s.

dengan,

re : fungsi distribusi frekuensi kumulatif relatif dari distribusi teoritis di

bawah de.

: distribusi frekuensi kumulatif pengamatan sebanyak sampel. e. Kesimpulan : Jika de ditolak maka data tidak berdistribusi normal.

2.1.6.2 Heteroskedastisitas

Uji heterokedastisitas bertujuan untuk mengetahui apakah variansi ` konstan. Pendeteksian kesamaan variansi dapat dilakukan dengan membuat plot sisa terhadap t(. Plot yang diperoleh seharusnya tidak menghasilkan pola tertentu dan terkumpul di sekitar garis lurus yang melalui titik nol.

Montgomery dan Peck (1992) menggambarkan beberapa plot sisa terhadap t( sebagai berikut

(20)

9

(a) (b)

(c) (d)

Gambar 2.1 Pola plot residu terhadap t(

Jika hasil plot mirip pola pada Gambar 2.1a maka berarti asumsi homogenitas variansi dipenuhi karena titik tersebar. Pada Gambar 2.1b menunjukkan bahwa titik tersebar dengan variansi tidak konstan (heteroskedastisitas). Pola pada Gambar 2.1c seharusnya tidak akan muncul kecuali kalau ada kesalahan dalam perhitungan. Pola Gambar 2.1d menunjukkan model yang digunakan kurang tepat, atau perlu dilakukan transformasi.

2.1.6.3 Mutikolinearitas

Menurut Montgomery dan Peck (1992), salah satu cara mendeteksi adanya multikolinearitas dalam model adalah dengan nilai tolerance dan VIF (Variance Inflation Factors). Matriks u = A adalah matriks untuk mendeteksi adanya multikolinearitas dengan u99 merupakan diagonal matriks u yang dapat ditulis

vwr9= u99 = 1 − x1 9

` `

` `

t( t(

t( t(

i

(21)

dengan x9 adalah nilai koefisien determinasi atau x ketika yang diregresikan dengan variabel bebas selain . vwr9 adalah faktor perubahan variansi dalam variabel bebas ke-j. Nilai vwr > 10 menunjukkan multikolinearitas yang kuat.

2.1.6.4 Autokorelasi

Autokorelasi adalah suatu keadaan kesalahan gangguan dari periode tertentu berkorelasi dengan kesalahan gangguan dari periode sebelumnya. Jika kesalahan gangguan periode y dengan y − 1 berkorelasi maka terjadi korelasi tingkat pertama. Autokorelasi dapat dideteksi dengan berbagai cara antara lain dengan uji Durbin Watson. Langkah-langkah pengujian autokorelasi dengan Durbin Watson adalah sebagai berikut (Gujarati, 1995):

1. Melakukan regresi kuadrat terkecil biasa dan memperoleh residu 2. Menghitung nilai \ (statistik Durbin Watson ), dengan

\ =∑k $k− $$kA

k k

3. Mencari nilai \6 (batas bawah Durbin Watson) dan \z (batas atas Durbin Watson) untuk ukuran sampel dan banyaknya variabel independen tertentu. 4. Jika de adalah tidak terdapat autokorelasi positif, maka jika

\ < \6: menolak de \ > \z:tidak menolakde

\6 ≤ \ ≤ \z: pengujian tidak meyakinkan

5. Jika de adalah tidak terdapat autokorelasi negatif, maka jika \ > 4 − \6:menolakde

\ < 4 − \z: tidak menolak de

4 − \z≤ \ ≤ 4 − \6: pengujian tidak meyakinkan

6. Jika de adalah tidak terdapat autokorelasi positif atau negatif, maka jika \ < \6: menolak de

\ > 4 − \6: menolak de

\z < \ < 4 − \z: tidak menolak de \6 ≤ \ ≤ \z: pengujian tidak meyakinkan

(22)

11

2.1.7 Analisis Model Regresi 2.1.7.1 Uji Serempak (Uji F)

Menurut Supranto (1995) uji serempak dilakukan untuk mengetahui apakah variabel independen berpengaruh secara bersama-sama terhadap variabel dependen. Sebelum pengujian hipotesis akan dicari perumusan rj kl mterlebih dahulu

rj kl m =†‡x/ ^ − 1†‡ / s − ^ =x‡xx‡

dengan,

x‡x: Rataan Kuadrat Regresi x‡ : Rataan Kuadrat Sisa

Pengujian hipotesis yang digunakan adalah sebagai berikut :

a. de : ‰ = ‰ = ⋯ = ‰ = 0 (variabel independen secara bersama-sama tidak mempunyai pengaruh yang signifikan terhadap variabel dependen)

d ∶ ‰9 ≠ 0, untuk 8 = 1, 2, … , (variabel independen secara bersama-sama

mempunyai pengaruh yang signifikan terhadap variabel dependen) b. Tingkat signifikasi h

c. Daerah kritis: de ditolak jikarj kl m > rŠ,‹A , A‹ d. Statistik uji

rj kl m =x‡xx‡

e. Kesimpulan : Jika de ditolak maka variabel independen secara bersama-sama mempunyai pengaruh yang signifikan terhadap variabel dependen.

2.1.7.2 Uji Parsial (Uji t)

Menurut Supranto (1995) uji parsial dilakukan untuk mengetahui pengaruh variabel independen secara individual terhadap variabel dependen, dengan menganggap variabel independen lainnya konstan.

Pengujian hipotesis yang digunakan adalah sebagai berikut :

a. de : ‰9= 0, untuk 8 = 1, 2, … , (tidak ada pengaruh yang signifikan antara variabel independen ke-j terhadap variabel dependen)

(23)

d ∶ ‰9 ≠ 0, untuk 8 = 1, 2, … , (ada pengaruh yang signifikan antara variabel indenpenden ke-j terhadap variabel dependen)

b. Tingkat signifikasi h

c. Daerah kritis, de ditolak jika yj kl m > yŠ/ , A‹ atau −yj kl m < yŠ/ , A‹ d. Statistik uji

yj kl m = : ‰‰9

9

dengan,

‰9 = koefisien regresi independen 9

:)‰9* = sesatan standar dari koefisien regrsi ‰9.

e. Kesimpulan : Jika de ditolak maka ada pengaruh yang signifikan antara variabel independen ke-j terhadap variabel dependen.

2.2 Kerangka Pemikiran

BIC merupakan suatu metode pemilihan model dengan menerapkan beberapa teorema Bayesian dan MLE dalam penurunan rumusnya. Selanjutnya hasil penurunan rumus yang diperoleh diterapkan dalam regresi linear. Rumus yang diperoleh untuk regresi diterapkan untuk menentukan model terbaik pada suatu data. Data diregresikan dengan regresi linear kemudian sesatan model diuji dengan asumsi klasik regresi linear yaitu normalitas, tidak terdapat multikolinearitas, tidak terdapat heteroskedastisitas dan tidak terdapat autokorelasi. Kemudian model dipilih sebagai model terbaik menurut metode BIC.

(24)

13 BAB III

METODE PENELITIAN

Pada penelitian ini, metode yang digunakan adalah studi literatur dan penerapan kasus, dengan pengumpulan bahan melalui buku-buku referensi dan karya ilmiah yang meliputi hasil-hasil penelitian dan jurnal. Adapun langkah penelitian sebagai berikut.

1. Menurunkan rumus Bayesian Information Criterion (BIC) sehingga diperoleh bentuk umum BIC.

2. Menentukan rumus BIC berdasarkan bentuk umum yang diperoleh pada langkah nomor 1 untuk memilih model regresi terbaik.

3. Menentukan data yang digunakan kemudian uji residu data dengan uji asumsi klasik regresi linear

4. Pilih model regresi terbaik dengan metode BIC, dimana nilai BIC dihitung dengan cara

a. Hitung nilai dari masing-masing kombinasi model b. Hitung nilai ln dari masing-masing kombinasi model c. Hitung nilai ln2

d. Hitung nilai BIC dari masing-masing kombinasi model yang diperoleh dari

= ln2 + ln + ln + 1

e. Pilih model dengan nilai BIC terkecil sebagai model terbaik

(25)

14

BAB IV

PEMBAHASAN

BIC merupakan metode pemilihan model terbaik dari beberapa kandidat model. Konsep BIC pertama kali diperkenalkan oleh Schwarz (1978), BIC yang dikembangkan oleh Schwarz ini menggunakan beberapa teorema Bayesian, sehingga BIC dikenal juga dengan Schwarz’s Bayesian Information Criterion (SBIC) dan ada juga yang menyebutnya dengan Schwarz Bayesian Criterion (SBC). Metode pemilihan model dengan menggunakan BIC didasarkan pada metode MLE dan teorema Bayesian. Dalam memilih model terbaik dengan metode BIC dipilih model dengan nilai BIC terkecil. Semakin kecil nilai BIC semakin baik modelnya. Hal ini dikarenakan dengan meningkatnya akan meningkatkan nilai BIC. Oleh karena itu, dipilih nilai BIC terkecil (Fathurahman, 2009).

4.1 Bayesian Information Criterion (BIC)

(26)

15

dimana merupakan distribusi marginal dari .

Berdasarkan data sampel, probabilitas posterior model dapat ditulis

! | =" # $ %&|' ( %&| )%&

* ' (4.1).

Dalam pemilihan model dengan aturan Bayes, akan memilih model yang memberikan probabilitas posterior terbesar. Meminimumkan nilai −2ln.! | / sebagai lawan memaksimumkan ! | . Sehingga diperoleh

−2ln.! | / = 2ln. / − 2ln. / − 2ln0# | g | 2

3 4.

Karena nilai suatu konstanta tetap untuk model , maka untuk tujuan model seleksi bentuk 2 5 dapat disederhanakan, sehingga diperoleh

−2ln ! | )∝ −2ln( )−2ln0#3 | g | 2 4 = 7 | (4.2).

Pada bentuk # L | g | 23 , dengan mengambil ekspansi deret taylor orde ke-2 dari log Likelihood di sekitar , bentuk ln | dapat ditulis

ln | ≈ ln . : / + . − /<ln . : /

Ι>. , / merupakan rata-rata pengamatan matriks informasi Fisher.

Dengan mengubah bentuk persamaan (4.3) ke dalam bentuk anti ln menjadi

(27)

Karena g | 2 = 1 maka persamaan (4.5) dapat ditulis menjadi model , persamaan (4.6) dapat disederhanakan menjadi

7 | ∝ −2ln | +Y ln 5

Model yang dipilih dengan persamaan (4.7) adalah model yang memberikan nilai BIC minimum (Cavanaugh, J.2005).

(28)

17

4.2 BIC dalam Regresi

Metode BIC didasarkan pada metode MLE. Metode MLE ini digunakan untuk mencari fungsi maksimum likelihood dari model. Sebelum melakukan pemilihan model dalam kasus regresi linear dengan metode BIC, residu data harus memenuhi asumsi klasik regresi linear.

Untuk mendapatkan model terbaik perlu dilihat semua kombinasi yang mungkin dari variabel independen yang berpengaruh terhadap model dan variabel dependennya. Dari kombinasi yang diperoleh tersebut dipilih model terbaik. Kombinasi yang paling baik untuk dijadikan model regresi terbaik dapat dilihat dari nilai BIC yang diperoleh. Nilai BIC yang dipilih adalah nilai BIC terkecil diantara beberapa kombinasi tersebut. Nilai BIC terkecil yang dimiliki model berarti variansinya juga terkecil diantara model yang lain. Ini berarti bahwa residu model yang dipilih kecil sehingga model cukup akurat. Untuk menentukan nilai BIC dalam model regresi linear perlu diketahui rumus yang digunakan. Penurunan rumus tersebut dapat diketahui berdasarkan penjelasan di bawah ini.

Bentuk . : / dalam persamaan (4.7) disubtitusikan dengan fungsi maksimum likelihood untuk regresi linear yaitu Z| , [, sehingga diperoleh

7\] = −2ln Z| , [, + Y ln 5 (4.8) dengan,

Z| , [, : fungsi maksimum likelihood Y : banyaknya parameter

5 : banyaknya data.

Karena residu data mengikuti distribusi normal maka dapat dituliskan bentuk umum fungsi likelihoodnya, sebagai berikut

Z| , [, = ∏ab √ "`Ac Y d−

efU'fgA

`A h (4.9)

(29)

Selanjutnya persamaan (4.7) diubah ke dalam bentuk ln sehingga

Kemudian mengalikan kedua ruas dengan U diperoleh

U [ = U Z.

Sehingga diperoleh persamaan untuk [> sebagai berikut [> = U Z.

Sehingga diperoleh persamaan untuk sebagai berikut = [ Z − [ Z − [ ].

(30)

19

Persamaan (4.10) disubtitusikan ke dalam persamaan (4.8), maka diperoleh

7\]opqopra = −2 s−52 ln 2 −52 ln2 MZ1 Z − 2[′ ′Z + [′ ′ [Nt + Y ln 5

= 5 ln 2 + 5 ln +`A[ZZ − 2[′ ′Z + [ [] + Y ln 5 (4.12)

Dengan mensubtitusikan persamaan (4.11) ke dalam persamaan (4.12), maka diperoleh memiliki nilai BIC yang terkecil sesuai persamaan (4.14).

4.3 Contoh Aplikasi Pemilihan Model Regresi Terbaik dengan BIC Metode BIC dapat diterapkan dalam regresi linear. Sebagai penerapan dari metode BIC digunakan data dari Badan Pusat Statistik tahun 2009 dengan produksi padi sebagai Z, jumlah benih sebagai , luas panen sebagai , dan produktivitas padi sebagai w, yang dapat dilihat pada lampiran 1. Data diuji apakah ada pelanggaran asumsi klasik yaitu normalitas, tidak terdapat multikolinearitas, tidak terdapat heteroskedastisitas dan tidak terdapat autokorelasi. Data diregresikan dengan regresi linear biasa, diperoleh persamaan Z = −927579.8 + 5.466520 + 5.496041 + 15769.99 w(lampiran5). Kemudian residu dari persamaan regresi linear tersebut diuji memenuhi asumsi normalitas, multikolinearitas heteroskedastisitas dan autokorelasi.

(31)

1. Asumsi Normalitas

Pengujian kenormalan digunakan untuk mengetahui apakah residu berdistribusi normal atau tidak. Plot kenormalan untuk residu dari model produksi padi disajikan pada gambar 4.1.

Gambar 4.1 Plot probabilitas dari residu

Gambar 4.1 terlihat bahwa pola penyebaran residu mengikuti garis lurus, ini berarti asumsi kenormalan pada residu dipenuhi. Untuk menguji kenormalan dapat juga digunakan uji Kolmogorov-Smirnov sebagai berikut

a. •3 ∶ residu berdistribusi normal • ∶ residu tidak berdistribusi normal b. Tingkat signifikasi • = 0.05

c. Daerah kritis, •3 ditolak jika p-value < • = 0.05 d. Statistik uji

Dari Gambar 4.1 terlihat bahwa p-value = 0.095 e. Kesimpulan

Karena nilai p-value = 0.095 > 0.05 maka •3 tidak ditolak yang berarti residu berdistribusi normal.

(32)

21

2. Uji Multikolinearitas

Uji multikolinieritas bertujuan untuk mengetahui apakah terdapat korelasi antara variabel independen dalam model regresi. Berdasarkan perhitungan nilai VIF sesuai lampiran 2 didapatkan,

Tabel.4.1 Hasil Uji Multikolinearitas

No Variabel VIF Kesimpulan

1 1.196 Tidak terdapat multikolinearitas

2 1.488 Tidak terdapat multikolinearitas

3 w 1.336 Tidak terdapat multikolinearitas

Berdasarkan tabel 4.1 diperoleh nilai VIF semua variabel independen kurang dari 10 sehingga asumsi tidak terdapat multikolinearitas terpenuhi.

3. Uji Heteroskedastisitas

!" ! #! $%

Gambar 4.2.Plot residu denganZ

Berdasarkan gambar 4.2 menunjukkan plot tidak membentuk pola tertentu sehingga asumsi tidak terdapat heteroskedastisitas terpenuhi.

4. Uji Autokorelasi

Autokorelasi diartikan sebagai korelasi antara anggota serangkaian observasi yang diurutkan menurut waktu. Uji non autokorelasi dapat dideteksi dengan uji Durbin Watson (d).

(33)

a. •3 ∶„ = 0, artinya tidak ada autokorelasi dapat disimpulkan asumsi tidak terdapat autokorelasi terpenuhi.

Selanjutnya dilakukan pengujian parameter yaitu uji simultan dan uji parsial. Uji simultan untuk model dengan tiga variabel independen yaitu, , dan w adalah

a. •3∶[a = 0, • = 1,2,3 (variabel independen , dan w secara simultan tidak berpengaruh terhadap variabel dependen Y)

b. • ∶ [a ≠ 0, • = 1,2,3.(variabel independen , dan w secara simultan berpengaruh terhadap variabel dependen Y)

c. Tingkat signifikasi • = 0.05 terhadap variabel dependen Y.

(34)

23

Sisa 29 3.11658E+12 1.07468E+11

Total 32 2.93831E+14

Kemudian dilakukan uji parsial untuk mengetahui ada atau tidaknya pengaruh , , dan w terhadap Y. Uji parsial untuk model dengan tiga variabel independen yaitu, , dan w adalah

a. •3 : [•= 0, untuk – = 1, 2,3 (tidak ada pengaruh yang signifikan antara variabel independen ke-j terhadap variabel dependen)

• ∶ [• ≠ 0, untuk – = 1, 2,3 (ada pengaruh yang signifikan antara variabel indenpenden ke-j terhadap variabel dependen)

b. Tingkat signifikasi • = 0.05

c. Daerah kritis, •3 ditolak jika —Œa•Ž q > —‘/ , Uv atau −—Œa•Ž q < —‘/ , Uv berarti bahwa tidak ada pengaruh yang signifikan dari variabel independen

terhadap variabel dependen Z.

b. Karena —Œa•Ž q= 40.98 > —3.3 ’, “ = 2.045 maka •3 ditolak yang berarti bahwa ada pengaruh yang signifikan dari variabel independen terhadap variabel dependen Z.

c. Karena —Œa•Ž q = 2.26 > —3.3 ’, “ = 2.045 maka •3 ditolak yang berarti bahwa ada pengaruh yang signifikan dari variabel independen w terhadap variabel dependen Z.

(35)

Tabel 4.3 Hasil Uji t kombinasi model dan ada 3 kombinasi model yang akan dipilih.

Nilai BIC dalam tabel 4.4 menurut rumus pada persamaan (4.14) dapat dihitung dengan:

a. Hitung nilai u dari masing-masing kombinasi model b. Hitung nilai v&ln5 dari masing-masing kombinasi model c. Hitung nilai ln2

d. Hitung nilai BIC dari masing-masing kombinasi model yang diperoleh dari ln2 + ln u +v&ln5 + 1

e. Pilih model dengan nilai BIC terkecil.

Tabel 4.4 Nilai BIC dari Model

(36)

25

Model terbaik menurut metode BIC adalah model dengan nilai BIC terkecil. Berdasarkan tabel 4.4 model yang memiliki nilai BIC terkecil adalah model yang dipengaruhi oleh variabel independen dan w yaitu variabel independen luas panen dan produktivitas padi. Model tersebut mempunyai BIC sebesar 28.4957. Sehingga berdasarkan output minitab pada lampiran 5 diperoleh persamaan Z = −938452 + 5.56 + 16454 w. Hal ini berarti, untuk setiap kenaikan satu hektar luas panen menaikkan nilai produksi padi sebesar 5.56 ton dan untuk setiap kenaikan satu kuintal/hektar produktivitas padi menaikkan nilai produksi padi sebesar 16454 ton. Jika dan w bernilai nol maka produksi padi sebesar −938452 ton. Berarti, jika dan w bernilai nol maka produksi padi akan mengalami kerugian sebesar 938452 ton.

(37)

26

BAB V

PENUTUP

5.1

Kesimpulan

Berdasarkan hasil dari pembahasan pada bab 4 dapat ditarik suatu kesimpulan

sebagai berikut :

1.

Bentuk umum

BIC

yang dirumuskan dengan menerapkan teorema Bayes dalam

mencari probabilitas posterior model

,

dapat ditulis

|

= −2ln

+

ln

.

2.

Model regresi terbaik dengan metode

BIC

diperoleh dengan memilih model yang

memiliki nilai

BIC

terkecil. Nilai

BIC

dalam regresi dihitung dengan

= ln2 + ln

!

"

+

#$

%

ln + 1

.

5.2

Saran

BIC

merupakan salah satu metode pemilihan model yang memiliki hasil

cukup akurat. Bagi pembaca yang tertarik pada pemilihan model terbaik dengan

BIC

dapat mengembangkan penggunaan

BIC

dalam analisis runtun waktu.

(38)

27

DAFTAR PUSTAKA

Bain, L.J, and Engelhardt, M. (1992).

Introduction to Probability and Mathematical

Statistic, Second ed.

,

Duxbury Press, Inc,

California.

Cavanaugh, J. (2005)

Model Selection, The Schwarz Information criterion (SIC).

Department Biostatistics. The University of Lowa. google search:Bayesian

Information Criterion+BIC.

Fathurahman, M. (2009)

Pemilihan Model Regresi Terbaik Menggunakan Metode

Akaike’s Information Criterion dan Schwarz Information Criterion

. Jurnal

Informatika Mulawarman. Vol 4. 37– 41.

Gujarati, D. (1995).

Basic Econometrics.

McGraw Hill Inc., Singapore.

Kass, R. E. and Raftery, A. E. (1995)

Bayes Factor

. Journal of The American

Statistical Associations. Vol. 90. 773-795.

Larson, H. J. (1974).

Introduction to Probability Theory and Statistical Inference.

John Wiley & Sons, Inc

, New York.

Montgomery, D.C, and Peck, E.A. (1992).

Introduction to Linear Regression

Analysis second edition.

John Wiley & Sons, Inc, New York.

Neter, J and Wasserman,W. (1996).

Applied Linear Regression Models.

The

McGraw-Hill Companies.

Schwarz, G. (1978).

Estimating the Dimension of Model

. Annals of Statistic 6.

Sembiring, R.K. (1995).

Analisis Regresi

. Penerbit ITB. Bandung.

Supranto, J. (1995).

Ekonometrika Buku I

. LPFE-UI1. Jakarta.

Walpole, R. E. dan Myers, R. H.(1995).

Ilmu Peluang dan Statistika untuk Insinyur

dan Ilmuwan.

Terjemahan R. K. Sembiring. Edisi Kedua. ITB. Bandung.

Gambar

Gambar 4.2 Plot residu dengan &�     .............................................……….
Tabel 4.1 Hasil Uji Multikolinearitas  …………............…………….…
Gambar 2.1 Pola plot residu terhadap t(�
Gambar 4.1 Plot probabilitas dari residu
+4

Referensi

Dokumen terkait

( ) , memilih titik knot optimal dengan kriteria Generalized Cross Validation (GCV), mencari nilai parameter penghalus dan menentukan model regresi terbaik dengan

Berdasarkan kriteria tersebut, model penduga volume yang telah disusun tidak konsisten sebagai model terbaik untuk keseluruhan kriteria yang digunakan sehingga pemilihan model

Perencanaan adalah proses pemilihan dan penetapan tujuan, strategi, metode, anggaran, dan standar (tolak ukur) keberhasilan suatu kegiatan. Kemudian memilih strategi

Pemilihan model terbaik dilakukan untuk mendapatkan model terbaik dari kedua model regresi yang dibandingkan untuk mengatasi kasus overdispersi pada model regresi

Dalam penelitian ini dilakukan pemilihan model regresi Linier multivariat terbaik dengan kriteria Mean Square Error (MSE) dan Akaike’s information Criterion

Berdasarkan kriteria tersebut, model penduga volume yang telah disusun tidak konsisten sebagai model terbaik untuk keseluruhan kriteria yang digunakan sehingga pemilihan model

Berganda Penduga MKT dalam notasi Matriks dantematik VI Analisis Regresi Berganda Asumsi, struktur ragam peragam penduga Kriteria pemilihan model terbaik, R2, adj R2, AIC, FPE, SBC,

Berdasarkan hasil penelitian diperoleh model Regresi Cox dengan kriteria pemilihan model terbaik AIC adalah dimana ht adalah fungsi hazard yaitu fungsi yang menyatakan peluang seorang