• Tidak ada hasil yang ditemukan

BAB 2 TINJAUAN PUSTAKA

2.2 Metode Bayesian

Metode Bayesian diperkenalkan dan dikembangkan pertama kali oleh Thomas Bayes. Dalam implementasinya, metode Bayesian banyak digunakan untuk analisis model statistik yang kompleks (Carlin dan Chib, 1995) seperti model hirarki ini (Raudenbush dan Bryk, 2002). Metode ini mempunyai cara pandang yang berbeda dengan metode statistik klasik. Perbedaan mendasar antara keduanya yaitu metode statistik klasik menganggap parameter dalam model bernilai tetap/tunggal. Sementara metode Bayesian memandang seluruh parameter yang tidak diketahui dalam model sebagai suatu variabel random yang dikarakteristikkan oleh distribusi prior parameter tersebut (Ntzoufras, 2009).

11

Bayes, yang memadukan secara formal distribusi prior dan informasi data (fungsi

likelihood) menjadi distribusi posterior. Box dan Tiao (1973) dalam bukunya

memaparkan jika Y adalah variabel random yang mengikuti pola distribusi tertentu dengan fungsi densitas (PDF), ๐‘“(๐ฒ|๐›‰), dengan ๐›‰ adalah vektor parameter berukuran d atau ๐›‰ = (๐œƒ1 ๐œƒ2 โ€ฆ ๐œƒ๐‘‘)๐‘‡ dan ๐ฒ = (๐‘ฆ1 ๐‘ฆ2 โ€ฆ ๐‘ฆ๐‘›)๐‘‡ adalah vektor sampel berukuran n yang berdistribusi identik dan independen, maka joint

distribution dari ๐›‰ dan ๐ฒ dapat dituliskan dalam bentuk persamaan (2.4):

๐‘“(๐ฒ, ๐›‰) = ๐‘“(๐ฒ|๐›‰)๐‘“(๐›‰) = ๐‘“(๐›‰|๐ฒ)๐‘“(๐ฒ). (2.4)

Berdasarkan teorema Bayes, distribusi posterior dari ๐›‰, ๐‘“(๐›‰|๐ฒ), dapat diturunkan dari persamaan (2.4) sehingga menjadi,

๐‘“(๐›‰|๐ฒ) =๐‘“(๐ฒ|๐›‰)๐‘“(๐›‰)

๐‘“(๐ฒ) , (2.5)

Dengan ๐‘“(๐ฒ|๐›‰) adalah fungsi likelihood data yang berisi informasi sampel data dan dapat ditulis, ๐‘“(๐ฒ|๐›‰) = โˆ๐‘›๐‘–=1๐‘“(๐‘ฆ๐‘–|๐›‰). Sedangkan ๐‘“(๐›‰) adalah fungsi distribusi

prior dari parameter ๐›‰ dan ๐‘“(๐ฒ) adalah fungsi konstanta densitas, di mana:

๐‘“(๐ฒ) = {

โˆซ โ‹ฏ โˆซ ๐‘“(๐ฒ|๐›‰)๐‘“(๐›‰) ๐‘‘๐œƒ1โ€ฆ ๐‘‘๐œƒ๐‘‘, jika ๐›‰ kontinu โˆ‘ ๐‘“(๐ฒ|๐›‰)๐‘“(๐›‰) , jika ๐›‰ diskrit.

Sehingga persamaan (2.5) dapat dinyatakan dalam bentuk proporsional sebagai berikut:

๐‘“(๐›‰|๐ฒ) โˆ ๐‘“(๐ฒ|๐›‰)๐‘“(๐›‰), (2.6)

atau juga biasa ditulis, Posterior ๏‚ต Likelihood x Prior.

Berdasarkan persamaan (2.6) terlihat bahwa distribusi posterior dari ๐›‰ diperoleh dari prior ๐›‰ yang di-update dengan menggunakan informasi data sampel yang terdapat dalam likelihood data. Oleh karena itu, Box dan Tiao (1973) menyatakan bahwa metode Bayesian didasarkan pada distribusi posterior yang merupakan kombinasi antara distribusi prior dan data observasi yang digunakan untuk membangun fungsi likelihood.

2.2.1 Distribusi Prior

Penentuan prior merupakan bagian yang sangat penting dalam metode Bayesian karena mempengaruhi distribusi posterior. Oleh karena itu distribusi prior

12

harus dilakukan dengan teliti dan tepat. Terdapat beberapa jenis distribusi prior yang dikenal dalam metode Bayesian, yaitu:

1. Conjugate prior dan non conjugate prior, yaitu prior ditentukan sesuai dengan pola likelihood data (Box dan Tiao, 1973).

2. Proper prior atau improper prior (Jeffreys prior), yaitu prior yang terkait dengan pemberian bobot atau densitas di setiap titik sehingga terdistribusi secara uniform atau tidak (Ntzoufras, 2009).

3. Informative prior atau non informative prior, yaitu prior yang berkaitan dengan ketersediaan pengetahuan atau informasi sebelumnya mengenai pola distribusi data (Box dan Tiao, 1973).

4. Pseudo prior, yaitu prior ditentukan berdasarkan hasil elaborasi dari metode klasik. Misalnya prior ditentukan berdasarkan hasil dari estimasi parameter model regresi dengan Ordinary Least Squares/OLS (Carlin dan Chib, 1995).

2.2.2 Markov Chain Monte Carlo (MCMC)

Pada penggunaan metode Bayesian, ada kalanya dihadapkan pada kondisi di mana penentuan distribusi posterior sulit dilakukan karena melibatkan persamaan integral yang sangat kompleks. Misalnya pada model yang kompleks seperti model hirarki dengan banyak parameter, maka untuk mendapatkan distribusi posterior parameter diperlukan proses integral dengan dimensi yang besar dan waktu yang cukup lama. Salah satu solusi untuk mengatasi masalah ini adalah dengan pendekatan numerik, yaitu MCMC (Carlin dan Chib, 1995). Pendekatan MCMC sangat efektif untuk mengurangi beban komputasi dalam menyelesaikan persamaan integrasi yang kompleks. Selain itu, metode ini memungkinkan proses simulasi dengan mengambil sampel random dari model stokastik yang sangat rumit.

Ide dasar dari MCMC yakni membangkitkan data sampel dari distribusi

posterior sesuai proses markov chain dengan menggunakan simulasi Monte Carlo

secara iteratif sehingga diperoleh kondisi yang konvergen terhadap posterior (Ntzoufras, 2009). Kondisi seperti tersebut merupakan kondisi stasioner atau equilibrum. Selanjutnya, sampel parameter dalam markov chain diambil setelah kondisi stasioner tercapai sehingga sampel yang terambil dijamin merupakan sampel dari distribusi posterior dari parameter tersebut.

13

Iriawan (2000) berpendapat bahwa terdapat dua kemudahan yang diperoleh dari penggunaan metode MCMC pada analisis Bayesian. Pertama, metode MCMC dapat menyederhanakan bentuk integral yang kompleks dengan dimensi besar menjadi bentuk integral yang sederhana dengan satu dimensi. Kedua, estimasi densitas data dapat diketahui dengan cara membangkitkan suatu rantai markov yang berurutan sebanyak M. Langkah-langkah mendapatan posterior dengan menggunakan MCMC adalah sebagai berikut (Congdon, 2007):

1. Menentukan initial value (nilai awal) untuk tiap parameter model dengan memperhatikan karakteristik datanya.

2. Membangkitkan C sampel {๐›‰(1), ๐›‰(2), โ€ฆ , ๐›‰(๐‘ƒ)} dari distribusi posterior ๐‘“(๐›‰|๐’š) secara full conditional.

3. Memonitor konvergensi algoritma, jika kondisi konvergensi tidak tercapai, maka sampel perlu dibangkitkan lebih banyak.

4. Menentukan dan membuang B sampel pertama (burn in period) untuk menghindari pengaruh nilai awal.

5. Mengambil sejumlah M-B sampel dari distribusi posterior yaitu {๐›‰(๐ต+1), ๐›‰(๐ต+2), โ€ฆ , ๐›‰(๐‘ƒ)}.

6. Membuat plot distribusi posterior.

7. Mendapatkan ringkasan distribusi prior (rata-rata, median, standar deviasi, kuantil, dan korelasi).

2.2.3 Gibbs Sampling

Implementasi metode MCMC untuk analisis Bayesian memerlukan algoritma sampling yang tepat untuk mendapatkan sampel dari suatu distribusi. Algoritma yang sering digunakan sebagai pembangkit variabel random dalam MCMC adalah Gibbs

Sampling (Gelman dkk, 2014). Gibbs sampling dapat didefinisikan sebagai suatu

teknik simulasi untuk membangkitkan variabel random dari suatu fungsi distribusi tertentu tanpa harus menghitung fungsi densitasnya (Casella dan George, 1992).

Gibbs sampler merupakan generator yang sangat efisien sehingga sering

digunakan sebagai generator variabel random pada analisis data yang menggunakan MCMC. Proses ini dilakukan dengan mengambil sampel dengan cara

14

membangkitkan rangkaian gibbs variabel random berdasarkan sifat-sifat dasar proses Markov Chain. Dalam menjalankan program yang menggunakan rantai

markov dilakukan pada kondisi bersyarat penuh. Ini merupakan salah satu

kelebihan dari Gibbs sampling karena variabel random tersebut dibangkitkan dengan menggunakan konsep distribusi unidimensional yang terstruktur sebagai distribusi full conditional. Gibbs sampling sangat berguna dalam mengestimasi suatu parameter dalam suatu model kompleks yang mempunyai tingkat kerumitan dalam proses integritasi yang kompleks pula dan sulit diselesaikan secara analitis. Ntzoufras (2009) menjelaskan algoritma Gibbs Sampling sebagai berikut, 1. Tetapkan nilai awal parameter ๐›‰ pada t = 0, sehingga ๐›‰(0)= (๐œƒ1(0) โ€ฆ ๐œƒ๐‘‘(0))๐‘‡. 2. Untuk t = 1, โ€ฆ , M, ulangi langkah:

a. Tentukan ฮธ = ฮธ(t-1).

b. Untuk s = 1, 2, โ€ฆ , d, update ฮธs dari ๐œƒ๐‘  ~ ๐‘“(๐œƒ๐‘ |๐›‰\๐‘ , ๐ฒ).

c. Tentukan ฮธ(t) = ฮธ dan gunakan untuk membangkitkan iterasi ke t+1. Berikut adalah proses sampling untuk mendapatkan nilai ฮธ(t),

๐œƒ1(๐‘ก) dari ๐‘“ (๐œƒ1|๐œƒ2(๐‘กโˆ’1), ๐œƒ3(๐‘กโˆ’1), โ€ฆ , ๐œƒ๐‘‘(๐‘กโˆ’1), ๐ฒ), ๐œƒ2(๐‘ก) dari ๐‘“ (๐œƒ2|๐œƒ1(๐‘ก), ๐œƒ3(๐‘กโˆ’1), โ€ฆ , ๐œƒ๐‘‘(๐‘กโˆ’1), ๐ฒ),

๐œƒ๐‘ (๐‘ก) dari ๐‘“ (๐œƒ๐‘ |๐œƒ1(๐‘ก), ๐œƒ2(๐‘กโˆ’1), โ€ฆ , ๐œƒ๐‘ โˆ’1(๐‘ก), ๐œƒ๐‘ +1(๐‘กโˆ’1), โ€ฆ , ๐œƒ๐‘‘(๐‘กโˆ’1), ๐ฒ),

๐œƒ๐‘‘(๐‘ก) dari ๐‘“ (๐œƒ๐‘‘|๐œƒ1(๐‘ก), ๐œƒ2(๐‘ก), โ€ฆ , ๐œƒ๐‘‘โˆ’1(๐‘กโˆ’1), ๐ฒ).

Pembangkitan nilai dari ๐‘“(๐œƒ๐‘ |๐›‰\๐‘ , ๐ฒ) = ๐‘“ (๐œƒ๐‘ |๐œƒ1(๐‘ก), ๐œƒ2(๐‘กโˆ’1), โ€ฆ , ๐œƒ๐‘ โˆ’1(๐‘ก), ๐œƒ๐‘ +1(๐‘กโˆ’1), โ€ฆ , ๐œƒ๐‘‘(๐‘กโˆ’1), ๐ฒ). adalah relatif mudah karena merupakan distribusi univariat dan dapat ditulis sebagai, ๐‘“(๐œƒ๐‘ |๐›‰\๐‘ , ๐ฒ) โˆ ๐‘“(๐›‰|๐ฒ), di mana semua variabel lain kecuali ฮธj adalah

konstan. Algoritma Gibbs Sampling dijelaskan dengan lebih sederhana melalui diagram alur pada Gambar 2.2 (Ismartini, 2013).

15

Gambar 2.2 Diagram Alur Algoritma Gibbs Sampling

Dokumen terkait