• Tidak ada hasil yang ditemukan

Bab III Analisis Rantai Markov

N/A
N/A
Protected

Academic year: 2021

Membagikan "Bab III Analisis Rantai Markov"

Copied!
10
0
0

Teks penuh

(1)

Bab III Analisis Rantai Markov

Sistem Markov (atau proses Markov atau rantai Markov) merupakan suatu sistem dengan satu atau beberapa state atau keadaan, dan dapat berpindah dari satu state ke state yang lain pada setiap tahapan waktu menurut probabilitas tertentu. Rantai Markov dapat digunakan untuk memodelkan permainan berulang. Analisis rantai Markov merupakan cara umum pemodelan permainan berulang, tetapi pemain hanya dapat membawa informasi dari permainan satu tahap sebelumnya.

Berbagai eksperimen telah menunjukkan bahwa serangkaian percobaan akan membentuk suatu proses trial independen, kemungkinan hasil dari tiap eksperimen akan sama dan muncul dengan probabilitas yang sama. Lebih jauh lagi, pengetahuan tentang hasil eksperimen sebelumnya tidak mempengaruhi hasil eksperimen berikutnya.

Teori probabilitas modern mempelajari proses percobaan dengan hasil percobaan sebelumnya mempengaruhi prediksi hasil percobaan berikutnya. Sebagai contoh, prestasi seorang mahasiswa dapat diprediksi berdasarkan hasil serangkaian ujian yang telah diselesaikan. Tetapi memperbolehkan generalitas seperti ini akan membuat hasil yang general sangat sulit dibuktikan. Pada tahun 1907, A.A. Markov memulai studi penting tentang rantai proses jenis baru. Dalam proses ini, hasil eksperimen yang diberikan dapat mempengaruhi hasil eksperimen berikutnya. Jenis proses ini disebut rantai Markov.

III.1 Menentukan Rantai Markov

Rantai Markov digambarkan sebagai berikut: terdapat satu set keadaan, S = {s1, s2, …, sr}. Proses berawal dari salah satu state atau keadaan ini dan bergerak secara berturut-turut dari satu keadaan ke keadaan lain. Setiap pergerakan disebut

step atau langkah. Jika rantai berada pada state si, maka kemudian akan bergerak ke state sj pada tahap berikutnya dengan probabilitas pij, dan probabilitas ini tidak bergantung pada state sebelum sekarang. Probabilitas pij disebut probabilitas

(2)

transisi. Proses dapat tetap berada pada state yang sama, dan hal ini muncul dengan probabilitas pii.

Contoh penggunaan rantai Markov adalah pada perkiraan cuaca. Misalkan di suatu daerah tidak pernah mendapatkan cuaca cerah dalam dua hari berturut-turut. Jika hari ini cuaca cerah, maka keesokan harinya kemungkinan akan turun hujan atau salju. Jika hari ini hujan atau bersalju, maka terdapat peluang yang sama untuk terjadi cuaca yang sama pada hari berikutnya. Perubahan cuaca menjadi hujan atau salju memiliki peluang yang sama untuk berubah menjadi cuaca cerah. Dengan informasi ini kita dapat membuat rantai Markov. Kondisi cuaca dibuat sebagai state yaitu hujan (R), cerah (N), dan salju (S). Dari informasi sebelumnya dapat ditentukan probabilitas transisi. Cara yang paling sesuai untuk merepresentasikan rantai Markov ini adalah dengan menggunakan array seperti di bawah ini.

III.2 Matriks Transisi

Entri pada baris pertama matriks P pada contoh sebelumnya merepresentasikan probabilitas untuk berbagai jenis cuaca sehari setelah hari hujan. Demikian pula entri pada baris kedua dan ketiga merepresentasikan berbagai jenis cuaca yang mengikuti hari cerah dan bersalju. Matriks persegi seperti ini disebut matriks transisi atau matriks probabilitas transisi.

Jika diberikan bahwa hari ini rantai berada pada state i, dan akan berada pada

state j dua hari yang akan datang, probabilitasnya ditunjukkan dengan p(2)ij. Pada contoh sebelumnya, dapat dilihat bahwa jika hari ini hujan, maka kejadian bahwa

(3)

3. besok dan lusa akan turun salju.

Probabilitas kejadian pertama merupakan hasil perkalian probabilitas kondisional dari probabilitas besok hujan jika diketahui hari ini hujan dengan probabilitas kondisional lusa turun salju jika diketahui besok hujan. Dengan menggunakan matriks transisi P, perkalian tersebut dapat ditulis sebagai p11p13. Dua kejadian lainnya juga dapat dinyatakan sebagai perkalian entri matriks P. Sehingga dapat dituliskan

p(2)13 = p11p13 + p12p23 + p13p33

Persamaan ini mengingatkan pada perkalian titik antara dua vektor; yaitu melakukan perkalian titik antara baris pertama matriks P dengan kolom ketiga matriks P. Secara umum, jika suatu rantai Markov memiliki state sebanyak r, maka p(2)ij

= r k kj ikp p 1 = .

Pembahasan berikutnya adalah tentang tingkah laku jangka panjang dari rantai Markov ketika berawal dari suatu state yang dipilih dengan distribusi probabilitas pada set keadaan, yang disebut vektor probabilitas. Suatu vektor probabilitas dengan r komponen merupakan vektor baris yang entrinya tidak negatif dan jumlahnya 1. Jika u merupakan vektor probabilitas yang merepresentasikan keadaan awal dari rantai Markov, maka komponen ke-i dari u merepresentasikan probabilitas rantai berawal dari keadaan si. Misalkan P merupakan matriks transisi dari suatu rantai Markov, dan u merupakan vektor probabilitas yang merepresentasikan distribusi awal, maka probabilitas rantai akan berada pada state i setelah n tahapan merupakan entri ke-i pada vektor u(n) = uPn.

Jika pada contoh sebelumnya digunakan vektor probabilitas awal u = (1/3 1/3 1/3), maka dapat dihitung distribusi keadaan pada hari ketiga sebagai berikut.

u(3) = uP3           406 , 0 203 , 0 391 , 0 406 , 0 188 , 0 406 , 0 391 , 0 203 , 0 406 , 0 = (1/3 1/3 1/3) = (0,401 0,188 0,401)

(4)

III.3 Rantai Markov Berabsorbsi

Suatu state penyerap (absorbing state) merupakan suatu keadaan dengan probabilitas keluar dari keadaan tersebut adalah nol. Suatu sistem Markov berabsorbsi merupakan suatu sistem Markov yang memuat minimal satu keadaan penyerap, dan memungkinkan untuk berpindah dari setiap keadaan non-absorbsi ke keadaan absorbsi dalam satu atau beberapa tahapan waktu. Dalam menganalisis suatu sistem berabsorbsi, keadaan diberi nomor sedemikian sehingga keadaan penyerap menjadi urutan terakhir. Matriks transisi P untuk sistem berabsorbsi akan tampak sebagai berikut:

P =      ] [ ] 0 [ ] [ ] [ I T S

I merupakan matriks identitas berukuran m x m (m adalah jumlah keadaan penyerap), S merupakan matriks persegi berukuran (n - m) x (n – m) dengan n merupakan jumlah total keadaan sehingga n-m adalah jumlah keadaan non-absorbsi, 0 merupakan matriks nol, dan T merupakan matriks berukuran (n – m) x m. Matriks S memberikan probabilitas transisi untuk pergerakan di antara keadaan non absorbsi. Matriks fundamental untuk sistem berabsorbsi adalah matriks yang didapatkan dari perhitungan berikut.

Q = (I – S)-1

Matriks ini diperlukan dalam perhitungan jumlah langkah yang dibutuhkan untuk mencapai keadaan penyerap. Sebuah contoh pembentukan matriks transisi pada rantai Markov berabsorbsi adalah sebagai berikut. Misalkan terdapat diagram transisi seperti gambar berikut.

(5)

Keadaan 3 dan 4 adalah keadaan penyerap (diberi urutan nomor terakhir), maka matriks transisi untuk sistem Markov berabsorbsi ini adalah seperti di bawah ini.

Untuk mendapatkan waktu absorbsi dalam sistem Markov berabsorbsi, dilakukan perhitungan matriks fundamental Q.

Q = (I – S)-1       =       − − 4 / 5 3 / 1 0 3 / 4 8 , 0 2 , 0 0 75 , 0 1 =

Jika berangkat dari keadaan i, maka jumlah tahapan yang diharapkan untuk mencapai state j sebelum absorbsi adalah entri ij dari matriks Q. Sebagai contoh, jika berangkat dari keadaan 2, dan ingin menuju keadaan 1 sebelum absorbsi, maka jumlah tahapan yang diharapkan adalah entri (2,1) dari matriks Q yaitu 1/3. Dengan kata lain, dari keadaan 2, diharapkan singgah di keadaan 1 dengan waktu rata-rata 1/3 kali sebalum absorbsi.

Perkalian matriks QT menghasilkan probabilitas berakhir di berbagai keadaan penyerap. Misalkan jika baris ke-i dari matriks QT adalah [x y z t], maka berawal dari keadaan i, terdapat probabilitas sebesar x berakhir di keadaan penyerap pertama, probabilitas sebesar y berakhir di keadaan penyerap kedua, dan seterusnya.Pada contoh sebelumnya, hasil perkalian matriks QT adalah

QT =       6 / 5 6 / 1 3 / 1 3 / 2

Entri baris kedua adalah [1/6 5/6], hal ini berarti jika berangkat dari keadaan 2, terdapat satu di antara enam kesempatan untuk berakhir di keadaan penyerap pertama yaitu keadaan 3, dan lima dari enam kesempatan berakhir di keadaan penyerap kedua yaitu keadaan 4.

(6)

Bab IV Replikator Dinamik

IV.1 Persamaan Replikator Waktu Diskrit

Persamaan replikator umumnya juga digunakan untuk menganalisis dinamik dari permainan berulang, khususnya di bidang biologi. Persamaan replikator untuk probabilitas pemain menggunakan strategi ke-i dituliskan sebagai

) ˆ (π π α − = i i i x x dengan xi i x

: probabilitas pemain menggunakan strategi ke-i : turunan waktu dari xi

α : koefisien untuk persamaan replikator πi

πˆ

: payoff untuk pemain yang menggunakan strategi ke-i : payoff rata-rata semua strategi

(= π1x1 + π2x2 + … + πnxn, untuk n strategi)

Tidak seperti pada bab sebelumnya, kali ini pemain dapat menggunakan strategi campuran, dan selama lelang berulang, probabilitas menggunakan setiap strategi berubah.

Asumsikan bahwa satu kali lelang merupakan satu tahapan waktu, sehingga suatu persamaan replikator waktu diskrit dapat diturunkan. Strategi diurutkan dari

payoff yang paling kecil, sehingga jika terdapat n strategi, maka π1 ≤ π2 ≤ … ≤ πn.

Selama lelang berulang, pemain yang menggunakan strategi ke-i dapat menyadari bahwa strategi ke-j lebih baik daripada strategi ke-i dan kemudian mengubah strateginya menjadi strategi ke-j. Probabilitas pemain mengubah strategi menjadi strategi ke-j pada lelang berikutnya diberikan oleh persamaan berikut:

pij = βxj(πj – πi) , jika πj > πi pij

β merupakan koefisien untuk persamaan replikator, nilainya harus cukup kecil = 0 , pada kondisi lainnya

(7)

dan semakin besar perbedaan antara πi dan πj, maka pemain akan lebih senang menggunakan strategi ke-j.

Jika diberikan probabilitas xi(t) yaitu probabilitas pemain menggunakan strategi ke-i pada saat t, dapat dituliskan:

xi(t + 1) = xi

− = =+ − 1 1 1 ) ( ) ( i j n i j ij i j jix t x t p p (t) + =

= =+ − − − + i j n i j j i j i j j i i i t x t x t x t x t x 1 1 ) ( ) ( ) ( ) ( ) ( ) ( ) ( β π π β π π =

= − + n j j i j i i t x t x t x 1 ) )( ( ) ( ) ( β π π = xi(t)+βxi(t)(πi −πˆ)

pji merupakan probabilitas berganti strategi dari strategi j ke strategi i (πj < πi), xj(t) adalah probabilitas pemain menggunakan strategi j pada saat t, pij adalah probabilitas berganti strategi dari i ke j (πj > πi), dan xi

IV.2 Aplikasi Replikator Dinamik dalam Lelang Berulang

(t) adalah probabilitas pemain menggunakan strategi i pada saat t.

Dengan menerapkan persamaan replikator waktu diskrit ini, keterbatasan rantai Markov dalam representasi perubahan strategi dapat diatasi.

Contoh perhitungan lelang berulang dengan menggunakan replikator dinamik ini telah diterapkan dalam penelitian tesis analisis teori permainan pada pasar listrik[]. Dalam model perhitungan, suatu perusahaan P0 mengumumkan keinginan untuk membeli listrik sebesar d MWh dengan harga maksimum yang diterima (P) sebesar 12. Dua perusahaan P1 dan P2 menawarkan untuk menjual listrik sebesar d MWh kepada P0. Kedua perusahaan ini memiliki kapasitas pembangkitan yang cukup untuk mensuplai energi listrik kepada P0. Biaya pembangkitan P1 dan P2 masing-masing adalah c1 = 5 dan c2 = 7. Harga penawaran masing-masing adalah p1 dan p2, asumsikan juga harga penawaran diskrit dengan interval 1. Maka harga penawaran yang bisa dilakukan P1 adalah

(8)

c1 + i (i= 1, 2, 3, 4, 5, 6), dan harga penawaran P2 adalah c2

2

1

p

+ i (i = 1, 2, 3, 4). Jika p1 = p2, P1 dan P2 masing-masing menjual sebesar d/2 MWh listrik kepada P0 dengan harga . Asumsikan biaya yang diperlukan untuk menjual d/2 MWh

listrik adalah 2 1 c dan 2 2 c

. Jika salah satu perusahaan menawarkan listrik dengan harga yang lebih rendah, maka perusahaan tersebut yang berhak menjual d MWh listrik kepada P0. Payoff yang didapatkan masing-masing pemain untuk setiap strategi adalah harga penawaran dikurangi dengan biaya pembangkitan. Dari permainan ini dapat dibuat matriks payoff permainan sebagai berikut.

Tabel IV. 1 Matriks Payoff Permainan Lelang

8 9 10 11 7 (2, 0) (2, 0) (2, 0) (2, 0) 8 (1.5, 0.5) (3, 0) (3, 0) (3, 0) 9 (0, 1) (2, 1) (4, 0) (4, 0) 10 (0, 1) (0, 2) (2.5, 1.5) (5, 0) 11 (0, 1) (0, 2) (0, 3) (3, 2) Strategi P2 (p2) Strategi P1 (p1)

Ekuilibrium Nash dari permainan ini adalah strategi (p1, p2) = (7, 8), sedangkan strategi Pareto efisien adalah (p1, p2) = (10, 11), (11, 10), (11, 11).

Perhitungan replikator dinamik dilakukan dengan menggunakan software MATLAB®

Tabel IV. 2 Distribusi Probabilitas Pemilihan Strategi Permainan

(source code terdapat pada Lampiran). Asumsikan jika lelang pertama diawali dengan distribusi probabilitas pemilihan strategi mendekati efisien Pareto.

Strategi 7 8 9 10 11 P1 0.0001 0.0001 0.0001 0.0001 0.9996 P2 - 0.0001 0.0001 0.0001 0.9997

(9)

                =                 9991 , 2 9988 , 4 9994 , 3 9999 , 2 0000 , 2 ) 11 ( ) 10 ( ) 9 ( ) 8 ( ) 7 ( π π π π π

Dengan π(7) adalah payoff yang didapatkan P1 ketika menggunakan strategi p1 = 7. Dapat dilihat bahwa π(10) lebih besar dari π(11). Karena P2 memilih strategi p2 = 11 dengan probabilitas 0,9997, P1 dan P2 akan seri dengan probabilitas 0,9997 jika P1 memilih strategi p1 = 11. Strategi ini memberikan payoff sebesar u1 = 3 untuk P1. Jika P1 mengambil strategi p1 = 10, P1 menang terhadap P2 dengan probabilitas 0,9997 dan mendapat payoff u1 = 5. Efisiensi Pareto tidak menjamin optimalitas individu, dan dalam kasus ini P1 bisa mendapat payoff lebih tinggi dengan menurunkan harga penawarannya. Dengan alasan ini, P1 akan menggeser strategi dari p1 = 11 ke p1 = 10. Jika pada titik ini P1 mengetahui bahwa payoff yang bisa didapat pada ekuilibrium Nash hanya sebesar u1 = 2, P1 kemungkinan akan lebih memilih u1 = 3 dengan memilih p1 = 11. Tetapi pada awalnya P1 tidak mengetahui ekuilibrium Nash, maka tidak ada yang menghalangi P1 untuk menggeser strategi dari p1 = 11 menjadi p1

            =             9992 , 1 9989 , 2 9995 , 1 9999 , 0 ) 11 ( ) 10 ( ) 9 ( ) 8 ( π π π π = 10.

Untuk P2, payoff yang didapatkan pada lelang pertama adalah

Penjelasan yang sama berlaku untuk P2. P2 mendapat payoff u2 = 0 pada ekuilibrium Nash, sehingga menggeser strategi dari p2 = 11 menjadi p2 = 10 merupakan evolusi strategi yang beresiko bagi P2, karena akan mengakibatkan P1 menurunkan lagi harga penawarannya. Tetapi P2 tidak mengetahui bahwa biaya pembangkitannya lebih besar dari P1, sehingga P2 akan mengubah strategi dari p2 = 11 menjadi p2

Observasi di atas menunjukkan kesulitan dalam menjaga pemain tetap pada strategi Pareto efisien ketika terdapat banyak penjual dalam lelang. Dalam model

(10)

yang diasumsikan dalam penelitian ini, pemain tidak memiliki informasi tentang pemain lain. Dalam lelang sebenarnya, kemungkinan pemain memiliki informasi tentang pemain lain dari data historis atau kondisi yang diinformasikan kepada pemain lain. Informasi ini dapat memberikan petunjuk bagi pemain untuk memprediksikan ekuilibrium Nash.

Setelah 500 kali lelang, evolusi strategi dari (p1, p2) = (11, 11) ke (p1, p2

Tabel IV. 3 Distribusi Probabilitas Setelah 500 Lelang

) = (10, 10) dapat dilihat pada tabel di bawah ini.

Strategi 7 8 9 10 11

P1 0.0000 0.0000 0.0161 0.9839 0.0000

P2 - 0.0000 0.1198 0.8506 0.0296

Pada titik ini, payoff untuk P1 adalah

                =                 0914 , 0 2796 , 2 7627 , 3 0000 , 3 0000 , 2 ) 11 ( ) 10 ( ) 9 ( ) 8 ( ) 7 ( π π π π π Payoff P2 adalah             =             0000 , 0 4758 , 1 9839 , 1 0000 , 1 ) 11 ( ) 10 ( ) 9 ( ) 8 ( π π π π

Karena π(9) lebih besar dari π(10) untuk P1 dan P2, maka kedua pemain akan menggeser strategi dari (p1, p2) = (10, 10) menjadi (p1, p2) = (9, 9). Pengulangan evolusi strategi ini akan mengarahkan P1 dan P2 ke ekuilibrium Nash. Dan setelah 10.000 kali lelang, distribusi probabilitas akan menghasilkan probabilitas satu pada strategi ekuilibrium Nash seperti pada tabel berikut.

Gambar

Tabel IV. 1 Matriks Payoff  Permainan Lelang
Tabel IV. 3 Distribusi Probabilitas Setelah 500 Lelang

Referensi

Dokumen terkait

HASYIM ASY'ARI UIN Maulana Malik Ibrahim Malang KAB.. Mojokerto IAIN Sunan Ampel Surabaya

(2) Anak perempuan sebagai anak tunggal dalam hukum waris adat Bali mewaris dari harta orang tuanya yaitu harta gunakaya orang tuanya yang mana menurut hukum adat Bali

1) Peserta ujian adalah peserta pembelajaran yang telah memenuhi tingkat kehadiran minimal untuk mengikuti ujian. 2) Ketentuan tingkat kehadiran minimal peserta

Dalam hal penjualan kembali Unit Penyertaan REKSA DANA BNP PARIBAS PRIMA USD dilakukan oleh Pemegang Unit Penyertaan melalui media elektronik, maka Formulir Penjualan Kembali

Adapun yang menjadi tujuan penelitian ini adalah untuk mengetahui peranan waktu diskrit pada rantai Markov untuk mendapatkan peluang perpindahan dari satu state ke state lain

Kasus ini merupakan proses stokastik {X t } dengan t = 0,1,… state yang ada pada kasus ini adalah 0,1,2,3 yang mewakili jumlah kamera yang mungkin ada pada akhir minggu...

Salah satu metode yang dapat digunakan dalam memodelkan kondisi- kondisi yang tidak pasti tersebut yaitu dengan rantai markov (Markov Chain).. Rantai Markov (Markov Chain) pertama

Apabila ditinjau dari kemaknaan peningkatan pengetahuan dalam penelitian ini, dapat dinyatakan bahwa materi pendidikan kesehatan reproduksi yang perlu ada