• Tidak ada hasil yang ditemukan

PENGEMBANGAN PENDEKATAN RATA-RATA SAMPEL

Metode PRS merupakan suatu metode layak dapat digunakan untuk menyele-saikan permasalahan optimisasi program stokastik diskrit. Menurut Kleywegt (2001) metode PRS memiliki rata-rata yang bersifat numerik dari pendekatan sebuah penye-lesaian oleh simulasi Monte Carlo.

Dalam bagian yang sebelumnya ditetapkan sejumlah hasil konvergen untuk metode PRS. Hasil tersebut menguraikan bagaimana nilai optimal ˆvN dan himpunan

ˆ

SNε penyelesaian ε-optimal program PRS konvergen kepada mitranya v dan Sε, keti-ka meningketi-katketi-kan ukuran sampel N . Hasil ini menyediaketi-kan beberapa pertimbangan teoritis untuk metode yang diusulkan.

4.1 Penetapan Ukuran Sampel

Dalam suatu algoritma, suatu ukuran sampel N berhingga atau suatu barisan ukuran sampel berhingga harus dipilih, dan algoritma harus berhenti setelah sejumlah waktu berhingga. Perkiraan persamaan (3.19) memberikan suatu batas pada uku-ran sampel yang diperlukan untuk mendapatkan suatu penyelesaian ε-optimal dengan peluang sedikitnya 1 − α. Perkiraan ini mempunyai dua kekurangan untuk perhi-tungan tujuan. Pertama, karena banyaknya permasalahan bukanlah mudah untuk menghitung perkiraan, sebab σ2max dalam beberapa permasalahan mungkin susah un-tuk dihitung. Ke dua, batasnya mungkin terlalu konservatif unun-tuk memperoleh suatu perkiraan praktis tentang ukuran sampel yang diperlukan.

24

Untuk memilih ukuran sampel N, beberapa cara harus diambil sebagai pilihan. Dengan N lebih besar, fungsi objektif dari permasalahan PRS cendrung menjadi perki-raan akurat dari fungsi objektif sebenarnya, suatu penyelesaian optimal permasalahan PRS cendrung menjadi penyelesaian lebih baik, dan bersesuaian pada batas gap opti-malitas. Bagaimanapun, tergantung pada permasalahan PRS (3.3) dan metode yang digunakan untuk memecahkan permasalahan PRS. Perhitungan kompleksitas meme-cahkan permasalahan PRS meningkat secara linier dan sering bersifat eksponensial, dalam ukuran sampel N. Karenanya penetapan ukuran sampel N , merupakan suatu cara untuk mendapatkan penyelesaian optimal permasalahan PRS, gap batas pada optimalitas pada satu bagian lain, dan usaha perhitungan pada bagian yang berikut-nya, harus menjadi pilihan. Penetapan ukuran sampel N yang mungkin disesuaikan dengan dinamis, tergantung pada hasil dari perhitungan persiapan.

Secara khusus, menaksir nilai objektif g(x) suatu penyelesaian feasibel x ∈ S oleh rata-rata sampel ˆgN(x) memerlukan sedikit usaha perhitungan dibandingkan me-mecahkan permasalahan PRS (untuk ukuran sampel N yang sama). Seperti itu, walaupun pertimbangan kompleksitas perhitungan satu motivasi untuk memilih su-atu ukuran sampel N yang kecil untuk permasalahan PRS. Pertimbangan itu dapat menjadi suatu gagasan untuk memilih ukuran sampel N0yang lebih besar untuk mem-peroleh suatu perkiraan yang akurat ˆgN0xN) tentang nilai objektif ˆg(xN) dari suatu penyelesaian optimal ˆxN permasalahan PRS.

Ukuran ketelitian suatu perkiraan rata-rata sampel ˆgN0xN) tentang g(ˆxN) di-berikan oleh varians sampel yang bersesuaian S

2 N 0(ˆxN)

N0 , yang mana dapat dihitung dari ukuran sampel yang sama N. Lagi pula pilihan N0melibatkan suatu cara antara usaha perhitungan dan ketelitian, yang terukur oleh S

2 N0xN)

25

4.2 Replikasi

Jika kompleksitas perhitungan memecahkan permasalahan PRS meningkat cepat secara linier dalam ukuran sampel N, mungkin saja lebih efisien untuk memilih suatu ukuran sampel N yang lebih kecil untuk menghasilkan pemecahan permasalahan PRS dengan sampel bbi, disebut pembangkit replikasi dalam memecahkan permasalahan PRS.

Dengan pendekatan seperti itu, beberapa isu harus ditujukan. Adakah suatu jaminan suatu penyelesaian optimal (atau ε-optimal) untuk permasalahan yang sebe-narnya akan dihasilkan jika suatu jumlah cukup permasalahan PRS, berdasar pada ukuran sampel N independents, dipecahkan. Procedur pemecahan itu dapat dipan-dang seperti percobaan Bernaulli dengan peluang sukses p = p(N ). Sukses di sini berarti bahwa suatu penyelesaian optimal ˆxN yang dihitung dari permasalahan PRS adalah suatu penyelesaian optimal dari permasalahan yang sebenarnya. Pernyataan tersebut mengikuti teorema 2, peluang p cendrung kepada 1 ketika N → ∞, lebih dari itu teorema 2 cendrung kepada 1 secara eksponensial yang cepat berpegang pa-da Asumsi (A). Bagaimanapun, untuk suatu N yang berhingga peluang p kecil atau bahkan nol. Peluang untuk menghasilkan suatu penyelesaian optimal permasalahan sebenarnya sedikitnya sekali dalam M percobaan adalah 1 − (1 − p)M, dan peluang ini

cendrung kepada suatu ketika M → ∞, p adalah positif.

Isu lain yang harus ditujukan adalah bagaimana pemilihan bilangan M rep-likasi. Suatu cara yang serupa kepada pemilihan ukuran sampel N , bilangan M replikasi mungkin terpilih dengan dinamis. Untuk simplikasi presentasi, umpamakan bahwa masing-masing PRS replikasi menghasilkan suatu calon penyelesaian, yang bisa merupakan suatu penyelesaian optimal (ε-optimal) permasalahan PRS. Diberikan ˆxm N menandakan calon penyelesaian itu yang dihasilkan ke-m PRS replikasi (percobaan).

26

Gap Optimalitas g(ˆxmN) − v dapat diperkirakan. Jika suatu ukuran tempat berhenti berdasar pada perkiraan gap optimalitas itu dicukupi, kemudian tidak ada lagi rep-likasi dilakukan. Cara lainnya, tambahan reprep-likasi PRS dengan ukuran sampel yang sama N dilakukan, atau ukuran sampel N ditingkatkan. Argumentasi yang berikut menyediakan suatu petunjuk sederhana seperti pada suatu tambahan PRS replikasi dengan ukuran sampel yang sama N mungkin untuk menghasilkan suatu penyelesaian yang lebih baik.

Dengan konstruksi, variabel acak g(ˆxm

N), m = 1, 2, · · · adalah bbi, dan distribusi peluang yang umum mempunyai suatu sokongan berhingga sebab himpunan S berhing-ga. Anggaplah M replikasi dengan ukuran sampel N telah dilakukan. Jika distribusi peluang G(ˆxN) terus dilakukan, kemudian peluang yang ke-(M+1) PRS replikasi de-ngan ukuran sampel yang sama menghasilkan suatu penyelesaian lebih baik dan akan bersifat sama ke 1/(M+ 1). Karena distribusi g(xN) adalah diskrit, peluang ini harus kurang dari atau sama dengan 1/(M+ 1). Diharapkan 1/(M+ 1) menjadi cukup kecil, tambahan PRS replikasi dengan ukuran sampel yang sama tidaklah akan berharga, bagaimanapun ukuran sampel N harus ditingkatkan atau prosedur seharusnya yang dihentikan.

4.3 Batas Capaian

Untuk menghentikan keputusan, seperti halnya untuk evaluasi capaian dimak-sud, lebih disukai menghitung gap optimalitas g(ˆx) − v untuk penyelesaian yang ditentukan pada x ∈ S. Yaitu: ˆgN0x) = N1 PN0

j=1G(ˆx, Wj) adalah suatu estimator

g(ˆx), dan varians ˆgN0x) diperkirakan oleh S

2 N 0(ˆx)

N0 , dimana SN2x) adalah perbedaan

sampel G(ˆx, Wj), yang didasarkan pada ukuran sampel N0.

Suatu estimator v* diberikan: ¯vNm = M1 PM

m−1ˆvNm. Dimana ˆvmN menandakan nilai objektif optimal ke-m PRS replikasi. ekspektasi E[¯vM] = E[ˆv ], dan karenanya

27

estimator ¯vMN mempunyai bias negatif yang sama sebagai ¯vN.

Dari persamaan (3.27) & (3.28) menunjukkan bahwa pembiasan ini cen-derung menjadikan penyelesaian lebih besar satuan optimal pada permasalahan dalam keadaan kurang baik, atau hampir optimal. Pertimbangkan estimator yang bersesua-ian itu adalah: ˆgN0x) − ¯vM

N sebagai optimalitas gap g(ˆx) − v, di titik ˆx. Karena,

E ˆ

gN1x) − ¯vNM

= g (ˆx) − E [ˆvN] ≥ g (ˆx) − v (4.1)

mengikuti pada rata-rata di atas estimator menaksir optimalitas gap g(ˆx) − v terlalu tinggi. Itu adalah mungkin untuk menunjukkan bahwa bias v− E[ˆvN] monoton turun dalam ukuran sampel N. Varians ¯vM

N diperkirakan oleh: SM2 M = 1 M (M − 1) M X m=1 ˆ vNm− ¯vNM2 (4.2)

Jika sampel M dengan ukuran N, dan sampel evaluasi dengan ukuran N0adalah inde-pendent, kemudian varians estimator gap optimalitas ˆgN0x) − ¯vNM dapat diperkirakan oleh S

2 N 0(ˆx)

N0 +SM2 M .

Suatu estimator gap optimalitas g(ˆx)−vdengan varians yang lebih kecil adalah ¯ gM Nx) − ¯vM N, dimana ¯gM Nx) = 1 M σ M m=1ˆgM Nx) dan ˆgm

Nx) adalah nilai objektif

rata-rata sampel pada ˆx sampel ke-m PRS ukuran N, ˆgm

Nx) = N1 PN j=1G(ˆx, Wmj). Varians ¯ gM Nx) − ¯vM N diperkirakan oleh S¯M2 M = M (M −1)1 PM m=1[(ˆgm Nx) − ˆvm N) − (¯gM Nx) − ¯vM N)]2. Estimator gap optimalitas yang mana mempunyai varians paling kecil tergantung pa-da korelasi antara ˆgm

Nx) dan ˆvm

N, seperti halnya pada ukuran sampel N, N0 dan M. Computational usaha tambahan untuk menghitung ˆgm

Nx) untuk m = 1 · · · , M perlu

juga diperhitungkan ketika mengevaluasi seperti reduksi varians. Yang manapun jalan TLP dapat diberlakukan bagi estimator gap optimalitas ˆgN0x) − ¯vM

N dan ¯gM

Nx) − ¯vM N, sedemikian sehingga ketelitian dari suatu estimator gap optimalitas dapat diperhi-tungkan oleh penambahan estimasi simpangan baku 2α kepada estimator tersebut.

28

Di sini zα = Φ−1(1 − α), dimana Φ (z) adalah fungsi distribusi kumulatif standard normal. Sebagai contoh, jika x ∈ S menandakan calon penyelesaian itu dengan nilai ˆgN0x) yang terbaik ditemukan setelah replikasi M, kemudian suatu estimator

gap optimalitas mempertimbangkan ketelitian ˆgN0x) − ¯vNM + Zα S2 N 0(ˆx) N0 +S2M M 2 atau ¯ gM Nx) − ¯vM N + zαS¯M M.

Karena algoritma kontrol berguna bagi memisahkan suatu estimator gap opti-malitas ke dalam komponennya. Sebagai contoh, ˆgN0x) − ¯vM

N + zαS2 N 0(ˆx) N0 +S2M M 2 = (ˆgN0x) − g (ˆx)) + (g (ˆx) − v) + v− ¯vMN + zα  S2 N0x) N0 +S 2 M M 1 2 (4.3)

Di dalam empat terminologi pada sisi kanan peryataan di atas, istilah yang per-tama mempunyai nilai yang diharapkan nol; istilah yang kedua adalah gap optimali-tas benar; istilah yang ketiga adalah bias, yang mempunyai hal positif mengharapkan penurunan nilai dalam ukuran sampel N; dan istilah yang keempat adalah ketelitian, yang mana penurunan jumlah M replikasi ukuran sampel N. Dengan begitu suatu kekurangan dari estimator gap optimalitas adalah bahwa estimator tersebut mungkin besar jika M , N , atau N0adalah kecil, sekalipun ˆx adalah suatu penyelesaian optimal,

yaitu g(ˆx) − v = 0.

4.4 Postprocessing, Penyaringan, dan Pemilihan

Anggaplah suatu keputusan telah dibuat untuk proses pemberhentian, sebagai contoh ketika estimator gap optimalitas cukup kecil. Pada langkah ini calon penye-lesaian x ∈ S dengan nilai yang terbaik ˆgN0x) dapat terpilih ketika penyelesaian itu

dipilih. Bagaimanapun, mungkin saja bermanfaat untuk melaksanakan suatu evaluasi lebih terperinci menghasilkan calon penyelesaian sepanjang replikasi. Ada beberapa metode pemilihan dan penyaringan statistik untuk memilih subset penyelesaian atau

29

penyelesaian nilai objektif.

Sepanjang langkah yang pertama prosedur dikombinasikan, suatu subset S00 ten-tang calon penyelesaian S0= {ˆx1

N, · · · , ˆxM

N} dipilih disebut penyaringan untuk evaluasi lebih lanjut, berdasar pada nilai rata-rata sampel ˆgN0xm

N). Sepanjang langkah yang kedua, ukuran sampel N00 ≥ N0 ditentukan untuk evaluasi lebih terperinci, berdasar pada varians sampel S2

N0(ˆxm

N). Kemudian N00 − N0 pengamatan tambahan yang di-hasilkan, dan calon penyelesaian ˆx ∈ S00 dengan nilai yang terbaik ˆgN00x) terpilih

ketika yang dipilih penyelesaian. Prosedur yang dikombinasikan menjamin bahwa pe-nyelesaian yang di pilih mempunyai nilai objektif g(ˆx) di dalam suatu toleransi

dite-tapkan δ dengan nilai yang terbaik minxˆm

N∈Sg (ˆxm

N) di atas semua calon penyelesaian ˆ

xm

N dengan peluang sedikitnya sama dengan tingkat kepercayaan spesifik 1 − α. 4.5 Menyelesaikan permasalahan PRS

Secara prinsip teknik enumerasi kleyweght (2001) dapat dipakai untuk menyele-saikan permasalahan PRS (3.3). Pertama, perkiraan persamaan (3.19) memberikan suatu batas pada ukuran sampel yang diperlukan untuk mendapatkan suatu penyele-saian δ-optimal dengan peluang sedikitnya 1 − α. Pemilihan ukuran sampel N lebih besar, menyebabkan fungsi objektif dari permasalahan PRS cendrung untuk menjadi perkiraan yang akurat dari fungsi objektif sebenarnya. Mengakibatkan penyelesaian optimal permasalahan PRS cendrung untuk menjadi penyelesaian yang lebih baik, dan bersesuaian pada batas gap optimalitas. Bagaimanapun, tergantung pada permasala-han PRS dan metode yang digunakan, perhitungan kompleksitas untuk memecahkan permasalahan PRS meningkat secara linier dan bersifat eksponensial, dalam ukuran sampel N.

Kedua, kompleksitas perhitungan memecahkan permasalahan PRS, mungkin lebih efisien untuk memilih ukuran sampel N yang lebih kecil dengan sampel bbi,

30

disebut pembangkit replikasi. Anggaplah M replikasi dengan ukuran sampel N telah dilakukan. Distribusi peluang g(ˆxN) menyebabkan peluang yang ke-(M+1) PRS rep-likasi dengan ukuran sampel yang sama menghasilkan suatu penyelesaian lebih baik dan bersifat sama ke 1/(M+ 1). Karena distribusi diskrit, peluang ini harus ku-rang dari atau sama dengan 1/(M+ 1). Diharapkan 1/(M+ 1) menjadi cukup kecil, tambahan PRS replikasi dengan ukuran sampel yang sama tidaklah akan berharga, bagaimanapun ukuran sampel N harus ditingkatkan atau prosedur seharusnya yang dihentikan.

Ketiga, untuk menghentikan keputusan atau evaluasi capaian, lebih disukai menghitung gap optimalitas g(ˆx)−vpenyelesaian yang ditentukan pada x ∈ S. Suatu estimator gap optimalitas g(ˆx) − vdengan varians yang lebih kecil adalah ¯gM

Nx) − ¯vM N, dan ˆgm

Nx) adalah nilai objektif rata-rata sampel pada sampel ke-m PRS ukuran N.

Estimator gap optimalitas yang mana mempunyai varians paling kecil tergantung pada korelasi antara ˆgm

Nx) dan ˆvm

N, seperti halnya pada ukuran sampel N, N0 dan M. Keempat, Anggaplah suatu keputusan telah dibuat untuk proses pemberhen-tian, sebagai contoh ketika estimator gap optimalitas cukup kecil. Selanjutnya calon penyelesaian x ∈ S dengan nilai yang terbaik ˆgN0x) dapat terpilih ketika

penyelesai-an itu dipilih. Digunakpenyelesai-an metode pemilihpenyelesai-an dpenyelesai-an penyaringpenyelesai-an statistik untuk memil-ih subset penyelesaian antara berhingga himpunan penyelesaian. Pertama prosedur dikombinasikan, suatu subset S00 tentang calon penyelesaian S0= {ˆx1n, · · · , ˆxMN} dipil-ih untuk evaluasi lebdipil-ih lanjut, berdasar pada nilai rata-rata sampel ˆgN0xmN). Kedua, ukuran sampel N00 ≥ N0 ditentukan untuk evaluasi lebih terperinci, berdasar pada varians sampel SN20xmN). Kemudian N00− N0 pengamatan tambahan yang dihasilkan, dan calon penyelesaian ˆx ∈ S” dengan nilai yang terbaik ˆgN ”(ˆx) terpilih ketika yang

31

Berikut ini algoritma PRS untuk permasalahan optimisasi program stokastik diskrit yang dikemukana oleh Kleywegt (2001) berbunyi:

1. Pilih ukuran sampel awal N dan N0, dimana suatu kaidah keputusan untuk menentukan jumlah M dari replikasi PRS (mungkin meliputi suatu jumlah mak-simum M0 dari PRS replikasi dengan ukuran sampel yang sama, seperti M01+1 yang cukup kecil), suatu kaidah pengambilan keputusan untuk meningkat uku-ran sampel N dan N’ jika dibutuhkan, dan toleuku-ransi ε.

2. Untuk m = 1, 2, · · · , M , lakukan langkah 2.1 hingga 2.3. Bangkitkan sebuah sampel berukuran N, dan pecahkan permasalahan PRS (3.2), dengan nilai ob-jektif ˆvNm dan ε-penyelesaian optimal ˆxmN . Estimasikan atau perkirakan gap optimalitas g(ˆxmN) − v, dan varians dari gap estimator. Jika gap optimalitas dan varians dari gap estimator adalah cukup kecil, lanjutkan ke langkah 4.

3. Jika gap optimalitas atau varians dari gap estimator adalah terlalu besar, naikkan ukuran sampel N atau N0, dan kembali ke langkah 2.

4. Pilih penyelesaian terbaik ˆx diantara semua calon penyelesaian ˆxmN yang ada, dengan menggunakan sebuah penyaringan dan prosedur seleksi. Berhenti.

Dokumen terkait