• Tidak ada hasil yang ditemukan

METODE PENGEMBANGAN PENDEKATAN RATA-RATA SAMPEL UNTUK MENYELESAIKAN PERMASALAHAN OPTIMISASI PROGRAM STOKASTIK DISKRIT TESIS. Oleh

N/A
N/A
Protected

Academic year: 2021

Membagikan "METODE PENGEMBANGAN PENDEKATAN RATA-RATA SAMPEL UNTUK MENYELESAIKAN PERMASALAHAN OPTIMISASI PROGRAM STOKASTIK DISKRIT TESIS. Oleh"

Copied!
44
0
0

Teks penuh

(1)

METODE PENGEMBANGAN PENDEKATAN RATA-RATA SAMPEL UNTUK MENYELESAIKAN PERMASALAHAN

OPTIMISASI PROGRAM STOKASTIK DISKRIT

TESIS

Oleh

UMMI HABIBAH 077021011/MT

SEKOLAH PASCASARJANA UNIVERSITAS SUMATERA UTARA

MEDAN 2009

(2)

METODE PENGEMBANGAN PENDEKATAN RATA-RATA SAMPEL UNTUK MENYELESAIKAN PERMASALAHAN

OPTIMISASI PROGRAM STOKASTIK DISKRIT

TESIS

Diajukan Sebagai Salah Satu Syarat Untuk Memperoleh Gelar Magister Sains dalam

Program Studi Magister Matematika pada Sekolah Pascasarjana Universitas Sumatera Utara

Oleh

UMMI HABIBAH 077021011/MT

SEKOLAH PASCASARJANA UNIVERSITAS SUMATERA UTARA

MEDAN 2009

(3)

Judul Tesis : METODE PENGEMBANGAN PENDEKATAN

RATA-RATA SAMPEL UNTUK MENYELESAIKAN PERMASALAHAN OPTIMISASI PROGRAM

STOKASTIK DISKRIT Nama Mahasiswa : Ummi Habibah

Nomor Pokok : 077021011 Program Studi : Matematika

Menyetujui Komisi Pembimbing

(Dr. Sutarman, M.Sc) Ketua

Ketua Program Studi

(Prof.Dr.Herman Mawengkang)

(Dr. Saib Suwilo, M.Sc) Anggota

Direktur

(Prof.Dr.Ir.T.Chairun Nisa, B.,M.Sc)

(4)

Telah diuji pada Tanggal : 2 Juni 2009

PANITIA PENGUJI TESIS Ketua : Dr. Sutarman, M.Sc Anggota : 1. Dr. Saib Suwilo, M.Sc

2. Prof. Dr. Opim Salim S., M.Sc 3. Drs. Open Darnius, M.Sc

(5)

ABSTRAK

Penelitian ini mengemukakan atau menjelaskan suatu strategi penyelesaian untuk menyelesaikan permasalahan optimisasi program stokastik diskrit. Metode yang dia-jukan didasarkan pada pendekatan program stokastik melalui pengambilan sampel dan menyelesaikan persoalan pendekatan tersebut dengan memakai algoritma optimisasi. Teknik yang diajukan ini dapat menghasilkan suatu penyelesaian optimal terhadap persoalan awal dengan probabilitas mendekati satu dengan kecepatan proses ekspo-nensial apabila ukuran sampel ditingkatkan.

Kata Kunci : Program Stokastik, Optimal, Pendekatan Rata-rata Sampel, Optimisasi Diskrit.

(6)

ABSTRACT

This thesis addresses a solution strategy for solving stochastic discrete optimization programming problem. The proposed methodology relies on approximation the under-lying stochastic program via sampling, and solving the approximate problem via a spe-cialized optimization algorithm. The proposed scheme will produce an optimal solution to the true problem with probability approaching one exponentially fast as the sample size increased.

Keywords : Stochastic Program, Optimal, Sample Average Approximation, Discrete Optimization.

(7)

KATA PENGANTAR

Syukur Alhamdulillah kehadirat Allah SWT. Penulis panjatkan atas limpahan Rahmat dan Karunia-Nya karena terselesaikannya penulisan tesis ini yang berjudul Metode Pengembangan Pendekatan Rata-rata Sampel untuk Menyelesaikan Permasalahan Optimisasi Program Stokastik Diskrit.

Pada kesempatan ini penulis menyampaikan ucapan terima kasih yang sebesar-besarnya kepada:

Bapak Prof. Chairuddin P. Lubis, DTM&H, Sp.A(K) selaku Rektor Universitas Sumatera Utara yang sudah memberi kesempatan kepada penulis untuk menempuh pendidikan di Universitas Sumatera Utara.

Ibu Prof. Dr. Ir. T. Chairun Nisa, B., M.Sc selaku Direktur Sekolah Pascasarjana Universitas Sumatera Utara yang sudah memberikan kesempatan kepada penulis untuk mengikuti perkuliahan di Program Studi Magister Matematika Sekolah Pascasarjana Universitas Sumatera Utara.

Bapak Prof. Dr. Herman Mawengkang selaku Ketua Program Studi Magister Matematika Sekolah Pascasarjana Universitas Sumatera Utara yang telah memberikan bimbingan kepada penulis sehingga tesis ini dapat diselesaikan.

Bapak Dr. Saib Suwilo, M.Sc selaku Sekretaris Program Studi Magister Matematika Sekolah Pascasarjana Universitas Sumatera Utara dan selaku anggota komisi pembimbing yang telah memberikan saran dan bimbingan kepada penulis.

(8)

Seluruh staf pengajar pada program studi Magister Matematika Sekolah Pascasarjana Universitas Sumatera Utara yang yang sudah membimbing dan mem-bantu selama penulis mengenyam pendidikan.

Teruntuk Keluarga semuanya, Suami: Muhammad, ST,M.Sc dan anak-anak : Zikri Alzuhayli dan Alya Muhammad. Orang tua, Abu: H Mukhtarud-din Ali dan Mak : Hj Fatimah Nusan, Kakak dan Adik-adik. Juga Mertua Abdul latief dan Mi: Hamidah dan adik-adik. Terima kasih kepada semuanya yang senantiasa mendukung dan mendoakan untuk keberhasilan penulis dalam menye-lesaikan pendidikan ini.

Kepada Teman-teman serta semua pihak yang tidak dapat penulis sebutkan satu persatu di sini, penulis ucapkan banyak terima kasih atas bantuan dan dorongan yang telah di berikan sehingga penulis dapat menyelesaikan pendidikan tepat waktu.

Kepada Ibu Rosimanidar dan Keluarga yang telah banyak membantu penulis dalam menghadapi banyak kesulitan selama menyelesaikan pendidikan ini.

Penulis menyadari tesis ini masih mempunyai kekurangan, namun demikian harapan penulis semoga tesis ini dapat bermanfaat bagi yang membutuhkannya.

Medan, Juni 2009 Penulis,

(9)

RIWAYAT HIDUP

Penulis dilahirkan di Punteut pada tanggal 1 Ramadhan 1396 H atau bertepatan dengan tanggal 26 Agustus 1976, sebagai anak kedua dari delapan bersaudara dari orang tua, H. Mukhtaruddin Ali dan Hj. Fatimah Nusan. Penulis menamatkan Sekolah Dasar (SD), SD Negeri Punteut pada tahun 1988. Sekolah menengah Per-tama (SMP), SMP Negeri Bayu pada tahun 1991. Sekolah Menengah Atas (SMA), SMA Negeri 1 Lhokseumawe pada tahun 1994. Pada tahun 1994 penulis melanjutkan pendidikan sarjana di Universitas Syiah Kuala pada Fakultas Matematika dan Ilmu Pengetahuan Alam jurusan matematika dan lulus pada tahun 1999. Dari tahun 2001 hingga sekarang penulis dipercaya sebagai salah seorang staf pengajar pada Politeknik Negeri Lhokseumawe. Tahun 2007 penulis berkesempatan untuk melanjutkan program master pada Program Studi Magister Matematika Sekolah Pascasarjana Universitas Sumatera Utara Medan.

(10)

DAFTAR ISI

Halaman

ABSTRAK . . . i

ABSTRACT . . . ii

KATA PENGANTAR . . . iii

RIWAYAT HIDUP . . . v DAFTAR ISI . . . vi BAB 1 PENDAHULUAN . . . 1 1.1 Latar Belakang . . . 1 1.2 Perumusan Permasalahan . . . 3 1.3 Tujuan Penelitian . . . 3 1.4 Kontribusi Penelitian . . . 4 1.5 Metodologi Penelitian . . . 4

BAB 2 TINJAUAN PUSTAKA . . . 5

BAB 3 PROGRAM STOKASTIK . . . 9

3.1 Pengertian Program Stokastik . . . 9

3.2 Permasalahan Optimisasi . . . 10

3.3 Hasil-hasil Konvergen . . . 11

3.3.1 Nilai Objektif dan Penyelesaian Konvergen . . . 11

3.3.2 Tingkat kekonvergenan . . . 13

3.3.3 Nilai Objektif Sampel Asymptotic . . . . 19

BAB 4 PENGEMBANGAN PENDEKATAN RATA-RATA SAMPEL . . . . 23

(11)

4.2 Replikasi . . . 25

4.3 Batas Capaian . . . 26

4.4 Postprocessing, Penyaringan, dan Pemilihan . . . 28

4.5 Menyelesaikan permasalahan PRS . . . 29

BAB 5 KESIMPULAN DAN SARAN . . . 32

5.1 Kesimpulan . . . 32

5.2 Saran . . . 32

(12)

BAB 1 PENDAHULUAN

1.1 Latar Belakang

Program stokastik tergolong suatu program matematika, dimana ianya meru-pakan metode dasar untuk menyelesaikan permasalahan optimisasi dibawah fungsi ketidakpastian. Bentuk permasalahan optimisasi memuat beberapa data pada fungsi tujuan dan kendala mengandung ketidakpastian dicirikan pada distribusi peluang dan parameter. Dalam permasalahan program stokastik akan dibuat suatu keputusan de-ngan mengoptimalkan nilai fungsi harapan (objektif) sebagai konsekuensi dari kepu-tusan, pernyataan ini lebih dikenal dengan model recourse.

Permasalahan program stokastik diskrit merupakan cabang program stokastik dengan bilangan diskrit yang menjadi peubah keputusan. Permasalahan optimisasi program stokastik diskrit telah banyak dikembangkan orang, dimana algoritma - al-goritma stokastik yang dapat digunakan untuk menyelesaikan permasalahan program optimisasi diskrit antara lain menggunakan algoritma genetik, algoritma simulated

annealing, algoritma tabu search.

Diantara penelitian tersebut, Kleyweght (2001) menggunaan metode pendekatan rata-rata sampel atau the sample average approximation method (PRS) dalam menye-lesaikan permasalahan optimisasi program stokastik diskrit yang diutamakan pada permasalahan stokastik knapsac. Selanjutnya Li (2006) melalukan penelitian tentang metode logaritma langsung untuk simulasi program stokastik diskrit pada sistim reaksi kimia.

(13)

2

Penelitian lain oleh Jeff (2006) mendapatkan pendekatan simulasi kejadian diskrit dengan variabel keputusan bilangan bulat menggunakan COMPASS

(Con-vergent Optimization via Most-Promising-Area Stochastic Search). Kemudian Chang

(2007) juga telah mempresentasikan suatu algoritma dasar-sampling permasalahan optimisasi program stokastik diskrit melalui pendekatan nonstochastic multi-armed

bandit. Borndorfer (2008) menuliskan tentang permasalahan optimisasi diskrit dalam

transportasi publik.

Selanjutnya Shi (2008) telah mengembangkan suatu algoritma baru untuk menye-lesaikan permasalahan optimisasi program stokastik diskrit pengalokasian sumber yang dicontohkan pada permasalahan pengalokasian buffer dalam jaringan telekomunikasi dan pengalokasian sumber dalam sistim perpabrikan. Algoritma baru tersebut meru-pakan hasil kombinasi dari metode Nested Partitions, Teknik Ordinal Optimization, dan suatu teknik Efficient Simulation Control. Hasil numerik perpaduan algoritma tersebut efektif digunakan dalam skala besar pada permasalahan optimisasi program stokastik diskrit. Dan masih banyak penelitian-penelitian lain.

Penggunaan metode PRS untuk menyelesaikan permasalahan optimisasi pro-gram stokastik juga telah banyak digunakan oleh peneliti-peneliti sebelumnya. Dianta-ranya, Ahmed (2002) menggunakan metode PRS untuk menyelesaikan permasalahan program stokastik dengan Integer Recourse. Kemudian Greenwald (2008) menggu-nakan metode PRS untuk menyelesaikan permasalahan optimisasi program stokastik yang diterapkan pada agen perdagangan. Selanjutnya Rossi (2008) menggunakan metode PRS untuk menyelesaikan permasalahan program Even-Driven Probabilistic

Constrain. Masih banyak lagi yang belum disebutkan di sini.

Adapun alasan penelitian ini menggunakan metode pengembangan PRS untuk menyelesaikan permasalahan optimisasi program stokastik diskrit disebabkan karena

(14)

3

probabilitas replikasi dari penggunaan metode PRS akan menghasilkan suatu penyele-saian optimal yang akan meningkatkan tingkat eksponensial dalam ukuran sampel N. Hal ini ditunjukkan oleh tingkat kekonvergenan yang bergantung pada kondisi sesuai dari permasalahan tersebut, diikuti dengan kecendrungan menurun dengan bertam-bahnya variabel keputusan. Ukuran sampel diperlukan di sini untuk peningkatan ketelitian yang sebanding dengan logaritma banyaknya penyelesaian yang mungkin. Perkiraan gap optimalitas dipertimbangkan pada kasus yang terlalu lemah untuk me-nunjukkan bahwa suatu penyelesaian yang sebenarnya akan diperoleh.

Metode PRS mempunyai kelebihan untuk dikombinasikan dengan teknik yang ada dalam memecahkan permasalahan optimisasi deterministik. Metode yang diusulkan melibatkan pemecahan beberapa replikasi pendekatan rata-rata sampel untuk per-masalahan optimisasi, dan mungkin terjadi peningkatkan ukuran sampel beberapa kali. Prilaku perhitungan yang kompleksitas dari metode PRS untuk memecahkan permasalahan optimisasi adalah sebagai suatu fungsi dari ukuran sampel.

1.2 Perumusan Permasalahan

Untuk mendapatkan penyelesaian optimal (maksimun atau minimum) dalam permasalahan optimisasi program stokastik diskrit sukar dilakukan sehingga perlu pendekatan pada fungsi nilai yang diharapkan dengan memakai metode PRS.

1.3 Tujuan Penelitian

Penelitian ini bertujuan untuk mendapatkan suatu metode pengembangan PRS dalam memperoleh nilai fungsi optimal dari permasalahan optimisasi program stokas-tik diskrit.

(15)

4

1.4 Kontribusi Penelitian

Penelitian ini diharapkan dapat memberikan kontribusi pada memperolehnya metode pengembangan PRS untuk menyelesaikan permasalahan keputusan pada peren-canaan yang mengandung ketidakpastian.

1.5 Metodologi Penelitian

Penelitian ini membahas metode pengembangan PRS untuk menyelesaikan per-masalahan optimisasi program stokastik diskrit. Sebagai langkah awal pada BAB 2 akan dibicarakan tentang permasalahan optimisasi program stokastik diskrit. Kemu-dian pada BAB 3 akan dibicarakan tentang permasalahan program stokastik. Se-lanjutnya pada BAB 4 akan dibahas tentang metode pengembangan PRS yang akan digunakan untuk mendapatkan penyelesaian optimal dari permasalahan optimisasi program stikastik diskrit. Dan pada BAB 5 menyimpulkan kesimpulan dan saran-saran.

(16)

BAB 2

TINJAUAN PUSTAKA

Permasalahan optimisasi program stokastik untuk model ketidakpastian di dalam data masukan, yang mana ketidakpastian tersebut diperagakan oleh suatu distribusi peluang. Paradigma kesulitan stokastik dapat dipelajari melalui model, masukan yang direalisir diungkapkan melalui suatu rangkaian langkah-langkah dan seseorang dapat mengambil keputusan dari setiap langkah sebagai jawaban atas informasi yang baru dipelajari.

Dalam model perencanaan, menurut Shi (2008) ada kalanya kendala yang akan membatasi suatu permasalahan dapat dinyatakan oleh peubah bilangan diskrit, se-bagai contoh terapan pada permasalahan pengalokasian sumber seperti perencanaan fasilitas, penjadwalan pekerjaan, pengalokasian buffer, pengontrolan populasi, dan manajemen portofolio tergolong dalam permasalahan optimisasi program stokastik diskrit.

Program stokastik diskrit merupakan salah satu kajian permasalahan optimisasi yang sukar untuk dipecahkan. Dimana untuk permasalahan program stokastik diskrit ini fungsi nilai yang diharapkan atau fungsi objektif g(x) memiliki bentuk sangat rumit dan sukar untuk menghitung kejadian yang akan diperkirakan. Karenanya per-masalahan program stokastik diskrit ini merupakan salah satu perper-masalahan yang sulit sehingga sedikit kemajuan dalam perkembangan pemecahannya sebagaimana dike-mukakan oleh Keyweght (2001).

Algoritma-algoritma program stokastik yang dapat digunakan untuk menye-lesaikan permasalahan optimisasi program stokastik diskrit diantaranya algoritma genetik (AG), algoritma simulated annealing (SA), dan algoritma tabu search (TS).

(17)

6

Algoritma-algoritma ini merupakan metoda probabilitas dalam fungsi optimisasi yang berfungsi untuk menjadikan penyelesaian menjadi optimal (maksimum atau mini-mum), mungkin dengan penambahan suatu masukkan untuk mencegah infeasibel.

Permasalahan optimisasi program stokastik diskrit telah banyak dikembangkan orang, diantaranya penelitian oleh Shi (2008) yang telah mengembangkan suatu al-goritma baru untuk menyelesaikan permasalahan optimisasi program stokastik diskrit pengalokasian sumber.

Algoritma baru tersebut merupakan hasil kombinasi dari metode Nested

Par-titions, Teknik Ordinal Optimization, dan suatu teknik Efficient Simulation Control.

Hasil kombinasi tersebut sesuai dengan perspektif global didasari oleh metode Nested

Partitions dan bersifat konvergen yang cepat, didasari oleh teknik Ordinal Optimiza-tion. Hasil numerik perpaduan algoritma tersebut efektif digunakan dalam skala besar

pada permasalahan optimisasi program stokastik diskrit.

Kemudian penelitian oleh Chang (2007) dimana canya telah mempresentasikan suatu algoritma dasar-sampling untuk memecahkan dasar permasalahan optimisasi program stokastik diskrit melalui pendekatan nonstochastic multi-armed bandit. Di-mana algoritma tersebut memecahkan permasalahan PRS yang sebenarnya dengan memperbaharui iteratif dan sampling dari suatu distribusi peluang ruang pencarian.

Selanjutnya penelitian oleh Kleyweght (2001) yang menggunaan metode PRS dalam permasalahan optimisasi program stokastik diskrit yang diutamakan pada per-masalahan stokastik knapsac. Metode ini menggunakan pendekatan dasar simulasi Monte Carlo untuk permasalahan optimisasi program stokastik diskrit. Dimana ide dasar dari metode ini adalah membangkitkan suatu sampel acak dan kemudian fungsi nilai yang diharapkan didekati dengan fungsi rata-rata sampel yang sesuai.

(18)

7

Penelitian lain oleh Jeff (2006) juga telah mendapatkan suatu pemecahan per-masalahan optimisasi program stokastik diskrit dengan simulasi SCOMPASS

(Con-vergent Optimization via Most-Promising-Area Stochastic Search). Dimana metode

ini menggunakan pendekatan simulasi dengan proses stokastik yang disebut simulasi kejadian diskrit dan variabel keputusannya adalah bilangan bulat.

Kemudian penelitian oleh Li (2006) menghasilkan metode logaritma langsung untuk simulasi stokastik diskrit pada sistem reaksi kimia. Penelitian ini menghasilkan suatu simulasi lebih akurat dengan penggunaan teori proses Markov, khususnya algo-ritma simulasi stokastik.

Selanjutnya penelitian oleh Alrefaei (1999) menggunakan algoritma

simulat-ed annealing dengan konstanta temperatur untuk permasalahan optimisasi stokastik

diskrit. Dimana ianya mempresentasikan suatu metode untuk mendapatkan penyele-saian optimal global pada permasalahan optimisasi program stokastik diskrit. Metode tersebut dibuat serupa dengan metode simulated annealing untuk optimisasi deter-ministik diskrit.

Ada banyak literatur yang membahas pendekatan-pendekatan lain untuk menye-lesaikan permasalahan program stokastik diskrit ini dimana banyaknya penyelesaian-nya cukup kecil yang memenuhi syarat penilaian g(x) untuk masing-masing nilai x . Secara fakta bahwa nilai fungsi objektif tidak diketahui secara pasti.

Dalam tulisan ini dipilih metode PRS untuk permasalahan program stokas-tik diskrit, dimana ide dasar dari pendekatan ini adalah membangkitkan suatu sam-pel acak W dengan harapan bahwa fungsi nilai yang diharapkan didekati oleh fungsi rata-rata sampel yang bersesuaian sebagaimana dibahas oleh Kleywegt (2001). Ke-mudian permasalahan optimisasi rata-rata sampel yang diperoleh dipecahkan, dan procedurnya diulangi beberapa kali hingga batas berhenti di penuhi. Disini akan

(19)

di-8

tunjukkan bahwa peluang mendekati satu bersifat eksponensial dengan peningkatan ukuran sampel, dimana suatu penyelesaian optimal dari permasalahan pendekatan rata-rata sampel tersebut merupakan suatu penyelesaian yang sebenarnya dari per-masalahan optimisasi.

(20)

BAB 3

PROGRAM STOKASTIK

3.1 Pengertian Program Stokastik

Program stokastik berkembang sangat cepat karena pemakaiannya pada peren-canaan dalam pengambilan keputusan yang mengandung ketidakpastian. Proses pengam-bilan keputusan dapat dimodelkan menggunakan program matematika dengan tu-juan mendapatkan penyelesaian optimal, maksimum maupun minimum. Penyelesaian optimal sebagai keputusan yang dipilih bergantung pada kendala yang membatasi permasalahan, seperti persyaratan minimum pada sumber dana, waktu, tenaga, dan fasilitas-fasilitas lain. Tujuan dan kendala adalah berupa fungsi dari variabel dan per-soalan data. Sebagai contoh dari perper-soalan data termasuk biaya perunit, rata-rata produksi, penjualan, dan kapasitas.

Andaikan keputusan yang dipilih dinyatakan dengan peubah x1, x2, x3, · · · , xn. Sebagai contoh xi menyatakan pengalokasian sumber ke i dari n total sumber, maka bentuk umum persamaan matematika dapat ditulis sebagai berikut:

Fungsi objektif : maxZ = f (x) Kendala : fi(x) ≥ bi, i = 1, 2, 3, · · · , n

x ≥ 0, x ∈ X (3.1)

dimana X adalah himpunan bilangan riil nonnegatif .

Program stokastik dapat dimodelkan menggunakan program matematika, di-mana ianya memiliki peubah berupa: linier, cacah, cacah campuran, nonlinier, maupun diskrit dengan menampilkan elemen-elemen stokastik dalam data.

(21)

10

Program stokastik sebagai model dari program matematika dapat dibedakan menjadi dua model berikut:

1. Program matematika deterministik dengan data adalah bilangan yang diketahui.

2. Program stokastik dengan data bilangan yang tidak diketahui (ketidakpastian) yang ditampilkan dalam distribusi peluang.

3.2 Permasalahan Optimisasi

Bentuk umum permasalahan optimisasi ditulis :

min

x∈S {g(x) := EpG(x, W )}

(3.2)

dimana W merupakan suatu vektor acak dengan distribusi peluang P, S suatu him-punan berhingga (S merupakan suatu subset Rnberhingga dengan koordinat bilangan bulat), G(x, w) merupakan suatu fungsi bernilai riil dari dua (vektor) variabel x dan

w, dan EpG(x, W ) = R

G(x, w)P (dw) sebagai fungsi objektif atau nilai yang

diha-rapkan. Fungsi g(x) sebagai nilai yang diharapkan, diasumsikan terdifinisi dengan baik. Untuk setiap x ∈ S fungsi G(x, .) terukur dan EP{|G(x, W )|} < ∞.Terdapat beberapa karakteristik utama dalam permasalahan optimisasi diantaranya:

1. Fungsi nilai yang diharapkan g(x) = EPG(x, W ) tidak dapat ditulis dalam suatu

bentuk tertutup atau nilainya tidak dapat dihitung dengan mudah.

2. Fungsi G(x, w) dapat dihitung dengan mudah bila diberikan nilai variabel x dan

w.

3. Himpunan S untuk penyelesaian feasibel walaupun berhingga, merupakan him-punan sangat besar. Himhim-punan tersebut tumbuh secara eksponensial dengan

(22)

11

Pada bagian ini akan dibicarakan sifat-sifat konvergensi dari estimator PRS, terutama yang diterapkan pada permasalahan optimisasi program stokastik diskrit. Untuk pemakaian hasil klasik, seperti Hukum Bilangan Besar, perlu diandaikan bahwa sampel yang dibentuk bersebaran bebas identik (bbi). Namun perlu diperhatikan bahwa sifat-sifat konvergensi dapat diturunkan terhadap kondisi lebih luas.

3.3 Hasil-hasil Konvergen

Misalkan W1, · · · , , WN merupakan sampel acak bbi untuk N realisasi vektor acak W . Fungsi rata-rata sampelnya ditulis sebagai ˆgN(x) = N1

N P j=1

G (x, Wj) maka permasalahan optimisasi menjadi:

min

x∈S ˆgN(x) (3.3)

Dengan mengacu pada persamaan (3.2) dan (3.3) sebagai persamaan untuk mengharapkan nilai optimal dari permasalahan PRS. Ekspektasi fungsi nilai E [ˆgN(x)] =

g (x). Himpunan feasibel S berhingga, maka permasalahan (3.2) dan (3.3) mempunyai

penyelesaian optimal, ditandai dengan Sdan ˆS

N. Misalkan v∗ dan ˆvN menandakan nilai-nilai optimal, dengan nilai v= min

x∈S g (x) dan ˆvN = minx∈S gˆN (x)

Di sini juga dipertimbangkan himpunan penyelesaian ε-optimal. Untuk ε ≥ 0 dikatakan bahwa ¯x sebagai suatu penyelesaian ε-optimal persamaan (3.2) jika ¯x ∈ S

dan g (¯x) ≤ v+ ε. Himpunan semua penyelesaian ε-optimal persamaan (3.2) dan (3.3) ditandai oleh Sε dan ˆSNε. Jelasnya untuk ε = 0 himpunan Sε bersamaan dengan

S∗, dan ˆSNε bersamaan dengan ˆSN.

3.3.1 Nilai Objektif dan Penyelesaian Konvergen

Teorema berikut menetapkan konvergen dengan peluang satu (dp1) pada es-timator statistik di atas. Suatu peristiwa terjadi dp1 untuk N cukup besar artinya

(23)

12

untuk P-hampir tiap-tiap realisasi ω = {W1, W2, · · · } sebagai barisan acak, di sana

ada suatu bilangan bulat N (ω). Peristiwa yang dipertimbangkan terjadi untuk semua sampel {W1, · · · , Wn} dari ω dengan n ≥ N (ω). Pernyataan tersebut menyatakan yang demikian merupakan bilangan bulat N (ω) bergantung pada barisan realisasi ω adalah acak.

Teorema 1: Berikut ini merupakan dua sifat pegangan:

i. ˆvN → vmerupakan dp1 ketika N → ∞, dan

ii. untuk ε ≥ 0 manapun peristiwa { ˆSε N ⊂ S

ε} terjadi dp1 untuk N cukup besar.

Bukti: Mengikuti Hukum Bilangan Besar untuk x ∈ S manapun, ˆgN(x) konvergen ke g(x) merupakan dp1 ketika N → ∞. Himpunan S berhingga dan gabungan suatu jumlah berhingga menetapkan masing-masing himpunan terukur nol juga mempunyai ukuran nol. Mengikuti dp1, ˆgN(x) konvergen ke g(x) yang bersifat unif orm dalam

x ∈ S. Pernyataan itu adalah,

δN = max

x∈s |ˆgN(x) − g(x)| → 0 merupakan dp1 ketika N → ∞ (3.4) Karena |ˆvN − v| ≤ δN, mengikuti dp1 ˆvN → vketika N → ∞. Untuk ε ≥ 0 pertimbangkan bilangan,

ρ (ε) = min

x∈S\Sεg (x) − v

− ε (3.5)

Untuk x ∈ S\Sε manapun memberikan g(x) > v+ ε dan himpunan S berhingga, menyebabkan ρ(ε) > 0.

Misalkan N sebagai bilangan cukup besar seperti δN < ρ(ε)2 . Kemudian ˆvN <

v+ρ(ε) 2 dan untuk x ∈ S\S εmanapun memberikan ˆg N(x) > v+ε+ ρ(x) 2 . Menyebabkan

(24)

13

jika x ∈ S\Sε, maka ˆgN(x) > ˆvN + ε dan karenanya x bukan anggota himpunan ˆSNε. Menyebabkan ˆS⊂ S

ε. Terbukti.

Jika δ suatu bilangan 0 ≤ δ ≤ ε, kemudian Sδ ⊂ Sε dan ˆSδ N ⊂ ˆS

ε

N. Mengikuti Teorema 1 di atas untuk δ ∈ [0, ε] manapun, peristiwa ˆSδ

N ⊂ S

ε terjadi dp1 untuk

N cukup besar. Menyebabkan jika Sε = {x} suatu singleton, maka ˆSε N = {x

} dp1 untuk N cukup besar. Khususnya, jika permasalahan (3.2) sebenarnya mempunyai suatu penyelesaian optimal unik x, kemudian dp1 untuk memperkirakan N yang besar, permasalahan (3.3) mempunyai penyelesaian optimal unik ˆxN dan ˆxN = x∗.

Misalkan himpunan A = {g(x) − v: x ∈ S} merupakan suatu subset dari himpunan R+ dengan bilangan nonnegatif dan |A| ≤ |S|, karenanya A berhingga. Mengikuti analisa di atas untuk ε ∈ R+\A manapun adalah suatu peristiwa { ˆSδ

N = S ε} terjadi dp1 untuk N cukup besar.

3.3.2 Tingkat kekonvergenan

Hasil di atas tidak menunjukkan segalanya tentang tingkat kekonvergenan ˆvN dan ˆSδ

N kepada mitra yang sebenarnya. Dengan penggunaan teori Deviasi Besar (DB), menunjukkan bahwa, pada δ ∈ [0, ε] peluang peristiwa { ˆS⊂ S

ε

} mendekati 1 bersifat exponensial yang cepat ketika N → ∞.

Anggaplah ε ≥ 0, δ ∈ [0, ε], dan peristiwa { ˆS= S ε }. Pernyataan berikut menyatakan bahwa: n ˆ SNδ 6⊂ Sεo= [ x∈S\Sε \ y∈S {ˆgN (x) ≤ ˆgN(y) + δ} (3.6) Karenanya: P nSˆNδ 6⊂ Sεo≤ X x∈S\Sε P \ y∈S {ˆgN (x) ≤ ˆgN (y) + δ} ! (3.7)

(25)

14 (3.7) bahwa: P n ˆ S6⊂ S εo ≤ X x∈S\Sε P (ˆgN(x) − ˆgN(u (x)) ≤ δ) (3.8)

Kita berasumsi bahwa pemetaan u(x) dipilih sedemikian sehingga untuk beber-apa ε> ε, menyebabkan

g (u (x)) ≤ g (x) − εuntuk semua x ∈ S\Sε (3.9)

Jika u(.) adalah suatu pemetaan dari S\Sε ke himpunan S, dimana u(x) ∈ Suntuk semua x ∈ S\Sε, maka persamaan (3.9) menyatakan bahwa:

ε∗ = min

x∈S\Sεg (x) − v

(3.10)

dan ε> ε karena himpunan S berhingga. Oleh karena itu suatu pemetaan u(.) sesuai dengan kondisi persamaan (3.9) yang selalu ada.

Karena masing-masing x ∈ S\Sε, misalkan H(x, w) = G(u(x), w) − G(x, w), maka ekspektasi E|H(x, W )| = G(u(x)) − G(x), maka ekspektasi E|H(x, W )| ≤ −ε. Misalkan W1, · · · , WN sampel acak bbi untuk N realisasi vektor acak W, anggaplah fungsi rata-rata sampel sebagai: ˆhN(x) = N1

N P j=1

H (x, Wj) = ˆg

N(u (x)) − ˆgN(x). Pernyataan berikut mengikuti dari persamaan (3.8) yaitu:

P nSˆNδ 6⊂ Sεo< X

x∈S\Sε

PhN(x) > −δ 

(3.11)

Misalkan Ix(.) menandakan fungsi tingkat DB . Ketidaksamaan (3.11) menyi-ratkan bahwa: P n ˆ S6⊂ S εo < X x∈S\Sε e−N Ix(−δ) (3.12)

(26)

15

Asumsi ( A): Untuk tiap-tiap x ∈ S menyebabkan fungsi pembangkit moment dari variabel acak H(x, W ) berhingga dalam suatu neighborhood 0.

Asumsi ( A) di atas menyatakan bahwa, jika H(x, W ) suatu variabel acak yang dibatasi, atau jika H(x, .) tumbuh secara linier dan W mempunyai himpunan distribusi bersifat exponensial.

Teorema 2: Misalkan ε dan δ bilangan nonnegatif seperti δ ≤ ε , maka

P nSˆNδ 6⊂ S εo ≤ |S\Sε| e−Nγ(δ,ε) (3.13) di mana γ (δ, ε) = min x∈S\SεIx(−δ) (3.14)

Lebih dari itu, jika Asumsi ( A) sebagai pegangan, maka γ (δ, ε) > 0 Bukti:

Ketidaksamaan (3.13) adalah suatu konsekwensi utama dari ketidaksamaan (3.12). Pernyataan tersebut menyatakan bahwa −δ > −ε≥ E[H(x, W )], dan karenanya mengikuti Asumsi ( A) bahwa Ix(−δ) > 0 untuk tiap-tiap x ∈ S\Sε. Ini menyiratkan bahwa γ(δ, ε) > 0. Terbukti.

Hasil asymptotic berikut adalah suatu konsekwensi utama ketidaksamaan (3.13) yaitu: lim sup N →∞ 1 N log[1 − P  ˆ SNδ ⊂ Sε  ] ≤ −γ (δ, ε) (3.15)

Mengikuti ketidaksamaan (3.15) menyebabkan peluang peristiwa ( ˆSδ N ⊂ S

ε) mendekati 1 secara exponensial yang cepat ketika N → ∞. Sampling Monte Carlo yang dikombinasikan dengan suatu metoda efisien untuk memecahkan permasalahan

(27)

16

PRS yang deterministik, dengan ketentuan bahwa konstanta γ(δ, ε) bukanlah terlalu kecil. Konstanta γ(δ, ε) dalam persamaan (3.14) dapat didekati oleh:

γ (δ, ε) ≈ min x∈S\Sε (−δ − E |H (x, W )|)2 2 x ≥ − δ)2 2 max > (ε − δ) 2 2 max (3.16) di mana, σmax2 = max x∈S\SεV ar (G (u (x) , W ) − G (x, W )) (3.17)

Fungsi tingkat DB variabel acak G(x, W ) yang digunakan, mengakibatkan perki-raan bersifat konstanta exponensial serupa kepada menaksir persamaan (3.16) tetapi dengan σ2

x yang digantikan oleh varians G(x, W ). Dalam kaitan dengan suatu hal korelasi positif antara G(x, W ) dan G(u(x), W ), varians G(x, W ) − G(u(x), W ) cen-derung menjadi lebih kecil dibanding varians G(x,W), dengan demikian batas atasnya lebih kecil dari pada P nSˆδ

N 6⊂ S

εo, terutama ketika u(x) dipilih untuk memperkecil

var[G(x, W ) − G(u(x), W )]

[g(x) − g(u(x))]2

Untuk menggambarkan implikasi beberapa batas persamaan (3.13) karena isu kompleksitas memecahkan permasalahan stokastik, ditentukan suatu tingkat signifikan

α ∈ (0, 1), dan penaksiran ukuran sampel N yang diperlukan untuk peluang P { ˆSNδ ⊂

Sε} menjadi sedikitnya 1 − α. Dengan ruas kanan persamaan (3.13) menjadi kecil dari atau sama dengan α, diperoleh:

N ≥ 1 γ (δ, ε)log  |S\Sε| α  (3.18)

Lebih dari itu persamaan (3.14) menjadikan γ(δ, ε) ≥ (ε−δ)2 2

max untuk semua ε ≥ 0 yang kecil. Oleh karena itu untuk semua ε ≥ 0 yang cukup kecil dan δ ∈ (0, ε), suatu kondisi cukup untuk persamaan (3.18) adalah:

N ≥ 2 max log  |S| (3.19)

(28)

17

Batas persamaan (3.19) mungkin terlalu konservatif untuk perkiraan praktis ukuran sampel yang diperlukan. Bagaimanapun, perkiraan persamaan (3.19) mem-punyai konsekwensi menarik untuk isu kompleksitas. Suatu karakteristik kunci per-samaan (3.19) adalah N hanya bergantung kedua-duanya secara logaritma pada him-punan feasibel S dan peluang toleransi α. Anggaplah:

i. ukuran himpunan feasibel S tumbuh paling banyak secara exponensial,

ii. varians σ2

max tumbuh secara polinomial,

iii. kompleksitas menghasilkan suatu penyelesaian δ-optimal untuk persamaan (3.3) tumbuh secara polinomial pada ukuran sampel N.

Kemudian penyelesaian yang tumbuh secara polinomial, dengan peluang sedikitnya 1 − α, disebut penyelesaian ε-optimal untuk persamaan (3.2).

Sekarang anggaplah suatu moment permasalahan yang sebenarnya mempunyai penyelesaian optimal unik x, yaitu S= {x} adalah suatu singleton, dan pertim-bangkan peristiwa permasalahan PRS persamaan (3.3) mempunyai penyelesaian opti-mal unik ˆxN dan ˆxN = x∗. Peristiwa itu ditandai oleh {ˆxN = x∗}. Lagipula, anggaplah pemetaan u : S\Sε → {x}, yaitu u(x) = x, dan konstan bersesuaian γ= γ(0, 0). Pernyataan berikutnya adalah:

γ∗ = min

x∈S\{x∗}Ix(0) (3.20) dengan Ix(.) menjadi fungsi tingkat DB yaitu G(x, W ) − G(x, W ). Maka ekspektasi nilai E|G(x, W )−G(x, W )| = g(x)−g(x) dan karenanya E|G(x, W )−G(x, W )| < 0 untuk tiap-tiap x ∈ S\{x}. Oleh karena itu, jika Asumsi (A) sebagai pegangan, fungsi pembangkit moment G(x, W )−G(x, W ) bernilai berhingga dalam suatu

(29)

18

Teorema 3:

Anggaplah permasalahan sebenarnya mempunyai penyelesaian optimal unik x∗ dan fungsi pembangkit moment dari tiap-tiap variabel acak G(x, W ) − G(x, W ), x ∈ S\{x∗}, adalah bernilai berhingga pada R. Kemudian

lim N →∞ 1 N log [1 − P (ˆxN = x)] = −γ∗ (3.21)

Bukti: Mengikuti persamaan (3.15),

lim sup N →∞ 1 N log[1 − P (ˆxN = x)] ≤ −γ∗ (3.22)

Anggaplah komplemen peristiwa {ˆxN = x∗}, ditandai dengan {ˆxN 6= x∗}. Peri-stiwa {ˆxN 6= x∗} sama dengan gabungan peristiwa {ˆgN(x) ≤ ˆgN(x)}, x ∈ S\{x∗}. Oleh karena itu, untuk x ∈ S\{x} manapun, P (ˆxN 6= x≥ P (ˆgN(x) ≤ (ˆgN(x∗)). De-ngan penggunaan batas bawah teorema DB Cramers, pernyataan tersebut mengikuti ketidaksamaan berikut: lim inf N →∞ 1 N log[1 − P (ˆxN = x)] ≥ −Ix(0) (3.23)

Sebagai pegangan untuk tiap-tiap x ∈ S\{x∗}. Ketidaksamaan (3.22) dan (3.23) menyiratkan persamaan (3.21). Terbukti.

Anggaplah S= {x∗} dan bilangan,

κ = max

x∈S\{x∗}

V ar [G (x, W ) − G (x, W )]

[g (x) − g (x)]2 (3.24) Dengan mengikuti persamaan (3.21), bahwa κ ≈ (2γ)1 2.κ dipandang sebagai suatu bilangan berkondisi permasalahan sebenarnya. Ukuran sampel peristiwa {ˆxN = x∗} diperlukan untuk terjadi dengan peluang ditentukan secara kasar sebanding dengan κ.

(30)

19

Permasalahan dengan suatu himpunan feasibel besar S, bilangan min

x∈S\{x∗}g (x)−

g (x) walaupun positif jika S= {x∗} cenderung menjadi kecil. Oleh karena itu uku-ran sampel diperlukan untuk mengkalkulasikan penyelesaian optimal {x∗} yang tepat. Karena permasalahan dalam keadaan kurang baik, dicari pendekatan penyelesaian (ε-optimal) dari permasalahan sebenarnya. Batas persamaan (3.13) jadilah lebih in-formatif karena konstanta bersesuaian γ(δ, ε) dijamin untuk menjadi order sedikit

(ε−δ)2 2σ2

max.

Pernyataan di atas juga insightful untuk mencatat suatu perilaku kondisi bilang-an κ permasalahbilang-an optimisasi diskrit dengbilang-an fungsi objektif linier G (x, W ) =

k P i=1

Wixi dan himpunan feasibel S memberikan vertex dari hypercube unit Rk, yaitu S = {0, 1}k. Di dalam kasus tersebut permasalahan optimisasi sebenarnya adalah bersesuaian de-ngan min x∈{0,1}k  g (x) = k P i=1 $ixi 

dimana $i = E [Wi] Umpamakan bahwa $i > 0

untuk semua i ∈ {1, · · · , k}, adalah penyelesaian optimal unik dari permasalahan sebenarnya, yaitu S= {0}.

Diberikan ϑ2 i =

V ar[Wi]

(E[Wi])2 menandakan koefisien variasi kuadrat Wi, dan misalkan

ρij = Cov[Wi,Wj] √ V ar[Wi] √ V ar[Wj]

menandakan koefisien korelasi antara Wi dan Wj. Pernyataan tersebut untuk x ∈ {0, 1}k\{0} manapun, mengikuti: V ar[

Pk i=1Wixi] [Pki=1$ixi] 2 = Pk i=1 Pk j=1ρijϑi$ixiϑj$jxj Pk i=1 Pk j=1$ixi$jxj ≤ max i∈{1,...,k}ϑ 2

i. Seperti itu, κ = max x∈{0,1}k\{0} V ar[Pki=1Wixi] [Pki=1$ixi] 2 = max i∈{1,...,k}ϑ 2 i

Persamaan yang terakhir mengikuti sebab yang maksimum dicapai dengan pen-gaturan xi = 1 untuk index i di mana W i mempunyai koefisien maksimum variasi kuadrat ϑ2i, dan menentukan xj = 0 untuk variabel sisa.

3.3.3 Nilai Objektif Sampel Asymptotic

Subset S dari S mengikuti ketidaksamaan ˆvN ≤ minx∈S0ˆgN (x). Khususnya, dengan S = S∗, pernyataan tersebut mengikuti ˆvN ≤ minx∈SgˆN(x), dan karenanya

(31)

20

merupakan estimator ˆvN yang bias negatif, ekspektasi nilai E [ˆvN] ≤ E  min x∈S∗ˆgN(x)  ≤ min x∈S∗E [ˆgN(x)] = v

Pernyataan tersebut mengikuti Teorema 2 dp1 untuk N cukup besar, dimana himpunan ˆSN penyelesaian optimal permasalahan PRS tercakup di dalam S∗. Di dalam kasus tersebut menyatakan bahwa, ˆvN = min

x∈ˆδN ˆ

gN(x) ≥ min

x∈S∗ˆgN(x). Karena ketidaksamaan kebalikan sebagai pegangan, pernyataan tersebut mengikuti dp1, di-mana ˆvN − min

x∈S∗gˆN(x) = 0 untuk N cukup besar. Kemudian kalikan kedua ruas persamaan ini oleh

N yang mengikuti dp1, menjadi

N [ˆvN− min

x∈S∗gˆN (x)] = 0 untuk

N cukup besar, dan karenanya

lim N →∞

N [ˆvN − min

x∈S∗gˆN (x)] = 0 dp1 (3.25) Karena dp1 konvergen menyiratkan konvergen di dalam peluang, pernyataan tersebut mengikuti persamaan (3.25) bahwa

N [ˆvN − min

x∈S∗ˆgN(x)] konvergen dalam peluang kepada nol, yaitu ˆvN = min

x∈S∗ˆgN(x) + oP 

N−12 

. Lagipula, karena v= g(x) untuk

x ∈ Smanapun, pernyataaan tersebut berubah menjadi:

N [min x∈S∗gˆN(x) − v ∗ ] = √ N min x∈S∗[ˆgN(x) − v ∗ ] = min x∈S∗ n√ N [ˆgN(x) − g (x)] o

Anggaplah bahwa untuk tiap-tiap x ∈ S varians dapat ditulis menjadi:

τ2(x) = var(G(x, W )) (3.26)

ada. Kemudian mengikuti teorema limit pusat (TLP) bahwa, untuk x ∈ S manapun,n√N [ˆgN(x) − g (x)]

o

konvergen dalam distribusi kepada suatu variabel yang didistribusikan secara normal Z(x) dengan rata-rata nol dan varians σ2(x). Lebih dari itu, mengikuti TLP, variabel acak Z(x0) mempunyai fungsi kovarians yang sama sebagai G(x0, W ), yaitu: kovarians antara Z(x) danZ(

(32)

21

Anggaplah varians σ2(x) yang digambarkan dalam persamaan (3.26), ada untuk tiap-tiap x ∈ S∗ kemudian

N (ˆvN − v∗) ⇒ min

x∈S∗Z (x) (3.27)

dimana Z(x) suatu variabel acak berdistribusi secara normal dengan rata-rata nol dan fungsi kovarians yang bersesuaian G(x, W ). Jika S= (x∗) adalah suatu

singleton, kemudian

N (ˆvN − v) ⇒ N 0, σ2(x∗)

 (3.28)

Walaupun untuk x manapun sebagai nilai rata-rata yang diharapkan dari Z(x) adalah nol, yang diharapkan nilai minimum Z(x) di atas suatu subset S0 dari S da-pat negatif dan cenderung menjadi lebih kecil untuk suatu himpunan lebih besar S0. Oleh karena itu, mengikuti persamaan (3.28) untuk permasalahan dalam kondisi yang kurang baik, dimana himpunan dari penyelesaian atau hampir optimal adalah be-sar, perkiraan ˆvN dari v∗ cenderung menjadi dibiaskan. Di bawah kondisi tambahan mengikuti persamaan (3.28) bahwa

N (E(ˆvN) − v∗) → E[minx∈SZ (x)].

Hal penting yang perlu diperhatikan adalah sebagai berikut:

1. Apakah ˆvN dan ˆxN konvergen terhadap mitranya vdan x∗ apabila ukuran sampel N dinaikkan.

2. Jika ya, dapat dianalisis lagi konvergensi, dan karena itu diestimasikan ukuran sampel yang diperlukan memperoleh optimal sebenarnya

3. Adalah pendekatan optimisasi yang efisien untuk menyelesaikan masalah PRS dengan ukuran sampel yang diinginkan.

(33)

22

4. Perhatikan bahwa untuk N yang diketahui penyelesaian ˆxN adalah layak dan merupakan calon untuk penyelesaian optimal terhadap permasalahan awal. Apakah dapat diberikan informasi tentang kualitas dari calon penyelesaian itu.

Pertanyaan-pertanyaan diatas telah dijawab untuk program stokastik diskrit. Telah dibuktikan bahwa untuk program stokastik linier dengan sebaran diskrit, su-atu penyelesaian optimal dari PRS memberikan penyelesaian optimal eksak dari per-masalahan awal dengan peluang mendekati 1 secara eksponensial apabila N bertam-bah sebagaimana dikemukakan oleh (Shapiro, 2001). Syarat-syarat optimalitasnya menurut (Ahmed, 2002) telah diajukan. Lebih lanjut lagi, teknik sampling ini telah diintegrasikan untuk menyelesaikan program linier stokastik dari berbagai ukuran de-ngan hasil yang cukup akurat. Kemudian konvergensi dari pendekatan PRS telah juga diperluas untuk program stokastik dengan himpunan keputusan diskrit dan berhingga oleh Kleywegt (2001).

(34)

BAB 4

PENGEMBANGAN PENDEKATAN RATA-RATA SAMPEL

Metode PRS merupakan suatu metode layak dapat digunakan untuk menyele-saikan permasalahan optimisasi program stokastik diskrit. Menurut Kleywegt (2001) metode PRS memiliki rata-rata yang bersifat numerik dari pendekatan sebuah penye-lesaian oleh simulasi Monte Carlo.

Dalam bagian yang sebelumnya ditetapkan sejumlah hasil konvergen untuk metode PRS. Hasil tersebut menguraikan bagaimana nilai optimal ˆvN dan himpunan

ˆ

SNε penyelesaian ε-optimal program PRS konvergen kepada mitranya vdan Sε, keti-ka meningketi-katketi-kan ukuran sampel N . Hasil ini menyediaketi-kan beberapa pertimbangan teoritis untuk metode yang diusulkan.

4.1 Penetapan Ukuran Sampel

Dalam suatu algoritma, suatu ukuran sampel N berhingga atau suatu barisan ukuran sampel berhingga harus dipilih, dan algoritma harus berhenti setelah sejumlah waktu berhingga. Perkiraan persamaan (3.19) memberikan suatu batas pada uku-ran sampel yang diperlukan untuk mendapatkan suatu penyelesaian ε-optimal dengan peluang sedikitnya 1 − α. Perkiraan ini mempunyai dua kekurangan untuk perhi-tungan tujuan. Pertama, karena banyaknya permasalahan bukanlah mudah untuk menghitung perkiraan, sebab σ2max dalam beberapa permasalahan mungkin susah un-tuk dihitung. Ke dua, batasnya mungkin terlalu konservatif unun-tuk memperoleh suatu perkiraan praktis tentang ukuran sampel yang diperlukan.

(35)

24

Untuk memilih ukuran sampel N, beberapa cara harus diambil sebagai pilihan. Dengan N lebih besar, fungsi objektif dari permasalahan PRS cendrung menjadi perki-raan akurat dari fungsi objektif sebenarnya, suatu penyelesaian optimal permasalahan PRS cendrung menjadi penyelesaian lebih baik, dan bersesuaian pada batas gap opti-malitas. Bagaimanapun, tergantung pada permasalahan PRS (3.3) dan metode yang digunakan untuk memecahkan permasalahan PRS. Perhitungan kompleksitas meme-cahkan permasalahan PRS meningkat secara linier dan sering bersifat eksponensial, dalam ukuran sampel N. Karenanya penetapan ukuran sampel N , merupakan suatu cara untuk mendapatkan penyelesaian optimal permasalahan PRS, gap batas pada optimalitas pada satu bagian lain, dan usaha perhitungan pada bagian yang berikut-nya, harus menjadi pilihan. Penetapan ukuran sampel N yang mungkin disesuaikan dengan dinamis, tergantung pada hasil dari perhitungan persiapan.

Secara khusus, menaksir nilai objektif g(x) suatu penyelesaian feasibel x ∈ S oleh rata-rata sampel ˆgN(x) memerlukan sedikit usaha perhitungan dibandingkan me-mecahkan permasalahan PRS (untuk ukuran sampel N yang sama). Seperti itu, walaupun pertimbangan kompleksitas perhitungan satu motivasi untuk memilih su-atu ukuran sampel N yang kecil untuk permasalahan PRS. Pertimbangan itu dapat menjadi suatu gagasan untuk memilih ukuran sampel N0yang lebih besar untuk mem-peroleh suatu perkiraan yang akurat ˆgN0(ˆxN) tentang nilai objektif ˆg(xN) dari suatu penyelesaian optimal ˆxN permasalahan PRS.

Ukuran ketelitian suatu perkiraan rata-rata sampel ˆgN0(ˆxN) tentang g(ˆxN) di-berikan oleh varians sampel yang bersesuaian S

2 N 0(ˆxN)

N0 , yang mana dapat dihitung dari ukuran sampel yang sama N. Lagi pula pilihan N0melibatkan suatu cara antara usaha perhitungan dan ketelitian, yang terukur oleh S

2 N0(ˆxN)

(36)

25

4.2 Replikasi

Jika kompleksitas perhitungan memecahkan permasalahan PRS meningkat cepat secara linier dalam ukuran sampel N, mungkin saja lebih efisien untuk memilih suatu ukuran sampel N yang lebih kecil untuk menghasilkan pemecahan permasalahan PRS dengan sampel bbi, disebut pembangkit replikasi dalam memecahkan permasalahan PRS.

Dengan pendekatan seperti itu, beberapa isu harus ditujukan. Adakah suatu jaminan suatu penyelesaian optimal (atau ε-optimal) untuk permasalahan yang sebe-narnya akan dihasilkan jika suatu jumlah cukup permasalahan PRS, berdasar pada ukuran sampel N independents, dipecahkan. Procedur pemecahan itu dapat dipan-dang seperti percobaan Bernaulli dengan peluang sukses p = p(N ). Sukses di sini berarti bahwa suatu penyelesaian optimal ˆxN yang dihitung dari permasalahan PRS adalah suatu penyelesaian optimal dari permasalahan yang sebenarnya. Pernyataan tersebut mengikuti teorema 2, peluang p cendrung kepada 1 ketika N → ∞, lebih dari itu teorema 2 cendrung kepada 1 secara eksponensial yang cepat berpegang pa-da Asumsi (A). Bagaimanapun, untuk suatu N yang berhingga peluang p kecil atau bahkan nol. Peluang untuk menghasilkan suatu penyelesaian optimal permasalahan sebenarnya sedikitnya sekali dalam M percobaan adalah 1 − (1 − p)M, dan peluang ini

cendrung kepada suatu ketika M → ∞, p adalah positif.

Isu lain yang harus ditujukan adalah bagaimana pemilihan bilangan M rep-likasi. Suatu cara yang serupa kepada pemilihan ukuran sampel N , bilangan M replikasi mungkin terpilih dengan dinamis. Untuk simplikasi presentasi, umpamakan bahwa masing-masing PRS replikasi menghasilkan suatu calon penyelesaian, yang bisa merupakan suatu penyelesaian optimal (ε-optimal) permasalahan PRS. Diberikan ˆxm N menandakan calon penyelesaian itu yang dihasilkan ke-m PRS replikasi (percobaan).

(37)

26

Gap Optimalitas g(ˆxmN) − v

dapat diperkirakan. Jika suatu ukuran tempat berhenti berdasar pada perkiraan gap optimalitas itu dicukupi, kemudian tidak ada lagi rep-likasi dilakukan. Cara lainnya, tambahan reprep-likasi PRS dengan ukuran sampel yang sama N dilakukan, atau ukuran sampel N ditingkatkan. Argumentasi yang berikut menyediakan suatu petunjuk sederhana seperti pada suatu tambahan PRS replikasi dengan ukuran sampel yang sama N mungkin untuk menghasilkan suatu penyelesaian yang lebih baik.

Dengan konstruksi, variabel acak g(ˆxm

N), m = 1, 2, · · · adalah bbi, dan distribusi peluang yang umum mempunyai suatu sokongan berhingga sebab himpunan S berhing-ga. Anggaplah M replikasi dengan ukuran sampel N telah dilakukan. Jika distribusi peluang G(ˆxN) terus dilakukan, kemudian peluang yang ke-(M+1) PRS replikasi de-ngan ukuran sampel yang sama menghasilkan suatu penyelesaian lebih baik dan akan bersifat sama ke 1/(M+ 1). Karena distribusi g(xN) adalah diskrit, peluang ini harus kurang dari atau sama dengan 1/(M+ 1). Diharapkan 1/(M+ 1) menjadi cukup kecil, tambahan PRS replikasi dengan ukuran sampel yang sama tidaklah akan berharga, bagaimanapun ukuran sampel N harus ditingkatkan atau prosedur seharusnya yang dihentikan.

4.3 Batas Capaian

Untuk menghentikan keputusan, seperti halnya untuk evaluasi capaian dimak-sud, lebih disukai menghitung gap optimalitas g(ˆx) − v∗ untuk penyelesaian yang ditentukan pada x ∈ S. Yaitu: ˆgN0(ˆx) = 1

N PN0

j=1G(ˆx, W j

) adalah suatu estimator

g(ˆx), dan varians ˆgN0(ˆx) diperkirakan oleh S2

N 0(ˆx)

N0 , dimana S 2

N(ˆx) adalah perbedaan sampel G(ˆx, Wj), yang didasarkan pada ukuran sampel N0.

Suatu estimator v* diberikan: ¯vNm = 1 M PM m−1ˆv m N. Dimana ˆv m N menandakan nilai objektif optimal ke-m PRS replikasi. ekspektasi E[¯vM] = E[ˆv ], dan karenanya

(38)

27

estimator ¯vMN mempunyai bias negatif yang sama sebagai ¯vN.

Dari persamaan (3.27) & (3.28) menunjukkan bahwa pembiasan ini cen-derung menjadikan penyelesaian lebih besar satuan optimal pada permasalahan dalam keadaan kurang baik, atau hampir optimal. Pertimbangkan estimator yang bersesua-ian itu adalah: ˆgN0(ˆx) − ¯vM

N sebagai optimalitas gap g(ˆx) − v

, di titik ˆx. Karena,

EgˆN1(ˆx) − ¯vNM 

= g (ˆx) − E [ˆvN] ≥ g (ˆx) − v∗ (4.1)

mengikuti pada rata-rata di atas estimator menaksir optimalitas gap g(ˆx) − vterlalu tinggi. Itu adalah mungkin untuk menunjukkan bahwa bias v− E[ˆv

N] monoton turun dalam ukuran sampel N. Varians ¯vM

N diperkirakan oleh: SM2 M = 1 M (M − 1) M X m=1 ˆ vNm− ¯v M N 2 (4.2)

Jika sampel M dengan ukuran N, dan sampel evaluasi dengan ukuran N0adalah inde-pendent, kemudian varians estimator gap optimalitas ˆgN0(ˆx) − ¯vM

N dapat diperkirakan oleh S 2 N 0(ˆx) N0 + S2 M M .

Suatu estimator gap optimalitas g(ˆx)−vdengan varians yang lebih kecil adalah ¯ gM N(ˆx) − ¯v M N, dimana ¯g M N(ˆx) = 1 M σ M m=1ˆg M N(ˆx) dan ˆg m

N(ˆx) adalah nilai objektif rata-rata sampel pada ˆx sampel ke-m PRS ukuran N, ˆgm

N(ˆx) = 1 N PN j=1G(ˆx, W mj). Varians ¯ gM N(ˆx) − ¯v M N diperkirakan oleh ¯ SM2 M = 1 M (M −1) PM m=1[(ˆg m N(ˆx) − ˆv m N) − (¯g M N(ˆx) − ¯v M N)] 2. Estimator gap optimalitas yang mana mempunyai varians paling kecil tergantung pa-da korelasi antara ˆgm

N(ˆx) dan ˆv m

N, seperti halnya pada ukuran sampel N, N

0 dan M. Computational usaha tambahan untuk menghitung ˆgm

N(ˆx) untuk m = 1 · · · , M perlu juga diperhitungkan ketika mengevaluasi seperti reduksi varians. Yang manapun jalan TLP dapat diberlakukan bagi estimator gap optimalitas ˆgN0(ˆx) − ¯vM

N dan ¯g M

N(ˆx) − ¯v M N, sedemikian sehingga ketelitian dari suatu estimator gap optimalitas dapat diperhi-tungkan oleh penambahan estimasi simpangan baku 2α kepada estimator tersebut.

(39)

28

Di sini zα = Φ−1(1 − α), dimana Φ (z) adalah fungsi distribusi kumulatif standard normal. Sebagai contoh, jika x ∈ S menandakan calon penyelesaian itu dengan nilai ˆgN0(ˆx) yang terbaik ditemukan setelah replikasi M, kemudian suatu estimator gap optimalitas mempertimbangkan ketelitian ˆgN0(ˆx) − ¯vM

N + Zα S2 N 0(ˆx) N0 + S2 M M 2 atau ¯ gM N(ˆx) − ¯v M N + zα ¯ SM √ M.

Karena algoritma kontrol berguna bagi memisahkan suatu estimator gap opti-malitas ke dalam komponennya. Sebagai contoh, ˆgN0(ˆx) − ¯vM

N + zα S2 N 0(ˆx) N0 + S2M M 2 = (ˆgN0(ˆx) − g (ˆx)) + (g (ˆx) − v) + v∗− ¯vM N  + zα  S2 N0(ˆx) N0 + S2 M M 1 2 (4.3)

Di dalam empat terminologi pada sisi kanan peryataan di atas, istilah yang per-tama mempunyai nilai yang diharapkan nol; istilah yang kedua adalah gap optimali-tas benar; istilah yang ketiga adalah bias, yang mempunyai hal positif mengharapkan penurunan nilai dalam ukuran sampel N; dan istilah yang keempat adalah ketelitian, yang mana penurunan jumlah M replikasi ukuran sampel N. Dengan begitu suatu kekurangan dari estimator gap optimalitas adalah bahwa estimator tersebut mungkin besar jika M , N , atau N0adalah kecil, sekalipun ˆx adalah suatu penyelesaian optimal,

yaitu g(ˆx) − v∗ = 0.

4.4 Postprocessing, Penyaringan, dan Pemilihan

Anggaplah suatu keputusan telah dibuat untuk proses pemberhentian, sebagai contoh ketika estimator gap optimalitas cukup kecil. Pada langkah ini calon penye-lesaian x ∈ S dengan nilai yang terbaik ˆgN0(ˆx) dapat terpilih ketika penyelesaian itu dipilih. Bagaimanapun, mungkin saja bermanfaat untuk melaksanakan suatu evaluasi lebih terperinci menghasilkan calon penyelesaian sepanjang replikasi. Ada beberapa metode pemilihan dan penyaringan statistik untuk memilih subset penyelesaian atau

(40)

29

penyelesaian nilai objektif.

Sepanjang langkah yang pertama prosedur dikombinasikan, suatu subset S00 ten-tang calon penyelesaian S0= {ˆx1

N, · · · , ˆx M

N} dipilih disebut penyaringan untuk evaluasi lebih lanjut, berdasar pada nilai rata-rata sampel ˆgN0(ˆxm

N). Sepanjang langkah yang kedua, ukuran sampel N00 ≥ N0 ditentukan untuk evaluasi lebih terperinci, berdasar pada varians sampel S2

N0(ˆx m

N). Kemudian N

00 − N0 pengamatan tambahan yang di-hasilkan, dan calon penyelesaian ˆx ∈ S00 dengan nilai yang terbaik ˆg

N00(ˆx) terpilih ketika yang dipilih penyelesaian. Prosedur yang dikombinasikan menjamin bahwa pe-nyelesaian yang di pilih mempunyai nilai objektif g(ˆx) di dalam suatu toleransi

dite-tapkan δ dengan nilai yang terbaik minxˆm N∈Sg (ˆx

m

N) di atas semua calon penyelesaian ˆ

xm

N dengan peluang sedikitnya sama dengan tingkat kepercayaan spesifik 1 − α. 4.5 Menyelesaikan permasalahan PRS

Secara prinsip teknik enumerasi kleyweght (2001) dapat dipakai untuk menyele-saikan permasalahan PRS (3.3). Pertama, perkiraan persamaan (3.19) memberikan suatu batas pada ukuran sampel yang diperlukan untuk mendapatkan suatu penyele-saian δ-optimal dengan peluang sedikitnya 1 − α. Pemilihan ukuran sampel N lebih besar, menyebabkan fungsi objektif dari permasalahan PRS cendrung untuk menjadi perkiraan yang akurat dari fungsi objektif sebenarnya. Mengakibatkan penyelesaian optimal permasalahan PRS cendrung untuk menjadi penyelesaian yang lebih baik, dan bersesuaian pada batas gap optimalitas. Bagaimanapun, tergantung pada permasala-han PRS dan metode yang digunakan, perhitungan kompleksitas untuk memecahkan permasalahan PRS meningkat secara linier dan bersifat eksponensial, dalam ukuran sampel N.

Kedua, kompleksitas perhitungan memecahkan permasalahan PRS, mungkin lebih efisien untuk memilih ukuran sampel N yang lebih kecil dengan sampel bbi,

(41)

30

disebut pembangkit replikasi. Anggaplah M replikasi dengan ukuran sampel N telah dilakukan. Distribusi peluang g(ˆxN) menyebabkan peluang yang ke-(M+1) PRS rep-likasi dengan ukuran sampel yang sama menghasilkan suatu penyelesaian lebih baik dan bersifat sama ke 1/(M+ 1). Karena distribusi diskrit, peluang ini harus ku-rang dari atau sama dengan 1/(M+ 1). Diharapkan 1/(M+ 1) menjadi cukup kecil, tambahan PRS replikasi dengan ukuran sampel yang sama tidaklah akan berharga, bagaimanapun ukuran sampel N harus ditingkatkan atau prosedur seharusnya yang dihentikan.

Ketiga, untuk menghentikan keputusan atau evaluasi capaian, lebih disukai menghitung gap optimalitas g(ˆx)−vpenyelesaian yang ditentukan pada x ∈ S. Suatu estimator gap optimalitas g(ˆx) − vdengan varians yang lebih kecil adalah ¯gM

N(ˆx) − ¯v M N, dan ˆgm

N(ˆx) adalah nilai objektif rata-rata sampel pada sampel ke-m PRS ukuran N.

Estimator gap optimalitas yang mana mempunyai varians paling kecil tergantung pada korelasi antara ˆgm

N(ˆx) dan ˆv m

N, seperti halnya pada ukuran sampel N, N

0 dan M.

Keempat, Anggaplah suatu keputusan telah dibuat untuk proses pemberhen-tian, sebagai contoh ketika estimator gap optimalitas cukup kecil. Selanjutnya calon penyelesaian x ∈ S dengan nilai yang terbaik ˆgN0(ˆx) dapat terpilih ketika penyelesai-an itu dipilih. Digunakpenyelesai-an metode pemilihpenyelesai-an dpenyelesai-an penyaringpenyelesai-an statistik untuk memil-ih subset penyelesaian antara berhingga himpunan penyelesaian. Pertama prosedur dikombinasikan, suatu subset S00 tentang calon penyelesaian S0= {ˆx1n, · · · , ˆx

M

N} dipil-ih untuk evaluasi lebdipil-ih lanjut, berdasar pada nilai rata-rata sampel ˆgN0(ˆxm

N). Kedua, ukuran sampel N00 ≥ N0 ditentukan untuk evaluasi lebih terperinci, berdasar pada varians sampel SN20(ˆxmN). Kemudian N00− N0 pengamatan tambahan yang dihasilkan, dan calon penyelesaian ˆx ∈ S” dengan nilai yang terbaik ˆgN ”(ˆx) terpilih ketika yang

(42)

31

Berikut ini algoritma PRS untuk permasalahan optimisasi program stokastik diskrit yang dikemukana oleh Kleywegt (2001) berbunyi:

1. Pilih ukuran sampel awal N dan N0, dimana suatu kaidah keputusan untuk menentukan jumlah M dari replikasi PRS (mungkin meliputi suatu jumlah mak-simum M0 dari PRS replikasi dengan ukuran sampel yang sama, seperti 1

M0+1 yang cukup kecil), suatu kaidah pengambilan keputusan untuk meningkat uku-ran sampel N dan N’ jika dibutuhkan, dan toleuku-ransi ε.

2. Untuk m = 1, 2, · · · , M , lakukan langkah 2.1 hingga 2.3. Bangkitkan sebuah sampel berukuran N, dan pecahkan permasalahan PRS (3.2), dengan nilai ob-jektif ˆvNm dan ε-penyelesaian optimal ˆxmN . Estimasikan atau perkirakan gap optimalitas g(ˆxmN) − v∗, dan varians dari gap estimator. Jika gap optimalitas dan varians dari gap estimator adalah cukup kecil, lanjutkan ke langkah 4.

3. Jika gap optimalitas atau varians dari gap estimator adalah terlalu besar, naikkan ukuran sampel N atau N0, dan kembali ke langkah 2.

4. Pilih penyelesaian terbaik ˆx diantara semua calon penyelesaian ˆxmN yang ada, dengan menggunakan sebuah penyaringan dan prosedur seleksi. Berhenti.

(43)

BAB 5

KESIMPULAN DAN SARAN

5.1 Kesimpulan

Ada beberapa kesimpulan yang dapat ditarik, diantaranya:

1. Pemilihan ukuran sampel N yang lebih besar menyebabkan fungsi objektif dari permasalahan PRS cendrung untuk menjadi perkiraan yang akurat dari fungsi objektif sebenarnya, dimana suatu penyelesaian optimal permasalahan PRS cen-drung untuk menjadi penyelesaian yang lebih baik, dan bersesuaian pada batas gap optimalitas.

2. Batas capaian yang dimaksud jika gap optimalitas dan varians dari gap estimator adalah cukup kecil

3. Proses pemilihan dan penyaringan statistik yaitu: Pertama semua prosedur sub-set S0 dikombinasikan, dimana calon penyelesaian S = {ˆxN0· · · , ˆxM

N} dipilih, berdasar pada nilai rata-rata sampel ˆgN0(ˆxm

N). Kedua, ukuran sampel N 00

≥ N0 ditentukan berdasarkan pada varians sampel SN20(ˆxmN).

5.2 Saran

Penelitian ini menggunaan metode pendekatan rata-rata sampel untuk menda-patkan penyelesaian optimal dalam permasalahan program optimisasi stokastik diskrit. Penelitian selanjutnya disarankan dapat menggunakan median sebagai ganti rata-rata pada sampel, disebabkan kerena median lebih tahan terhadap outlier.

(44)

DAFTAR PUSTAKA

Alrefaei, Mahmoud H., Sigrun Andradottir, 1999, A Simulated Annealing Algorithms with Constant Temperature for Discrete Stochastic Optimization, Management

Science/Vol. 45, No. 5, May 1999.

Borndorfer, Ralf, 2008, Discrete Optimization in Public Transportation, paper presented at the 1st Indo-US Symposium on Advances in Mass Transit and Travel Behaviour

Research February 12-15, 2008, IIT Guwahati, Assam, India.

Chang H. S., Jiaqiqo H., Michael C. F., and Steven I. M., 2007, Non-stochastic Multi-Armed Bandit Approach to Stochastic Discrete Optimization,

http://www.isr.umd.edu./ Marcus/docs/adv.pdf , tanggal akses 15 desember 2008.

Greenwald, A., Bryan Gullemette, Viktor Naraditskiy, dan T. Schantz, 2008, Scaling Up the Sample Average Approximation Method for Stochastic Optimization wih Applications to Trading Agent, http://www.sics.se/tada05/greenwald.pdf, tanggal akses 15 desember 2008.

Jeff, Hong, L., 2006, Discrete Optimization via Simulation Using COMPASS, OPERATION RESEARCH, Vol 54, No. 1, pp. 115-129.

Hill, Stacy D., 2005, Discrete Stochastic Approximation with Application to Resource Allocation, Johns Hopkins APL Technical Digest, Vol. 26, No. 1, 2005

Kleywegt, A. J., A. Shapiro, and T. Homem-De-Mello, 2001. The sample average ap-proximation method for stochastic discrete optimization. SIAM Journal of

Opti-mization, 12:479-502.

Rossi, R., S. Armagan Tarim, Brahim Hnich, and Steven Prestwich, 2008, A Sam-ple Average Approximation Approach for Even-Driven Probabilistic constrain Programming,http://4c.ucc.ie/4cite/TR-02-2008.pdf, tanggal akses 15 desember 2008.

Shapiro, A., and Homem de Mello, T., 2001, On Rate of Convergence of Monte Carlo Approximations of Stochastic Program, SIAM Journal on Optimization, 11:70-86. Shi, L., Chun-Hung C., 2008, A New Algorithm for Stochastic Discrete Resource Allo-cation Optimization, http://www.jhvalp.edu/SPSA/PDF-SPSA/Hill-Techg05.pdf, tanggal akses 15 desember 2008.

Referensi

Dokumen terkait

Sementara itu, Carter, Monckza &amp; Mosconi (2005) dalam penelitiannya pada fungsi purchasing dan supply 15 perusahaan besar yang telah memiliki sistem pengukuran kinerja yang

Penelitian ini mempelajari parameter pertumbuhan tiga kultivar kacang tunggak yang dikenal berbeda pola tumbuhnya: determinate (kultivar KT 1), semi-determinate (kultivar KT 4), dan

6454/Kelurahan Sempaja atas nama ACHMAD RIDUANSYAH Alias HENDRA SARWONO (dh. TJIO LIAN YHAY) (berdasarkan Surat Keputusan Kepala Kantor Pertanahan); --- DALAM PERMOHONAN:

Hasil penelitian menunjukkan bahwa secara keseluruhan, indek pengetahuan sebagian besar (65,6%) karyawan dalam kategori sedang, dan 27,7% karyawan memiliki pengetahuan

Melalui media internet, diharapkan fungsi dari Web mengenai Narkotika, Psikotropika, Zat aditif (NAPZA) ini dapat memberikan informasi- informasi yang dibutuhkan oleh masyarakat

1 TUJUAN TUGAS: Mahasiswa mampu menyusun silabus pembelajaran bahasa Inggris untuk tujuan khusus (English for Specific Purposes) berdasarkan hasil analisis kebutuhan pembelajar..

Tidak semua responden penyakit jantung yang mengkonsumsi makanan berlemak memiliki kadar LDL yang tinggi, hal ini dapat disebabkan karena tingkat kesadaran responden

Presentasi multimedia ini diterapkan dengan menjalankan aplikasi yang dibangun dengan menggunakan Macromedia Director dan memungkinkan konsumen memilih informasi yang