• Tidak ada hasil yang ditemukan

ANALISIS PERSOALAN OPTIMISASI KONVEKS DUA TAHAP (TWO-LEVEL)

N/A
N/A
Protected

Academic year: 2021

Membagikan "ANALISIS PERSOALAN OPTIMISASI KONVEKS DUA TAHAP (TWO-LEVEL)"

Copied!
70
0
0

Teks penuh

(1)

TESIS

Oleh

LASKER PANGARAPAN SINAGA 077021005/MT

SEKOLAH PASCASARJANA

UNIVERSITAS SUMATERA UTARA

MEDAN

2009

(2)

ANALISIS PERSOALAN OPTIMISASI KONVEKS

DUA TAHAP (TWO-LEVEL)

TESIS

Diajukan Sebagai Salah Satu Syarat

Untuk Memperoleh Gelar Magister Sains dalam

Program Studi Magister Matematika pada Sekolah Pascasarjana Universitas Sumatera Utara

Oleh

LASKER PANGARAPAN SINAGA 077021005/MT

SEKOLAH PASCASARJANA

UNIVERSITAS SUMATERA UTARA

MEDAN

2009

(3)

Nama Mahasiswa : Lasker Pangarapan Sinaga Nomor Pokok : 077021005

Program Studi : Matematika

Menyetujui, Komisi Pembimbing

(Dr. Tulus, M.Si) (Prof. Dr. Herman Mawengkang)

Ketua Anggota

Ketua Program Studi, Direktur,

(Prof. Dr. Herman Mawengkang) (Prof. Dr. Ir. T.Chairun Nisa. B, M.Sc)

(4)

Telah diuji pada Tanggal Juni 2009

PANITIA PENGUJI TESIS

Ketua : Dr. Tulus, M.Si

Anggota : 1. Prof. Dr. Herman Mawengkang 2. Dr. Sutarman, M.Sc

(5)

Persoalan program konveks dua tahap merupakan alat yang bermanfaat untuk memecahkan permasalahan keputusan yang hirarkis. Program ini meng-gunakan persoalan optimisasi dengan dua level yang hirarkis, dimana pengambil keputusan pada level lebih tinggi (upper) dan level lebih rendah (lower) masing-masing mempunyai kendala dan fungsi tujuan berupa fungsi konveks. Pembuat keputusan pada level lower harus mengoptimalkan fungsi tujuan di bawah para-meter yang diberikan oleh level upper. Tesis ini menunjukkan bahwa persoalan di atas dapat dipecahkan dengan menggunakan kombinasi dari Metode Proyeksi Gra-dien dan Metode Penalty, dengan membuat level lower berfungsi sebagai fungsi penalty dari himpunan yang layak, untuk menunjukkan regulerisasi. Proses regu-lerisasi ini dibutuhkan untuk menunjukkan analisis konvergensi barisan solusi ter-batas yang dibangkitkan metode tersebut.

(6)

ABSTRACT

The two level convex programming problems are useful tools for solving the hierarchy decision problems. This programming problems are nested optimization problems with two levels in a hierarchy, the upper level and lower level decision makers who have their own objective functions and constraints are convex func-tion. The decision maker at the lower level has to optimize its own objective function under the given parameters from the decision maker at the upper level. This paper will show that the above problem can be solved by using combination of Gradient Projection Method and Penalty Method, corresponding to taking the lower level function as penalty function of feasible set, for showing regularization. Some regularity process is needed for showing convergence analysis of generated bounded sequence of solutions of that methods.

(7)

Tesis ini berjudul Analisis Persoalan Optimisasi Konveks Dua Tahap (Analysis of Two Level Convex Optimization Problems). Tesis ini disusun sebagai salah satu syarat untuk memperoleh gelar Magister Sains pada Program Studi Magister Matematika, Sekolah Pascasarjana, Universitas Sumatera Utara.

Penelitian ini diharapkan dapat bermanfaat dalam membantu menyelesaikan berbagai persoalan optimisasi dua tahap bersifat konveks dengan memperlihatkan proses penganalisisan kekonvergenan solusinya.

Penulis sangat sadar bahwa tesis ini masih jauh dari sempurna, namun besar harapan bahwa tesis ini bermanfaat bagi para pembaca dan pada pengembangan penelitian di bidang Operasi Riset.

Medan, Juni 2009 Penulis,

(8)

UCAPAN TERIMA KASIH

Pertama penulis panjatkan puji dan syukur kepada Tuhan Yang Maha Esa, karena atas berkat, kasih dan karunia-Nya yang telah diberikan kepada penulis, sehingga penulis dapat menyelesaikan tesis ini tepat pada waktunya. Tesis ini berjudul ”Analisis Persoalan Optimisasi Konveks Dua Tahap (Two-Level)”. Tesis ini merupakan persyaratan tugas akhir pada Program Studi Matematika Sekolah Pascasarjana Universitas Sumatera Utara.

Pada kesempatan ini, penulis menyampaikan ucapan terima kasih dan peng-hargaan yang sebesar-besarnya kepada:

Prof. dr. Chairuddin P. Lubis, DTM&H, Sp.A(K) selaku Rektor Univer-sitas Sumatera Utara.

Prof. Dr. Ir. T. Chairun Nisa B, M.Scselaku Direktur Sekolah Pascasarjana Universitas Sumatera Utara yang telah memberikan kesempatan kepada penulis untuk mengikuti Program Studi Magister Matematika di Sekolah Pascasarjana, Universitas Sumatera Utara.

Prof. Dr. Herman Mawengkang selaku Ketua Program Studi Magister Ma-tematika, Sekolah Pascasarjana, Universitas Sumatera Utara; Dr. Saib Suwilo, M.Sc selaku Sekretaris Program Studi Magister Matematika, Sekolah Pascasar-jana, Universitas Sumatera Utara, yang telah banyak membantu dalam penulisan tesis ini.

Dr. Tulus, M.Si selaku Ketua Komisi Pembimbing yang sangat banyak mem-bantu penulis dengan banyak memberikan ilmu dalam penulisan tesis ini.

(9)

Utara : Prof. Dr. Herman Mawengkang, Dr. Saib Suwilo, M.Sc, Dr. Tulus, M.Si, Prof. Opim Salim S, M.Sc, Phd, Drs. Marwan Harahap, M.Eng, Dr. Sutarman, M.Sc, Drs. Open Darnius, M.Sc, Drs. Sawaluddin, MIT, Dra. Mardiningsih, M.Si, Dra. Esther Naba-ban, M.Sc, yang telah banyak memberikan masukan ilmu pengetahuan dalam konsentrasi Matematika Operasi Riset (OR).

Seluruh rekan mahasiswa angkatan ke-6 (2007-2008) Program Studi Magis-ter Matematika, Sekolah Pascasarjana USU, atas kebersamaanya selama perku-liahan.

Seluruh pegawai Sekolah Pascasarjana Universitas Sumatera Utara, secara khusus kepada Misiani, S.Si, selaku staf administrasi Program Studi Magister Matematika, yang banyak membantu penulis dalam berbagai urusan administrasi selama perkuliahan.

Pimpinan SSC-Medan, Ronald Backer Simanjuntak, yang memberikan waktu bagi penulis untuk melanjutkan perkuliahan, dan juga kepada seluruh rekan pengajar dan pegawai SSC-Medan atas kerjasamanya selama ini.

Secara khusus, kepada orang tua penulis: Edison Sinaga dan Relianna Saragih Sumbayak, dan kepada mertua: Budiman Damanik dan Pittauli Purba, serta kedua saudara penulis (Nenny D Sinaga dan David Saragih, Aditia Irving Saragih) dan Selpiani Sinaga, S.E. yang memberikan du-kungan doa kepada penulis.

(10)

Teristimewa kepada istri tercintaFitri Yanti Damanik, S.E.yang banyak memberikan pengertian dan dukungan sepanjang waktu.

Ucapan terima kasih kepada seluruh keluarga dan rekan-rekan yang tidak da-pat penulis sebutkan namanya satu persatu pada kesemda-patan ini, atas dukungan doa yang diberikan sehingga penulis dapat menyelesaikan pendidikan ini.

Akhirnya penulis berharap semoga tesis ini dapat bermanfaat bagi pembaca dan pihak-pihak lain yang memerlukannya.

Medan, Juni 2009 Penulis,

(11)

Lasker Pangarapan Sinaga dilahirkan di Merek Raya (Simalungun) pada tanggal 02 Agustus 1979 dan merupakan anak ke-2 dari 3 orang bersaudara dari Ayah Edison Sinaga dan Ibu Relianna Saragih Sumbayak. Menamatkan Sekolah Dasar (SD) Inpres Sihubu di Merek Raya pada tahun 1992, Sekolah Menengah Pertama (SMP) Negeri 3 Merek Raya pada tahun 1995 dan Sekolah Menengah Umum (SMU) Negeri 1 (Plus Partuha Maujana Simalungun Angkatan I) pada tahun 1998. Tahun 1998 memasuki Perguruan Tinggi Negeri Universitas Suma-tera Utara, Fakultas Matematika dan Ilmu Pengetahuan Alam (FMIPA), Jurusan Matematika dan memperoleh gelar sarjana pada tahun 2003. Pada Tahun 2003 bekerja sebagai tenaga pengajar Matematika SSC Medan. Tahun 2007 mengikuti pendidikan Program Studi Magister Matematika di Sekolah Pascasarjana Univer-sitas Sumatera Utara. Tahun 2008 menikah dengan Fitri Yanti Damanik, S.E.

(12)

DAFTAR ISI

Halaman

ABSTRAK . . . i

ABSTRACT . . . ii

KATA PENGANTAR . . . iii

UCAPAN TERIMA KASIH . . . iv

RIWAYAT HIDUP . . . vii

DAFTAR ISI . . . viii

DAFTAR GAMBAR . . . x DAFTAR SIMBOL . . . xi BAB 1 PENDAHULUAN . . . 1 1.1 Latar Belakang . . . 1 1.2 Rumusan Masalah . . . 4 1.3 Tujuan Penelitian . . . 4 1.4 Kontribusi Penelitian . . . 5 1.5 Metode Penelitian . . . 5

BAB 2 TINJAUAN PUSTAKA . . . 7

BAB 3 KONTINUITAS DAN KONVEKSITAS . . . 11

3.1 Analisis Matematika . . . 11

3.1.1 Fungsi Kontinu dan Fungsi Lipschitz . . . 11

3.1.2 Barisan (Sequence) . . . 13

3.2 Konveksitas Himpunan dan Fungsi . . . 14

(13)

BAB 4 OPTIMISASI KONVEKS DAN OPTIMISASI DUA TAHAP

SERTA METODE PROYEKSI GRADIEN . . . 21

4.1 Optimisasi Konveks . . . 22

4.2 Optimisasi Dua Tahap . . . 24

4.3 Metode Steepest Descent . . . 26

4.4 Algoritma Proyeksi Gradien (Gradient Projection Algorithms) 27 4.5 Analisis kekonvergenan Metode Proyeksi Gradien . . . 31

BAB 5 PEMBAHASAN . . . 36

5.1 Formulasi Optimisasi Konveks Dua Tahap . . . 36

5.2 Regulerisasi Optimisasi Konveks Dua Tahap . . . 37

5.3 Kondisi Optimal dari Solusi . . . 42

5.4 Algoritma Proyeksi Gradien dan Analisis Kekonvergenan So-lusi Optimisasi Konveks Dua Tahap . . . 43

BAB 6 KESIMPULAN DAN SARAN . . . 52

6.1 Kesimpulan . . . 52

6.2 Saran . . . 52

(14)

DAFTAR GAMBAR

Nomor Judul Halaman

3.1 Implementasi secara geometri fungsi kontinu . . . 12

3.2 Konveks dan tidak konveks . . . 15

3.3 Polihedron P dengan irisan dari lima buah halfspaces dengan vektor normal a1, . . . , a5 . . . 15

3.4 Sebuah convex cone: untuk setiap titik x1, x2 ∈ C dan untuk setiap 0 ≤θ≤1 maka θx1+ (1−θ)x2 ∈C . . . 16

3.5 Sebuah hyperlane dengan dua halfspaces . . . 16

3.6 Sebuah ellipsoid dalam R2 . . . . 16

3.7 Fungsi Konveks dan Fungsi Tidak Konveks . . . 17

3.8 Jikaf fungsi terdifferensialkan dan x , ydom f, maka f(y)≥f(x) +∇f(x)T(yx) . . . . 18

4.1 Ilustrasi solusi global dan lokal . . . 23

4.2 Contoh ilustrasi metode proyeksi gradien . . . 30

5.1 Himpunan solusi upper atau solusi optimisasiSuadalah bagian dari solusi lowerSl . . . 37

5.2 Ilustrasi sederhana minimisasiFσ(xu, xl) dengan domainSupada optimisasi konveks dua tahap . . . 40

5.3 Interpretasi kondisi optimal . . . 42 5.4 Ilustrasi solusi optimal pada Optimisasi Konveks Dua Tahap . 49

(15)

∅ : Himpunan kosong f : Fungsi

C : Himpunan konveks fu : Fungsi objektif level upper K : Konstanta Lipschitz fl : Fungsi objektif level lower R : Bilangan Riel gu : Fungsi kendala level upper N : Bilangan Asli gl : Fungsi kendala level lower Rn : Ruang Euklidisn Su : Himpunan solusi level upper ∀ : Untuk setiap Sl : Himpunan solusi level lower ∃ : Terdapat/beberapa x¯ : Titik kumpul (cluster point) → : Mendekati/menuju k.k : Norm(2)

⊆ : Subset h·,·i : Inner product ⊂ : Proper subset aT : Transposea {xk} : Barisan solusix Df(x) : Differensialf(x) Min : Minimize f0(x) : Differensialf(x) Max : Maksimum ∇f(x) : Gradien

Inf : Infimum PC(x) : Proyeksi orthogonal pada C Dist : Distance (x) : RegulerisasiF(x)

Dom : Domain fu¯ : inf{fu(x)} Lim : Limit fl¯ : min{fl(x)} xu : Variabel level upper Arg : argumen xl : Variabel level lower L(c) : Fungsi level

(16)

BAB 1 PENDAHULUAN

1.1 Latar Belakang

Masalah selalu dihadapi terus menerus di dalam kehidupan, sehingga setiap orang dituntut untuk mencari solusi yang tepat dan cepat untuk menyelesaikan setiap masalah tersebut. Setiap solusi yang diambil merupakan keputusan akhir yang harus diambil seseorang dengan atau tanpa pertimbangan. Setiap pertim-bangan seharusnya benar-benar dipikirkan oleh pengambil keputusan. Hal ini dilakukan demi mengurangi risiko yang akan terjadi akibat keputusan yang diam-bil tersebut. Ini bukanlah sebuah permasalahan yang mudah untuk diselesaikan, karena keputusan yang tepat harus secepat mungkin diputuskan. Tentu jelas sekali bahwa pengambil keputusan harus dapat menentukan keputusan terbaik untuk mengatasi masalah yang sedang dihadapi secepat mungkin dengan tanpa menimbulkan masalah yang lain akibat keputusan tersebut.

Ilmu matematika, secara khusus konsentrasi operasi riset (Research Opera-tion) telah menanggapi dan berperan aktif dalam mengatasi masalah pengambilan keputusan seperti permasalahan pengambil keputusan di atas. Persoalan pengam-bilan keputusan sering diformulasikan sebagai persoalan optimisasi. Optimisasi matematika akan memodelkan berbagai kasus masalah dan mencari cara atau metode yang tepat dan cepat untuk menyelesaikannya. Optimisasi matematika ditujukan pada metode untuk mendapatkan suatu solusi yang optimal. Pusat permasalahannya adalah mendapatkan solusi yang memaksimumkan suatu fungsi tujuan atau meminimumkan risiko.

(17)

Secara matematis, permasalahan optimisasi adalah sebuah abstraksi masalah untuk mengambil sebuah pilihan vektor terbaik di Rn dari sekumpulan pilihan vektor yang ada. Vektor terbaik berarti vektor yang dapat menjadi solusi dari permasalahan optimisasi yang diberikan, yaitu solusi optimal yang memenuhi fungsi tujuan dan kendala dari permasalahan optimisasi tersebut. Boyd dan Van-denberghe (2004).

Penelitian lebih lanjut menyatakan bahwa keputusan yang telah diambil memang diharapkan dapat menyelesaikan persoalan yang sedang dihadapi tetapi sering tidak terpikirkan bahwa keputusan tersebut dapat menyebabkan masalah dibagian yang lain. Keputusan yang baik adalah keputusan yang dapat menye-lesaikan permasalahan bersangkutan pada saat ini dan tidak menyebabkan per-masalahan berikutnya di bagian yang lain. Kejadian seperti ini menstimulus munculnya bentuk optimisasi multi tahap. Optimisasi ini diharapkan dapat mem-bantu si pembuat keputusan dalam mengambil keputusan yang terbaik dalam berbagai kasus berbentuk optimisasi dua tahap dalam kehidupan sehari-hari. Bard, Plummer dan Sourie (1998).

Optimisasi dua tahap (Two Level Optimization) adalah bentuk optimisasi multitahap dengan dua tahap. Sebuah himpunan yang memuat variabel yang menjadi solusi awal dari masalah optimisasi ini akan menjadi parameter untuk variabel lainnya. Hal ini berarti ada proses dua tahap (Level Upper dan Level Lower) yang dilakukan yaitu dengan setiap keputusan padalevel upperatauouter problem maka ditentukan keputusan pada lower problem atau inner problem. Ye (1999).

(18)

3

Secara umum, optimisasi dua tahap dituliskan dengan bentuk:

(Level upper) Minimizexu,xl fu(xu, xl) (1.1) s. t. gu(xu)≤0 (1.2) (Level lower) Minimizexl fl(xu,·) (1.3) s.t. gl(xu,·)≤0 (1.4) xu, xl≥0 (1.5) dengan xuRn, xlRn ; fu, fl :RRn→R (1.6) gu :Rn →R; gl :RRn →R (1.7)

Vicente (1997) dan lihat juga Wang, Wan dan Lv (2008).

Jika untuk setiap nilai dari variabel upper maka didefinisikan himpunan so-lusi yang meminimumkan kendala pada level lower yang bergantung pada soso-lusi level upper. MisalkanSu adalah himpunan solusi level upper dan Sl adalah him-punan solusi level lower maka solusi dari bentuk optimisasi dua tahap di atas dapat diformulasikan dengan himpunan solusi berikut:

S(xu, xl)RRn={(xu, xl)|SuSl)} (1.8)

(19)

Seorang matematikawan, Chris Fricke dari Departemen Matematika dan Statistika, Universitas Melbourne menjelaskan tentang optimisasi dua tahap terse-but. Dia menerangkan bahwa perhitungan secara manual terhadap beberapa ka-sus optimisasi dua tahap tidak menjamin keoptimalan solusi. Dengan demikian perlu dilakukan penganalisisan yang lebih lanjut terhadap kasus ini untuk menun-jukkan keoptimalan solusi dengan konvergensi barisan solusi oleh suatu algoritma dan metode penalty.

1.2 Rumusan Masalah

Misalkan domain dan fungsi tujuan serta kendala pada bentuk optimisasi dua tahap (1.1-1.7) dibatasi dengan bersifat konveks untuk masing masing level, maka diperoleh kelas optimisasi yang lebih khusus yaitu optimisasi konveks dua tahap (Two Level Convex Optimization).

Permasalahannya adalah bagaimana memformulasi atau memodelkan opti-misasi konveks dua tahap tersebut ke bentuk yang sederhana dengan regulerisasi dan menunjukkan penganalisisan kekonvergenan solusi dari barisan solusi layak yang dibangkitkan oleh sebuah algoritma untuk menunjukkan keoptimalan solusi. Proses ini memerlukan definisi, sifat dan teorema yang mendukung.

1.3 Tujuan Penelitian

Optimisasi konveks dua tahap mempunyai dua himpunan solusi yaitu him-punan solusi level lower dan himhim-punan solusi level upper. Kedua himhim-punan so-lusi tersebut adalah terbatas dan mempunyai titik kluster. Tujuan penelitian

(20)

5

ini adalah menunjukkan keoptimalan solusi optimisasi konveks dua tahap dengan memperlihatkan bahwa apakah kedua titik kumpul pada kedua himpunan solusi tersebut adalah titik yang sama atau berbeda.

1.4 Kontribusi Penelitian

Penelitian ini memberikan teori tentang penganalisaan optimisasi konveks multitahap dengan pembatasan masalah pada dua tahap dan menyelesaikannya dengan sebuah metode serta memberikan jaminan teori dalam memperlihatkan keoptimalan solusi layak dengan suatu regulerisasi dan analisis kekonvergenan so-lusi, sehingga sangat diharapkan dapat berguna untuk membantu dalam menye-lesaikan berbagai kasus optimisasi pada lingkungan operasi riset atau teknik.

1.5 Metode Penelitian

Penelitian ini dikerjakan dengan metode literatur dengan tahapan pelak-sanaannya sebagai berikut:

1. Menjelaskan secara teori tentang konveksitas himpunan dan fungsi.

2. Menunjukkan bentuk optimisasi konveks dan optimisasi dua tahap.

3. Memformulasi bentuk optimisasi konveks dua tahap dan melakukan regule-risasi fungsi dengan reguleregule-risasi Tikhonov serta fungsi penalty.

4. Menganalisis konveksitas fungsi terregulerisasi dan eksistensi solusi dengan menggunakan algoritma proyeksi gradien serta melakukan penganalisisan kekonvergenannya pada kedua level (upper dan lower).

(21)

5. Menganalisis titik kluster pada kedua level dan menunjukkan apakah kedua titik kluster tersebut sama atau berbeda.

(22)

BAB 2

TINJAUAN PUSTAKA

Optimisasi konveks adalah sebuah kelas optimisasi yang mempunyai domain fungsi dan fungsi objektif serta fungsi kendala yang bersifat konveks. Dilihat dari segi modelnya maka optimisasi konveks jelas bersifat lebih umum daripada optimisasi linear. Hal ini dijelaskan oleh Boyd dan Vandenberghe (2004).

Kemudian, jika ditinjau dari segi analisis kekontinuan fungsi tujuan dan kendalanya maka jikaf merupakan fungsi konveks maka f adalah Lipschitz lokal sekitar titik elemen domainnya jika dan hanya jika terbatas pada lingkungan titik tersebut. Hal ini telah dijelaskan oleh Borwein dan Lewis (1999).

Suatu masalah optimisasi dengan kasus minimisasi tidak berkendala dengan fungsi objektif bersifat konveks, maka metoda steepest descent akan mempunyai sifat kekonvergenan yang lebih kuat daripada masalah minimisasi dengan fungsi tujuan yang bersifat nonkonveks. Konveksitas domain fungsi pada optimisasi membuat proyeksi orthogonal sangat memungkinkan digunakan dalam menun-jukkan arah yang layak dan descent, yaitu arah pergerakan gradien disetiap iterasi, oleh Iusem (2003). Hal ini terjadi karena metode proyeksi gradien meminimisasi sebuah fungsi terdifferensialkan dan kontinu f :Rn R atas himpunan konveks tak kosong dan tertutup CRn yang telah dijelaskan sebelumnya oleh Calamai dan More (1987).

Algoritma atau metode pendekatan adalah cara terbaik untuk menyelesaikan kasus optimisasi nonlinear. Berbagai algoritma untuk mendapatkan solusi

(23)

opti-misasi yang berkaitan dengan proyeksi telah dikembangkan, yaitu metode proyeksi gradien oleh Rosen dapat dilihat pada Iusem (2006) dan metode proyeksi gradien konjugasi, metode proyeksi gradien Quasi-Newton dan metode proyeksi gradien Rosen-ParTan (Parallel Tangents) oleh Chio (2004).

Metode proyeksi gradien adalah sebuah generalisasi dari metode descent, dimana gradien negatif diproyeksikan pada daerah terbatas dan mencari solusi di sepanjang kurva. Luenberger (1974). Metode proyeksi gradien ini diperkenalkan pertama sekali oleh Rosen (1960) dan digunakan untuk menyelesaikan program nonlinear (Nonlinear Programming). Metode ini bekerja dengan membangkitkan sebuah barisan solusi-solusi layak yang konvergen ke solusi optimal, oleh Zhu dan Zhang (2006). Bentuk analisis kekonvergenan metode ini juga telah dijelaskan oleh Calamai (1987).

Selain metode proyeksi gradien, ada sebuah metode lain yang digunakan untuk menyelesaikan program nonlinear yaitu metode fungsi penalty. Metode ini digunakan dengan prosedur descent orde pertama yaitu steepest descent, Luen-berger (1974).

Kedua metode ini selalu digunakan sebagai kombinasi yang serasi karena metode proyeksi gradien mempunyai proses kekonvergenan yang cukup lambat, sehingga dengan kombinasi tersebut, proses kekonvergenan dapat dicapai dengan cepat, oleh Zhu dan Zhang (2006).

Dengan demikian, tujuan dari setiap algoritma jelas untuk mendapatkan bentuk kekonvergenan solusi dengan lebih cepat. Sebagai contoh, proses mini-misasi yang berhubungan dengan masalah gradien yang dijelaskan oleh Polak, Sargent dan Sebastian (1974).

(24)

9

Sehubungan dengan masalah kekonvergenan dari metode iteratif di atas maka pendekatan regulerisasi (Tikhonov Regulerization) pada fungsi tujuan sangat perlu dilakukan untuk menunjukkan kekonvergenan barisan solusi yang dibang-kitkan algoritma pada optimisasi konveks, hal ini dijelaskan oleh Ali (2005).

Dari uraian diatas, perkembangan ilmu matematika berbanding lurus de-ngan perkembade-ngan masalah optimisasi serta metode-metode penyelesaiannya. Sebagai contoh adalah kelas optimisasi dua tahap. Metode proyeksi gradien juga digunakan dalam menyelesaikan optimisasi dua tahap (Bilevel Optimization) oleh Solodov (2007). Kelas optimisasi dua tahap ini menampilkan aksiLeader-Follower

dalam membantu mengambil keputusan (Decision Making), oleh Bard, Plummer dan Sourie (1998) dan Ye (1999).

Masalah program dua tahap adalah suatu masalah optimisasi dimana ken-dala secara implisit ditentukan oleh masalah optimisasi yang lain. Dengan kata lain, suatu optimisasi hirarkis yang terkandung dalam dua level. Di level per-tama, pembuat keputusan (pemimpin) harus memilih pertama suatu strategi x untuk meminimumkan fungsi sasaran, dan pembuat keputusan pada level kedua (pengikut) harus memilih suatu strategiyuntuk meminimumkan fungsi sasarannya sendiri yang diparameterix. Mengantisipasi reaksi dari pengikut, maka pemimpin harus menemukan nilai-nilai variabelnya yang memenuhi sasarannya dan juga memenuhi sasaran pengikutnya, oleh Ankhili dan Mansouri (2008).

Kondisi kelambanan dari level lower dimasukkan ke sasaran level upper dengan suatu penalty. Kemudian menguraikan program dua level yang linier ke dalam satu barisan program linier dan mendapatkan solusi optimal, Solodov (2007).

(25)

Program dua tahap dapat diformulasi lebih sederhana dan analisis kebera-daan solusi dengan menggunakan metode penalty yaitu dengan membuat level lower sebagai penalty. Hal ini dijelaskan oleh Lv, et all (2007) serta Aboussoror dan Mansouri (2005).

(26)

BAB 3

KONTINUITAS DAN KONVEKSITAS

3.1 Analisis Matematika

Analisis matematika membicarakan masalah kekontinuan suatu fungsi dan kekonvergenan suatu barisan. Demikian halnya dengan analisis optimisasi berikut, akan membicarakan tentang keoptimalan solusi dengan memperhatikan kekon-tinuan fungsi serta kekonvergenan barisan solusi yang dibangkitkan oleh suatu algoritma.

Pada bagian ini akan dijelaskan beberapa definisi ataupun teorema yang mendukung penganalisisan konveksitas sebuah fungsi dan kekontinuan serta kekon-vergenan solusi layaknya, yang akan mendukung pembahasan pada bab berikut-nya. Seperti operator norm, kekontinuan seragam, fungsi Lipschitz dan barisan terbatas dan lain-lain.

3.1.1 Fungsi Kontinu dan Fungsi Lipschitz

Definisi 3.1.1 Norm adalah operator yang disimbolkan dengan k.k, yaitu sebuah ukuran panjang dari dua buah vektor x1, x2 ∈ARn, sehingga:

dist(x1, x2) =kx1−x2k dan

(27)

Definisi 3.1.2 Sebuah himpunan AR disebut himpunan terbuka jika dan hanya jika untuk setiap xA terdapat lingkungan Q dari x sedemikian sehingga

QA.

Definisi 3.1.3 Sebuah fungsi f : Rn → Rm adalah kontinu pada x1 ∈ dom f jika untuk setiap ε >0 terdapatδ >0 sedemikian sehingga:

x2 ∈dom f kx2 −x1k< δ ⇒ kf(x2)−f(x1)k< ε

Misalkan saja lim

x→cf(x) =L (ada) sedemikian implementasi definisi di atas dapat dijelaskan kembali secara geometri pada gambar di bawah ini:

Gambar 3.1 : Implementasi secara geometri fungsi kontinu

Definisi 3.1.4 Sebuah fungsi f : AR disebut fungsi kontinu seragam pada

AR jika dan hanya jika untuk setiap ε >0 terdapat δ(ε)>0 sedemikian:

(28)

13

Definisi 3.1.5 (Fungsi Lipschitz) Misalkan AR dan f :AR disebut fungsi Lipschitz jika terdapat K >0 sedemikian sehingga:

kf(x1)−f(x2)k ≤Kkx1−x2k,x1, x2 ∈A

Teorema 3.1.1 Jika f : AR adalah fungsi Lipschitz maka f adalah fungsi kontinu seragam pada A.

Bukti: Jika kondisi fungsi Lipschitz f : AR dipenuhi dengan konstanta K >0, kemudian diberikanε >0 dan mengambilδ(ε) =ε/Ksedemikian sehingga untuk setiap x1, x2 ∈A memenuhi

kx1−x2k ≤δ(ε)⇒ kf(x1)−f(x2)k< K.ε/K =ε

3.1.2 Barisan (Sequence)

Definisi 3.1.6 Sebuah barisan bilangan riel R adalah sebuah fungsi pada him-punan bilangan asli N dimana hasilnya berada dalam R.

Definisi 3.1.7 Sebuah barisan {xn}∞n=1 konvergen ke sebuah bilangan riel x¯ jika dan hanya jikaε >0terdapat sebuah bilangan bulatnN sedemikian sehingga:

|xnx¯|< ε

Definisi 3.1.8 Misalkan {xn} adalah sebuah barisan dalam X. Sebuah titik

¯

xX disebut titik kumpul (cluster point) dari barisan {xn} jika dan hanya jika, untuk setiap lingkungan V, himpunan {n:xnV} adalah tak berhingga.

(29)

Definisi 3.1.9 Sebuah barisan{xn}disebut terbatas jika terdapat sebuah bilangan riel K >0 sedemikian sehingganN, kxnk ≤K.

Teorema 3.1.2 (Bolzano-Weierstrass) Setiap barisan terbatas di R mempunyai sebuah sub-barisan yang konvergen.

Bukti: Misalkan {xn} adalah sebuah barisan terbatas di Rm dan ∀nN, kxnk ≤ K. Kemudian, untuk setiap n, misalkan juga xn = (x(1n), x

(n) 2 , . . . , x

(n)

m ). Barisan {x(1n)} adalah sebuah barisan pada bilangan riel dan karena ∀nN,

x(1n)

≤ kxnk ≤ K maka barisan tersebut adalah barisan terbatas. Pilih sebuah sub-barisan

n

xn1(k)

1 o

adalah barisan yang konvergen, sedemikian

xn12 (k) ≤ xn1(k) ≤ K dimana

n

xn22 (k) o

adalah barisan yang terbatas se-hingga konvergen. Karena

n

xn21 (k) o

adalah sub-barisan dari barisan konvergen

n

xn11 (k) o

maka akan konvergen juga. Dengan proses yang lebih umum maka sete-lah langkah ke m sebuah barisan {nm(k)}∞k=1 dari integer j = 1, . . . , m, masing-masing barisan {xnjm(k)} konvergen ke xj. Karena

xnm(k)x 0, k → ∞

dengan x = (x1, x2, ..., xm)

3.2 Konveksitas Himpunan dan Fungsi

Obyek yang berperan utama dalam penelitian ini adalah himpunan dan fungsi yang bersifat konveks. Berikut pendefinisian dan penjelasan secara teori tentang bentuk konveksitas himpunan dan fungsi tersebut.

(30)

15

3.2.1 Himpunan Konveks

Definisi 3.2.1 Himpunan C dikatakan bersifat konveks jika terdapat dua titik dalam C yang membentuk segmen garis yang juga terletak dalam C.

Gambar 3.2 : Konveks dan tidak konveks

Bentuk kurva yang digambarkan di atas memperlihatkan bentuk konveks dan tidak konveks suatu himpunan sesuai dengan definisi di atas. Secara ma-tematis, bentuk definisi tersebut dapat dituliskan kembali dengan memberikan setiap titik x1, x2 ∈C dan untuk setiap 0≤ θ≤1 maka θx1+ (1−θ)x2 ∈C.

Beberapa himpunan yang bersifat konveks adalah: 1. Polihedral

Gambar 3.3 : PolihedronP dengan irisan dari lima buah halfspaces dengan vektor normala1, . . . , a5

(31)

2. Cone

Gambar 3.4 : Sebuah convex cone: untuk setiap titikx1, x2 ∈Cdan untuk setiap

0≤θ ≤1 maka θx1+ (1−θ)x2 ∈C

3. Hyperplane/Halfspaces

Gambar 3.5 : Sebuah hyperlane dengan dua halfspaces

4. Bola Euklidis dan Ellipsoida

(32)

17

3.2.2 Fungsi Konveks

Definisi 3.2.2 Sebuah fungsi f : Rn R adalah konveks jika domain f adalah

himpunan konveks dan jika untuk setiap x1 , x2 ∈ Dom f dan untuk setiap

0≤θ≤1, f(θx1+ (1−θ)x2)≤θf(x1) + (1−θ)f(x2)

Gambar 3.7 : Fungsi Konveks dan Fungsi Tidak Konveks

Pertidaksamaan pada Definisi (3.2.2) telah ditunjukkan secara geometri pada gambar di atas, dengan arti bahwa ruas garis yang dibentuk oleh titikA(x1, f(x1))

dan B(x2, f(x2)), disebut dengan chord dari titikA ke titik B.

Sebuah fungsif dikatakan dapat didifferensialkan pada titikxjika terdapat sebuah matriks Df(x)∈Rmxn sehingga memenuhi:

lim

z→x

kf(z)f(x)Df(x)(z−x)k

2

kzxk2 = 0 (3.1)

dan sebuah fungsi affine dari z diberikan dengan bentuk:

(33)

Misalkan f adalah fungsi yang bernilai riel f : Rn R dan terdifferensialkan maka Df(x) adalah sebuah matriks 1×n, dimana transposnya disebut dengan gradien: ∇f(x) = ∂f(x) ∂x1 , . . . ,∂f(x) ∂xn T =Df(x)T (3.3) dan gradien chord dari fungsi yang dimaksud dapat diformulasikan sebagai ap-proksimasi barisan Taylor orde pertama yang merupakan fungsi affine dari x, yaitu:

f(x)'f(x0) +∇f(x0)T(x−x0) (3.4)

Kemudian, untuk x1, x2 ∈ CRn sedemikian f : Rn → R adalah fungsi

kon-veks maka kurva pada gambar di bawah ini merupakan fungsi konkon-veks jika f terdifferensialkan dan gradiennya∇f(x) ada∀xdomf dan memenuhi:

f(y)f(x) +f(x)T(y−x) (3.5)

Gambar 3.8 : Jika f fungsi terdifferensialkan dan x , ydom f, maka f(y)f(x) +f(x)T(yx)

(34)

19

Pernyataan di atas disajikan kembali sebagai bentuk teorema di bawah ini sehingga lebih terjamin dengan sebuah pembuktian sebagai berikut:

Teorema 3.2.1 Jika x1, x2 ∈CRn dan f adalah fungsi yang memenuhi

f(x2)≥f(x1) +∇f(x1)T(x2 −x1)

maka f adalah fungsi konveks.

Bukti: Pilih x 6= y dan 0 ≤ θ ≤ 1 serta x + θ(yx) ∈ domf. Misalkan z =x+ (1−θ)y sedemikian sehingga:

f(x)≥f(z) +f0(z)(x−z) dan f(y)≥f(z) +f0(z)(y−z)

Dengan mengalikan pertidaksamaan pertama denganθdan pertidaksamaan kedua dengan 1−θ sehingga:

θf(x)≥θf(z) +θf0(z)(x−z) dan

f(y)θf(y)≥f(z)−θf(z) +f0(z)(y−z)θf0(z)(y−z) Dengan menjumlahkan kedua pertidaksamaan tersebut maka diperoleh:

θf(x) + (1−θ)f(z)

Hasil tersebut jelas merupakan bentuk fungsi konveks.

Teorema 3.2.2 Jika f : CR adalah fungsi konveks maka f adalah fungsi Lipschitz.

(35)

Bukti: Fungsi f :CR dan x1, x2 ∈C disebut fungsi konveks jika memenuhi:

f(x2)≥f(x1) +∇f(x1)T(x2 −x1)

atau diformulasi menjadi: f(x1)−f(x2) ≤ ∇f(x1)T(x1−x2), dengan

menggu-nakan operator norm maka

f(x1)−f(x2)≤ ∇f(x1)T(x1 −x2)

sehingga kondisi tersebut memenuhi kondisi fungsi Lipschitz.

Beberapa jenis fungsi yang bersifat konveks adalah fungsi logaritma pada R+, fungsi eksponensial pada R, fungsi norm pada Rn, fungsi linear pada Rn, fungsi kuadrat pada Rn dan lain-lain.

(36)

BAB 4

OPTIMISASI KONVEKS DAN OPTIMISASI DUA TAHAP SERTA METODE PROYEKSI GRADIEN

Optimisasi matematika mempunyai bentuk secara umum:

Minimizef0(x) (4.1)

s.t fi(x)≤0 (4.2)

hi(x) = 0, (4.3)

Untuki= 1,2, . . . , mdan vektorx= (x1, . . . , xn) adalah variabel optimisasi

dan f0 : Rn → R adalah fungsi objektif serta fi, hi : Rn → R adalah

pertidak-samaan atau perpertidak-samaan kendala. Nilai x disebut solusi layak (feasible solution) jika memenuhi kendala tersebut. JikaC adalah himpunan solusi yang memenuhi kendala di atas maka nilai optimal pada permasalahan optimisasi tersebut dino-tasikan:

f0(x) =f∗ dengan f∗ = inf

x∈Cf0(x) (4.4) Penguraian bentuk (4.4) dapat dilihat pada Teorema 5.3.2.

Permasalahan optimisasi ini berkembang ke berbagai bentuk kelas misasi, seperti optimisasi linear, optimisasi nonlinear, optimisasi konveks, opti-misasi tak konveks, optiopti-misasi dua tahap, optiopti-misasi bersifat stokastik, dan seba-gainya.

(37)

4.1 Optimisasi Konveks

Optimisasi konveks adalah bentuk optimisasi dengan fungsi tujuan dan fungsi kendala merupakan fungsi konveks. Masalah pendekatan konveksitas banyak dipakai pada model program matematika karena bentuk kesulitan optimisasi bukan dilihat dari bentuk kelinearannya tetapi berdasarkan konveksitasnya.

Optimisasi konveks dituliskan dengan bentuk:

Min f0(x) (4.5)

s.t. fi(x)≤0 (4.6)

dengan fi : Rn R adalah fungsi konveks, untuk setiap x Rn adalah himpunan konveks. Adakah keistimewaan optimisasi konveks dibandingkan de-ngan kelas optimisasi lainnya? Ada tiga alasan yang membuat bentuk optimisasi konveks lebih istimewa dibanding kelas optimisasi lainnya, yaitu sifatnya yang mempunyai solusi lokal yang juga merupakan solusi global (hal ini akan dibuk-tikan lebih lanjut sebagai Teorema 4.1.1), teori dualitas dan kondisi optimalitas serta metoda solusi yang sederhana (pada kasus ini akan menggunakan algoritma proyeksi gradien).

Solusi layak yang optimal dari permasalahan optimisasi dibedakan atas so-lusi optimal lokal dan soso-lusi optimal global. Misalkan C adalah himpunan solusi layak dari suatu permasalahan optimisasi yang diberikan, maka:

Solusi optimallokal jika memenuhi:

(38)

23

Solusi optimalglobal jika memenuhi:

x2 ∈Cf0(x2)≥f0(x1) (4.8)

Perhatikan ilustrasi solusi optimal global dan lokal pada gambar berikut:

Gambar 4.1 : Ilustrasi solusi global dan lokal

Teorema 4.1.1 Pada permasalahan optimisasi konveks, solusi optimal lokal meru-pakan solusi optimal global.

Bukti: Misalkan bahwa x1 adalah solusi optimal lokal, karena terdapat x2 ∈ C

dengan f0(x2) ≥ f0(x1) maka dilakukan sedikit langkah pergeseran yang sangat

kecil dari x1 menujux2 yaitu z sehingga z =λx2 + (1−λ)x1 dengan nilai λ >0

adalah sangat kecil, sehingga z sangat dekat kex1 dengan f0(z)< f0(x1). Hal ini

(39)

4.2 Optimisasi Dua Tahap

Optimisasi dua tahap adalah persoalan optimisasi yang bersifat hirarkis di-mana sebuah himpunan bagian yang dibatasi menjadi solusi dari persoalan opti-misasi yang diberikan, yang diparameteri oleh variabel lainnya. Hal ini menggam-barkan bahwa untuk setiap keputusan yang diambil pertama sekali (level upper) akan menjadi dasar untuk mengambil keputusan berikutnya (level lower). Dengan demikian opimisasi ini terdiri dengan dua tahap yang disebut dengan level upper sebagai tahap pertama dan level lower sebagai tahap kedua.

Secara matematis, untuk setiap variabel pada level upper akan ditentukan beberapa variabel yang terbatas pada level lower (solusi pada level lower) pada optimisasi tahap ganda tersebut. Struktur optimisasi hirarkis ini nampak secara alami diberbagai applikasi ketika aksi dari level lower bergantung pada keputusan level upper. Formula optimisasi dua tahap ini dituliskan dalam bentuk:

(Level upper) Minimizexu,xl fu(xu, xl) (4.9) s.t. gu(xu)≤0 (4.10) (Level lower) Minimizexl fl(xu,·) (4.11) s.t. gl(xu,·)≤0 (4.12) xu, xl ≥0 (4.13)

(40)

25

dengan:

xuRn, xlRn ;fu, fl :RRn→R (4.14) gu :Rn →R gl :RRn →R (4.15)

Secara umum, level upper sering disebut dengan outer problem sementara level lower disebut dengan inner problem.

Untuk setiap nilai dari variabelxupada level upper, kendala pada level lower g(xu,·)≤0 mendefinisikan himpunan kendala Ω(xu) dari persoalan level lower:

Ω(xu) ={xl :gl(xu,·)≤ 0} (4.16)

Jadi Sl(xu, xl(xu)) adalah himpunan solusi dari level lower, dengan:

Sl(xu, xl(xu)) ={xl ∈arg min{fl(xu,·) :xl ∈Ω(xu)}} (4.17)

Sehingga optimisasi dua tahap di atas dapat diformulasikan kembali menjadi bentuk:

Minimizexu,xl fu(xu, xl) (4.18)

s.t. gu(xu)≤0 (4.19) xlSl(xu, xl) (4.20)

Bentuk di atas menunjukkan bahwa untuk setiap solusi level upper beraksi pertama sekali atau sering disebutLeaders Problem, sementara level lower dibuat untuk bereaksi untuk mendapatkan solusi xl secara optimal bergantung pada pilihan xu atau Followers Problem. Kemudian himpunan solusi layak dituliskan

(41)

dalam bentuk:

S={(xu, xl)∈Rn×n :gu(xu)≤0, xl ∈Sl(xu, xl)} (4.21)

Salah satu kelas optimisasi multitahap adalah optimisasi konveks dua tahap yang akan dibahas pada bab pembahasan.

4.3 Metode Steepest Descent

Misalkan permasalahan optimisasi yang dibicarakan tidak mempunyai suatu solusi analitis, sehingga harus digunakan suatu pendekatan atau algoritma nu-merik (iteratif) untuk memecahkan masalah tersebut. Algoritma tersebut diha-rapkan dapat dengan cepat mencapai kondisi konvergen ke solusi yang optimal.

Metode gradien descent menggunakan gradien negatif (−∇f) untuk meng-evaluasi titikxk secara berkelanjutan sebagai arah dari setiap langkah untuk se-tiap iterasi algoritma. Kriteria yang memperlihatkan iterasi berhenti adalah jika mencapai kondisi final:

k∇fk2ε (4.22)

dimana ε adalah suatu nilai yang kecil dan positif. Metode gradien negatif men-jamin arah setiap langkah pada algoritma adalah arah descent.

Misalkan f : Rn R merupakan fungsi kontinu yang dapat didifferen-sialkan, maka metode steepest descent membangkitkan sebuah barisanxk Rn melalui:

(42)

27

dimana βk adalah sejumlah bilangan riel positif dan memenuhi:

βk = αk k∇f(xk)k (4.24) dengan ∞ X k=0 αk =∞, ∞ X k=0 α2 k <∞ (4.25)

Dasar dari kekonvergenan metoda gradien descent adalah pencarian garis yang tepat (linesearch) atau pelacak Armijo, diperoleh dari teorema kekonverge-nan global Zangwill dan teorema kekonvergekekonverge-nan global, serta pernyataan bahwa setiap titik kumpul ¯x dari xk ∈ Rn bila ada, adalah stasioner, yaitu jika ∇f(¯x) = 0. Agar keberadaan titik kumpul tersebut dapat dipastikan, maka diper-lukan sebuah asumsi bahwa permulaan iterasi x0 berada pada suatu himpunan terbatas dari fungsif. Situasi ini akan menjadi lebih baik jikaf merupakan fungsi konveks. Dengan konveksitas fungsi f maka sangat memungkinkan untuk mem-buktikan kekonvergenan dari barisan yang dibangkitkan oleh algoritma tersebut. Tetapi pengamatan yang lebih lanjut menyatakan bahwa kasusβk yang diberi oleh (4.24) dan (4.25) pada metoda ini tidaklah menjamin bahwaf(xk+1)< f(xk) un-tuk semuak.

4.4 Algoritma Proyeksi Gradien (Gradient Projection Algorithms) Metoda proyeksi gradien pertama sekali diperkenalkan oleh Rosen, 1960 dan menjadi salah satu metoda yang digunakan untuk menyelesaikan program nonlinear. Metoda ini akan dipilih untuk menyelesaikan persoalan pada penelitian ini.

(43)

Adapun yang menjadi alasan untuk menggunakan metode ini adalah karena didalam penerapan, metode proyeksi gradien mampu mengidentifikasi himpunan solusi yang aktif dalam sejumlah iterasi terhitung. Setelah himpunan solusi terse-but diidentifikasi dengan benar, algoritma proyeksi gradien mereduksi algoritma descent pada subruang dari variabel-variabel bebas. Lebih jelasnya, metode ini selalu digunakan bersama-sama dengan metoda lain untuk mendapatkan tingkat kekonvergenan yang lebih cepat. Ada dua metode program nonlinear yang umum dan terkenal yaitu metode proyeksi gradien dan metode fungsi penalty, yang di-gunakan dengan prosedur descent orde pertama yaitu steepest descent.

Metode proyeksi gradien adalah sebuah generalisasi dari metode descent, dimana gradien negatif diproyeksikan pada daerah terbatas dan mencari solusi di sepanjang kurva sehingga metode ini bekerja dengan membangkitkan barisan solusi-solusi layak.

Jika himpunan domain fungsi pada kasus ini adalah himpunan konveks C, maka keadaan menjadi memungkinkan untuk menggunakan proyeksi orthogonal pada C, yaitu menunjukkan arah pergerakan gradien disetiap iterasi. Hal ini terjadi karena metode proyeksi gradien meminimisasi sebuah fungsi terdifferen-sialkan dan kontinuf :Rn→R atas himpunan konveks tak kosong dan tertutup CRn.

Definisi 4.4.1 .

1. hx1, x2i adalah perkalian dalam (inner product) dari x1 dan x2.

(44)

or-29

thogonal titik x pada C, dan jarakx ke C:

dist(x, C) =kxPC(x)k

PC(x) berperan untuk menunjukkan arah yang turun (descent) yang mungkin pada setiap langkah iterasi yang dimulai darix(k) dengan arah −∇f(x(k)).

Berikut adalah deskripsi dari algoritma proyeksi gradien yang dimaksud.

Inisialisasi: Ambilx(0)∈C

Iterasi: Jika x(k) adalah stasioner maka stop.

Iterasi bergerak dari z(k) kez(k+1) dan dipilih parameter skalar α(k)>0 sehingga:

z(k)=PC(x(k)−α(k)∇f(x(k)))

kemudian pilih parameter skalar kedua λ(k) [0,1] sehingga:

x(k+1) =x(k)+λk(z(k)−x(k))

Approksimasi akhir algoritma ini bergantung pada nilai kedua parameter tersebut.

Nilai parameter λk(z(k) ∈ [0,1] dari barisan solusi xk ∈ Rn dapat di-tentukan dari bentuk kemonotonan kondisi f(xk+1) < f(xk). Parameter skalar α(k) >0 yang dipilih merupakan langkah atau iterasi dari algoritma di atas. Nilai α(k) harus diseleksi sehingga diperoleh suatu nilai yang dapat menjamin sem-barang limit titik x∗ dari barisan xk ∈ Rn yang memenuhi kondisi optimal yaitu:

(45)

atau

f(z)T(x−z)≥0,∀xC (4.27) Sembarang titik xyang memenuhi kondisi keoptimalan di atas disebut dengan

titik stasioner dari kasus optimisasi yang akan diteliti (lihat Teorema 5.3.1). Jika ∇f adalah kontinu Lipschitz dengan konstan LipschitzK dan α(k) memenuhi:

εα(k) ≤ 2

K(1−ε) (4.28)

dan untuk ε dalam (0,1), maka ada limit dari xk ∈ Rn yang merupakan titik stasioner dari masalah minimisasi pada optimisasi tersebut.

Perhatikan gambar di bawah ini

Gambar 4.2 : Contoh ilustrasi metode proyeksi gradien

Proses pada ilustrasi di atas adalah kasus pada sebuah persamaan kendala tunggalh(x) = 0. Pergerakan pertama adalah disepanjang garis yang ditunjukkan dengan∇f(xk) ke arah permukaan kendala. Pergerakan berikutnya adalah bagian

yang paling utama yaitu arah dari gradien negatif yang diproyeksikan darip(yang mana sama dengan gradien negatif dari q). Pergerakan yang kedua ini identik dengan menentukan gradien descent dan kemudian menggunakan garis pelacak.

(46)

31

Bagaimanapun jika nilai α(k) > 0 adalah besar maka hasil dari pergerakan

pertama adalahzk yang berada pada permukaan kendala. Jadi cukup jelas bahwa ide dari metode proyeksi gradien adalah meminimumkan fungsif atas permukaan S (kendala h(x) = 0) dari titikxk pada S bergerak ke arah xk+1 pada S dengan

arah yang ditentukan.

4.5 Analisis kekonvergenan Metode Proyeksi Gradien

Pada analisis kekonvergenan metode proyeksi gradien, konvergensi yang kuat dari suatu solusi pada fungsi ditinjau dari bentuk kekontinuan uniformnya. Berdasarkan algoritma proyeksi gradien maka dibangkitkan sebuah barisan solusi -solusi layak{xn} yang konvergen ke solusi optimal. Berikut definisi dan teorema yang membuktikan pernyataan berikut.

Definisi 4.5.1 Misalkan C 6=∅ merupakan himpunan konveks tertutup maka:

1. Dipenuhi y = PC(x) jika dan hanya jika hxy, zyi ≤ 0 untuk setiap

zC.

2. Sebuah titik x¯disebut pembuat minimum pada sebuah fungsi konveks f pada himpunan C, jika dan hanya jika x¯=PCxαf0(¯x)), α >0.

Teorema 4.5.1 Asumsikan bahwa permasalahan optimisasi di atas mempunyai solusi. Kemudian algoritma proyeksi gradien membangkitkan sebuah barisan tak hinggaxk dan iterasi berhenti pada suatu iterasik, yang manaxk adalah sebuah

(47)

Bukti: Diasumsikan bahwa algoritma tersebut membangkitkan sebuah barisan tak hingga xk . Jika iterasi berhenti pada iterasi ke-kmaka xk adalah stasioner. Karena f adalah konveks, titik stasioner merupakan solusi dari permasalahan. Misalkan ¯x adalah solusi dari masalah optimisasi yang diberikan.

xk+1−xk2+xk −x¯2−xk+1−x¯2 = 2xk −xk+1, xk−x¯ = 2γkzk −xk,x¯−xk

Sifat yang telah dijelaskan pada proyeksi orthogonal (Teorema 4.5.1) dapat ditampilkan sebagai: hPC(u)u, vPC(u)i ≥0, u∈Rn, vC, sehingga

0≤zk−xk +βkf(xk),x¯−zk

=zk −xk+βkf(xk),x¯−xk+zk −xk +βkf(xk), xk−zk sehingga dengan ini:

zk −xk,x¯−xk≥βkf(xk), xk−x¯−zk −xk +βkf(xk), xk −zk ≥βkf(xk)−f(¯x)+zk−xk +βkf(xk), zk−xk ≥zk−xk +βkf(xk), zk−xk

=zk−xk2+βkf(xk), zk −xk

dengan menggunakan pertidaksamaan gradien pada fungsi konveks f pada per-tidaksamaan yang kedua, maka diperoleh:

xk+1−xk2+xk −x¯2−xk+1−x¯2 ≥2γkhzk −xk2+βkf(xk), zk −xki = 2γk−1xk+1−xk2 + 2γkβkf(xk), zk −xk dan dengan mengatur kembali, maka:

xk+1−x¯2 ≤xk−x¯2+ (1−2γk−1)xk+1−xk2−2γkβkf(xk), zk−xk ≤xk−x¯2−2γkβkf(xk), zk−xk

(48)

33

dengan menggunakan kenyataan bahwa γk ∈ [0,1] pada ketidaksamaan yang ke-dua.

σγjf(xj)T(zj−xj)≤f(xj)−f(xj+1) dengan mengalikan dengan (2βk)

σ , maka

εj ≤ 2βjγjf(xj)T(zj−xj)

karena {f(xj)} tidak naik, diperoleh

εj ≤ 2βj σ f(xj)−f(xj+1)≤ 2 ˆβ σ f(xj)−f(xj+1) dengan ojk maka k X j=0 εj ≤ 2 ˆβ σ f(x0)−f(xk+1)≤ 2 ˆβ σ f(x0)−f(¯x) dan k P j=0

εj dapat dijumlahkan sehingga k P j=0 εj <∞, maka xk+1−x¯2 ≤xk −x¯2+εk

Akhir perhitungan ini menunjukkan bahwa barisan solusi konvergen ke sebuah titik stasioner.

Misalkan saja bahwa S adalah himpunan solusi dari permasalahan opti-misasi pada kasus ini dengan ¯xS dan εk dapat dihitung sehingga xk adalah konvergen ke S. Dengan teorema di atas maka xk adalah sebuah barisan yang terbatas sehingga mempunyai suatu titik kumpul (cluster points) atau stasioner. Dengan sifat konveksitas fungsi, maka titik kumpul yang dimaksud adalah solusi dari masalah yang diberikan, dan barisan xk konvergen ke solusi tersebut.

(49)

Teorema 4.5.2 Misalkan CRn adalah himpunan tidak kosong dan{xk} ⊂ Rn

merupakan sebuah barisan sedemikian sehingga:

xk+1−z2 ≤xk −z2+εk

Untuk setiap zC dan untuk setiap k dimana{εk} ⊂R+ adalah sebuah barisan yang dapat dijumlahkan maka:

1. {xk} adalah terbatas

2. Jika sebuah titik kumpul (cluster point)x¯berada di C, maka seluruh barisan

{xk} akan konvergen ke x¯.

Bukti:

1. MisalkanzC, maka diperoleh bahwa:

xk+1−z2 ≤x0−z2+ k−1 X j=0 εjx0−z2+ ∞ X j=0 εj

Karena {εk}adalah barisan yang dapat dijumlahkan maka{xk}adalah ter-batas

2. Misalkan ¯xC adalah titik kumpul dari {xk} dan ambil δ > 0. Misalkan {xk} adalah sebuah subbarisan dari {xk} yang konvergen ke ¯x. Karena {εk}adalah sebuah barisan yang dapat dijumlahkan, terdapatk

0 sedemikian

sehingga

P

j=k0

εj < δ2 dan terdapat k1 sehingga lk1 ≥ k0 dan

xlkx¯2 < δ 2

untuk kk1.

(50)

35 xk+1 −x¯2≤xlk1 x¯2+ k−1 X j=lk 1 εjxlk1 x¯2+ ∞ X j=lk 1 εj < δ 2 + δ 2 =δ sehingga lim k→∞x k = ¯x.

(51)

PEMBAHASAN

5.1 Formulasi Optimisasi Konveks Dua Tahap

Optimisasi konveks dua tahap (Two Level Convex Optimization Problem) adalah kelas optimisasi dua tahap (Bilevel Optimization) yang mempunyai fungsi tujuan maupun fungsi kendala bersifat konveks untuk kedua levelnya. Bentuk optimisasi dua tahap yang telah diuraikan pada Bab 3 dapat ditampilkan kembali dengan mengubah jenis himpunan domain, fungsi kendala dan tujuannya menjadi himpunan dan fungsi bersifat konveks untuk kedua levelnya sehingga diperoleh formulasi bentuk persoalan optimisasi konveks dua tahap sebagai berikut:

Minimizexu,xl fu(xu, xl) (5.1)

s.t xlSl(xu, xl) = arg min{fl(xu,·)|(xu, xl)∈C} (5.2)

dengan

CRn adalah himpunan konveks tertutup, (5.3) fu, fl :RRn →R adalah fungsi bersifat konveks. (5.4)

Berdasarkan bentuk di atas, untuk setiap variabel upper (xu), terdapat va-riabel lower (xl) yang bergantung pada (xu), yang dibatasi menjadi solusi dari level lower dengan himpunan solusi Sl(xu,·). Hal ini menjelaskan bahwa semua solusi layak pada level upper, akan layak pada level lower tetapi akan lebih layak secara umum pada optimisasi dua tahap jika didapatkan variabel x(xu, xl) yang dapat menyelesaikan kedua level. Dengan demikian, semua himpunan solusi yang layak

(52)

37

pada level lower dan level upper akan terbatas sedemikian sehingga pasangan ke-dua variabel ini memenuhi optimisasi tahap keke-dua dan pertama atau dengan kata lain, himpunan solusi tersebut merupakan solusi akhir dari persoalan optimisasi konveks dua tahap dan dikumpulkan di dalam sebuah himpunanS(xu, xl), yaitu:

S ={(xu, xl)∈Rn×n (5.5)

Perhatikan implementasi pernyataan tentang hubungan antara solusi level upper dengan solusi level lower di atas dengan contoh kasus yang sederhana pada ilustrasi gambar berikut:

Gambar 5.1 : Himpunan solusi upper atau solusi optimisasiSu adalah bagian

dari solusi lowerSl

5.2 Regulerisasi Optimisasi Konveks Dua Tahap

Dengan formulasi optimisasi konveks dua tahap (5.1 - 5.4) yang telah di-jelaskan, maka akan dilakukan regulerisasi fungsi dengan menggunakan metode penalty dan regulerisasi Tikhonov.

(53)

Definisi 5.2.1 (Fungsi Penalty) Misalkan P adalah sebuah bentuk optimisasi:

P : Minimizex f(x)

s.t. g(x)≤0

xRn

Sebuah fungsi p(x) :Rn R disebut fungsi penalty pada P jika p(x) memenuhi:

1. p(x) = 0 jika g(x)≤0 2. p(x)>0 jika g(x)>0

sehingga dengan program penalty, bentuk masalah P di atas menjadi: P : Minimizex f(x) +δp(x), δ >0

s.t. xRn

Teorema 5.2.1 (Teorema Konvergensi Penalty) Misalkan f(x), g(x) dan p(x)

adalah fungsi kontinu. Misalkan xk adalah sebuah barisan solusi P(δ).

Kemu-dian x¯ dari xk sebagai solusi P(δ).

Bukti: Misalkan ¯xadalah limit darixk . Dari sifat kekontinuan fungsi diperoleh lim k→∞f(x k) =fx), dan q= lim k→∞q(δk, x k) f(x), sehingga: lim k→∞δkp(x k ) = lim k→∞ q(δk, xk)−f(xk)=q∗−fx) Karena δk → ∞ maka lim

k→∞p(x

k) = 0. Kemudian dari kekontinuan g(x) dan p(x), p(¯x) = 0 dan g(¯x)≤0, berarti bahwa ¯xadalah sebuah solusi layak sehingga: f(xk)f(x) untuk setiap k dan f(xk)f(x).

(54)

39

Definisi 5.2.2 (Regulerisasi) Misalkan P adalah sebuah bentuk optimisasi de-ngan dua fungsi objektif kAxbk dan kxk sebagai berikut:

P : Minimizex (kxk,kAxbk)

s.t. xRn

sehingga bentuk regulerisasi dari masalah P di atas dituliskan: P(δ) : Minimizex δkxk+kAxbk, δ >0

s.t. xRn

untuk sebuah barisan naik (increasing sequence) konstan δ dengan δ → +∞. Kuantitas skalar δ disebut dengan parameter penalty.

Dasar dari approksimasi regulerisasi adalah mendapatkan suatu vektor x yang bernilai kecil (jika mungkin) sedemikian sehingga nilai residu (Ax−b) juga kecil.

Berdasarkan kedua definisi di atas, dan formulasi optimisasi konveks dua tahap (5.1-5.4) yaitu fungsi objektif pada program dua tahap adalah fungsi kon-tinu Lipschitz lokal pada titik-titik yang disebut dengan daerah kestabilan, yaitu himpunan semua parameter (variabel upper) dimana solusi optimal pada level lower tidak akan mendapat perubahan, dengan demikian (5.1-5.2) dapat diregu-lerisasi.

Misalkan x = (xu, xl) ∈ SRn×n sebagai solusi optimisasi konveks dua tahap maka bentuk regulerisasi fungsi objektif dinotasikan dengan sebuah famili fungsi yang berparameter σ sebagai berikut:

(55)

dimana σ berubah-ubah sepanjang iterasi, sehingga bentuk (5.1-5.4) dapat ditu-liskan kembali menjadi:

Minimizex Fσ(x) s.t. xCRn

Gambar di bawah ini adalah illustrasi kasus sederhana tentang optimisasi tersebut.

Gambar 5.2 : Ilustrasi sederhana minimisasiFσ(xu, xl) dengan domainSu pada

optimisasi konveks dua tahap

Dengan bentuk regulerisasi (5.6) berarti bahwa jika xk ∈ C adalah meru-pakan iterasi ke-k dan σk adalah parameter ke-k sehingga terjadi iterasi proyeksi

gradien dariFσ(x) ke titikxk, dengan σk dapat di up-date. Kekonvergenan

algo-ritma ke solusi persoalan optimisasi di atas akan menunjukkan:

lim k→∞σk = 0, ∞ X k=0 σk = +∞ (5.7)

(56)

41

Selanjutnya perlu dibuktikan kembali bahwa apakah fungsi regulerisasiFσ(x) tersebut dapat mempertahankan konveksitas fungsi objektif dan fungsi kendala optimisasi awal atau tidak? Persoalan ini akan ditunjukkan dengan bentuk teo-rema berikut.

Teorema 5.2.2 Misalkan fu(x) dan fl(x) adalah fungsi objektif bersifat konveks dari masalah optimisasi dua tahap dan (x) adalah fungsi regulerisasi dengan

(x) =σfu(x) +fl(x), σ >0 maka (x) adalah merupakan fungsi konveks.

Bukti: Misalkan :Rn →Rx1, x2 ∈Rn;∀α, βR ; α+β = 1, α >0, β >0

sehingga

Fσ(αx1+βx2)≤σfu(αx1+βx2) +fl(αx1+βx2)

σ{αfu(x1) +βfu(x2)}+{αfl(x1) +βfl(x2)}

αFσ(x1) +βFσ(x2)

Perhitungan akhir jelas menunjukkan bahwa sifat konveksitas (Definisi 3.2.2) pada fungsi regulerisasiFσ(x) sangat dipenuhi atau dapat dipertahankan.

Setelah meregulerisasi bentuk optimisasi dan membuktikan konveksitas da-pat dipertahankan maka metode proyeksi gradien akan digunakan untuk menye-lesaikan masalah tersebut. Tujuan dari metode ini adalah mendapatkan kekon-vergenan barisan ke solusi optimal. Berikut adalah penjelasan tentang kondisi optimal solusi.

(57)

5.3 Kondisi Optimal dari Solusi

Teorema 5.3.1 Misalkan f :CR adalah fungsi objektif bersifat konveks pada suatu masalah optimisasi dan terdifferensialkan sehingga untuk setiap x1, x2 ∈ C dan f(x2)≥ f(x1) +∇f(x1)T(x2−x1) (Teorema 3.2.1) maka x1 adalah optimal jika dan hanya jika x1 ∈C danf(x1)T(x2−x1)≥0,x2 ∈C.

Bukti: Pertama sekali misalkan x1 ∈C memenuhi∇f(x1)T(x2−x1)≥0, ∀x2∈

C kemudian jika x2 ∈ C maka ∇f(x1)T(x2 −x1) < 0. Misalkan bahwa titik

z(t) = tx2+ (1 −t)x1, dimana t ∈ [0,1] adalah parameter. Karena z(t) adalah

chord antarax1 ∈Cdanx2 ∈C dan himpunan layak adalah konveks maka adalah

z(t) layak. Nyatakan bahwa t sangat kecil, sehingga d dtf(z(t)) t=0 =∇f(x1)T(x2−x1)<0

dan dimiliki f(z(t)) < f(x1), yang membuktikan bahwa x1 ∈ C tidak optimal.

Kondisi sebaliknya adalah optimal.

Perhatikan gambar di bawah ini!

(58)

43

Misalkan A adalah himpunan solusi layak yang ditunjukkan dengan daerah arsiran dan terbatas pada daerah A, dan level kurva f(x) ditunjukkan dengan garis arsir. Titikxdikatakan optimal,−∇f(x) mendefinisikan sebuah hyperplane penyangga yang ditunjukkan dengan garis utuh pada A di x.

Teorema 5.3.2 (Weierstrass) MisalkanSRnadalah terbatas dan tertutup dan

F :Rn →R adalah fungsi kontinu maka minx∈SF(x)mempunyai solusi optimal.

Bukti: Karena himpunan S adalah terbatas, F(x) dibatasi pada S. Karena S adalah himpunan tidak kosong, terdapat v= infx∈SF(x). Dengan definisi bahwa untuk ε > 0, = {xS :vF(x)≤v+ε} adalah tidak kosong. Misalkan sajaε→0 dengank → ∞dan misalkanxkk. KarenaS adalah terbatas, ter-dapat sebuah subbarisan dari{xn}yang konvergen ke titik ¯xS (Teorema 3.2.5). Dengan sifat kekontinuanF(x), makaFx) = lim

k→∞F(xk) danv

F(xk)≤v+εk, hal ini berarti bahwa Fx) = lim

k→∞F(xk) =v.

5.4 Algoritma Proyeksi Gradien dan Analisis Kekonvergenan Solusi Optimisasi Konveks Dua Tahap

Pada teori konvergensi global dari algoritma program nonlinear dibuktikan dengan sebahagian titik limit atau kemungkinan semua titik limit dari barisan yang dibangkitkan memenuhi kondisi dari kasus minimisasi berkendala. Demikian halnya pada optimisasi konveks dua tahap berikut dengan algoritma proyeksi gradien yang dijelaskan sebagai berikut:

(59)

Algoritma: Pilih parameter ¯α >0, θ∈ (0,1) dan η∈(0,1) Pilihx0 ∈C dan σ >0 dan setk = 0 sebagai awal Diberikan xk, hitung xk+1 =zk(αk) dimana,

zk(αk) =PC(xk −αFσ0k(x k

))

dan αk =ηmkα¯ dengan mk adalah bilangan bulat

non negatif m yang memenuhi: k(z k (ηmα))¯ ≤k(x k ) +θFσ0k(x k ), zk(ηmα)¯ −xk Pilih 0< σk+1 < σk dan setk =k+ 1 dan ulangi!

Jika xk stasioner maka stop.

Berdasarkan Teorema 4.5.2 dan Teorema 4.5.3, algoritma proyeksi gradien telah membangkitkan barisan solusi yang terbatas. Berikut adalah bentuk peng-analisisan kekonvergenan barisan solusi yang dibangkitkan oleh algoritma tersebut terhadap optimisasi konveks dua tahap.

Teorema 5.4.1 Misalkan xk adalah barisan yang dibangkitkan oleh algoritma proyeksi gradien dan C adalah himpunan solusi x untuk setiap k. Jika xk dan zk

memenuhi algoritma tersebut maka xk berada pada C untuk setiap k.

Bukti: Dengan menggunakan induksi matematika maka untuk k = 0 telah dipenuhi berdasarkan langkah awal (inisialisasi) sehingga x0 ∈ C. Asumsikan bahwaxk ∈C dan dengan zk(αk) =PC(xk−αFσ0k(x

k

)) maka disimpulkan bahwa zk ∈C. Kemudian, dengan pernyataan bahwa αk ∈ [0.1] dan approksimasi algo-ritma xk+1 =zk(αk) maka xk+1 ∈C. Dengan demikian xk ∈C.

(60)

45

Misalkan himpunan konveks C adalah himpunan solusi yang memenuhi fungsi objektif dan kendala suatu permasalahan optimisasi maka pada pengana-lisisan kekonvergenan optimisasi konveks dua tahap, diasumsikan bahwa fungsi objektif fu terbatas pada himpunan C sehingga:

−∞<fu¯ = inf{fu(x)|xC} (5.8)

Misalkan saja bahwa persoalan tersebut dapat diselesaikan maka fungsi tujuan kedua juga secara otomatis terbatas pada C, sehingga:

−∞ <fl¯= min{fl(x)|xC} (5.9)

Regulerisasi pada fungsi tujuan digunakan untuk menunjukkan kekonverge-nan. Dengan (5.11) dan (5.12) maka regulerisasi fungsi (5.6) menjadi:

(x) =σ(fu(x)fu¯) + (fl(x)−fl), σ >¯ 0 (5.10)

Asumsikan bahwa x = (xu, xl) ∈ Rn×n adalah solusi masalah optimisasi tersebut. Berikut adalah penjabaran kekonvergenan fungsi (x) ke suatu solusi x.

Teorema 5.4.2 Misalkan xk adalah barisan yang dibangkitkan oleh algoritma tersebut. Jika xk adalah terbatas maka xk juga terbatas.

Bukti: Dengan Teorema 4.5.2 dan Teorema 4.5.3 maka xk adalah terbatas. Jika k → ∞ maka ik → ∞. Perhatikan bahwa solusi S = Su 6= ∅ sedemikian fungsi konveks φ : CR, dengan φ(x) = maxfl(x)fl, fu(x)¯ −fu(¯x) dan sebuah himpunan terbatas L(c) ={xC|φ(x)c}, cR.

Gambar

Gambar 3.1 : Implementasi secara geometri fungsi kontinu
Gambar 3.2 : Konveks dan tidak konveks
Gambar 3.4 : Sebuah convex cone: untuk setiap titik x 1 , x 2 ∈ C dan untuk setiap 0 ≤ θ ≤ 1 maka θx 1 + (1 − θ)x 2 ∈ C
Gambar 3.7 : Fungsi Konveks dan Fungsi Tidak Konveks
+7

Referensi

Dokumen terkait