2.1 Optimasi Non-Linier
Suatu permasalahan optimasi disebut nonlinier jika fungsi tujuan dan kendalanya mempunyai bentuk nonlinier pada salah satu atau keduanya. Optimasi nonlinier ditinjau dari pandangan matematis merupakan topik lanjutan dan secara konsep-tual, sulit untuk diselesaikan. Untuk itu dibutuhkan pengetahuan aktif mengenai kalkulus, differensial dan aljabar linier (He, 2003).
Kesulitan lain yang dihadapi, yaitu fungsi tujuan nonlinier, yang tidak mem-punyai nilai minimum serta memmem-punyai daerah penyelesaian dengan batas non-linier (tidak konvex). Secara umum tidak terdapat teknik penyelesaian yang ter-baik, tetapi ada beberapa teknik yang mempunyai masa depan cerah dibandingkan yang lain. Banyak teknik penyelesaian optimasi nonlinier yang hanya efisien untuk menyelesaikan masalah yang mempunyai struktur matematis tertentu. Hampir semua teknik optimasi nonlinier modern mengandalkan pada algoritma numerik untuk mendapatkan jawabannya (Mohan dan Kannan, 2004).
Beberapa permasalahan optimasi nonlinier diantaranya:
1. Optimasi satu variabel tanpa kendala
2. Optimasi multivariabel tanpa kendala
3. Optimasi multivariabel dengan kendala persamaan
4. Optimasi multivariabel dengan kendala pertidaksamaan
2.2 Metode Newton-Raphson
Dalam analisis numerik, metode Newton (juga dikenal dengan metode Newton-Raphson), merupakan suatu metode yang cukup dikenal untuk mencari pendekatan terhadap akar fungsi rill. Metode Newton-Raphson sering konvergen dengan cepat, terutama bila iterasi dimulai cukup dekat dengan akar yang diinginkan. Namum bila iterasi dimulai jauh dari akar yang dicari, metode ini dapat meleset tanpa peringatan. Implementasi metode ini biasanya mendeteksi dan mengatasi kega-galan konvergensi.
2.2.1 Gagasan awal metode newton-Raphson
Gagasan awal metode Newton-Raphson adalah metode yang digunakan untuk men-cari akar dari sebuah fungsi rill. Metode ini dimulai dengan memperkirakan satu titik awal dan mendekatinya dengan memperlihatkanslopeatau gradien pada titik tersebut. Diharapkan dari titik awal tersebut akan diperoleh pendekatan terhadap akar fungsi yang dimaksud.
Gambar 2.1 Metode newton-Raphson
Jika terkaan awal pada akar adalah xi, sebuah garis singgung dapat ditarik dari titik [xi,(f(xi)]. Titik dimana garis singgung ini memotong sumbu x, me-nyatakan taksiran akar yang lebih baik. Turunan pertama di xi setara dengan kemiringan:
f(xi) =
f(xi)−0
Sehingga, titik pendekatan untuki +1 adalah
xi+1 =xi−
f(xi)
f′(xi)
dimanai≥0.
Algoritma metode Newton-Raphson:
1. Definisikan fungsi f(x) dan f′(x)
2. Tentukan toleransi error (e) dan iterasi maksimum (n)
3. Tentukan nilai pendekatan awal x0
4. Hitung f(x0) dan f′(x0)
5. Untuk iterasi i = 1, 2, ...,n atau |f(xi)| ≥e
xi+1 =xi−(f(xi)/f′(xi)) Hitung f(x0) dan f′(x0)
6. Akar persamaan adalah nilaixi terakhir yang diperoleh.
Permasalahan pada penggunaan metode Newton-Raphson adalah:
1. Metode ini tidak dapat digunakan ketika pendekatannya berada pada titik ekstrim atau titik puncak karena pada titik ini f′(x) = 0, sehingga nilai
penyebut dari (f(x)/f′(x))f′(x) sama dengan nol, secara grafis dapat dilihat
sebagai berikut :
Bila titik pendekatan berada pada titik puncak, maka titik selanjutnya akan berada di tak berhingga.
Gambar 2.2 Pendekatan pada titik puncak
Gambar 2.3 Pendekatan pada 2 titik puncak
Bila titik pendekatan berada pada dua titik puncak, maka akan dapat me-ngakibatkan hilangnya penyelesaian (divergensi). Hal ini disebabkan titik selanjut-nya berada pada salah satu titik puncak atau arah pendekatanselanjut-nya berbeda. Untuk dapat menyelesaikan kedua permasalahan pada metode Newton-Raphson ini, maka metode Newton-Raphson perlu dimodifikasi yaitu:
di-tentukan. Dengan demikian f′(x
i) 6= 0 dan metode Newton-Raphson tetap dapat berjalan.
2. Untuk menghindari titik-titik pendekatan yang berada jauh, ada baiknya metode Newton-Raphson ini didahului oleh metode tabel, sehingga dapat dijamin konvergensinya.
2.2.2 Metode pengali Lagrange
Permasalahanpermasalahan nonlinier yang tidak dalam bentuk standar diselesaikan dengan mengubahnya ke dalam bentuk standar. Untuk menyelesaikan permasala-han ini, maka perlu dibentuk fungsi pengali Lagrange. Fungsi pengali Lagrange didefinisikan sebagai
L(x1, x2, ..., xn, λ1, λ2, ..., λm) =f(x)−Pmi=1λigi(x).
Dimana λi = (i = 1,2, ..., m) adalah tetapan yang disebut pengali Lagrange. Ke-mudian dibentuk kembali persamaan berikut:
δL δxi
= 0, (j = 1,2, ..., n)
δL δxi
= 0, L(i= 1,2, ..., m).
Metode pengali Lagrange ini ekuivalen dengan menggunakan persamaan ken-dala untuk menghilangkan beberapa variabelxtertentu dari fungsi objektif dan ke-mudian menyelesaikan persoalan maksimasi tanpa kendala dalam variabel-variabel
xyang tersisa.
2.2.3 Vektor gradien dan matriks Hessian
Dalam penyelesaian optimasi multivariabel dengan kendala persamaan yang diselesaikan dengan metode Newton-Raphson, terdapat istilah Vektor Gradien dan matriks Hessian.
1. Vektor Gradien
terhadap variable xi dan λi dimana (i = 1,2, ..., n) dan (j = 1,2, ..., m). Secara matematis Vektor Gradien dapat dituliskan:
▽L=
Matriks Hessian adalah turunan parsial kedua dari fungsi pengali Lagrange terhadap variabel xi = (I = 1,2, ..., n) dilanjutkan dengan turunan
par-2.3 Kondisi Karush-Kuhn Tucker
Tabel 2.1 Kondisi Karush-Kuhn Tucker
Persoalan Kondisi Perlu Juga Cukup Jika
Untuk Optimalitas
Satu variabel dxdf = 0 f(x) konkaf
tidak berkendala
Banyak variabel dxdf
j = 0 (j = 1,2, ..., n) f(x) konkaf tidak berkendala
Berkendala, hanya dxdf
j = 0 (j = 1,2, ..., n) f(x) konkaf kendala nonnegatif atau ≤0 jika xj = 0
Persoalan umum Kondisi Karush-Kuhn f(x) konkaf dan gi(x)
berkendala Tucker konveks (i = 0,1, ...,m)
Dari tabel 2.1 terlihat bahwa untuk kondisi persoalan umum disebut kondisi Karush-Kuhn Tucker (Hillier dan Lieberman, 2005). Kondisi perlu dan cukup untuk ¯
Subject to : g1(x1, x2, ..., xn)≤ b1
g1(x1, x2, ..., xn)≤bm.
Untuk menggunakan hasil, semua kendala persoalan nonlinear harus kendala-kendala dalam bentuk h(x1, x2, ..., xn)≥bharus ditulis sebagaih(x1, x2, ..., xn)≤b harus diganti dengan h(x1, x2, ..., xn) ≤ b dan −h(x1, x2, ..., xn) ≤ −b (Winston dan Venkataramanan, 2003). Teorema 2.1 memberikan kondisi Kuhn-Tucker yang cukup bagi titik ¯x= (¯x1,x2, ...,¯ ¯xn) untuk memecahkan persoalan nonlinear.
Teorema 2.1 Andaikan persoalan nonlinear adalah persoalan maksimisasi. Jika ¯
Teorema 2.2 Andaikan persoalan nonlinear adalah persoalan minimisasi. Jika ¯
x= (¯x1,x2, ...,¯ ¯xn)adalah solusi optimal dari persoalan tersebut maka harus
meme-nuhi m kendala dan harus ada pengali ¯λ1,¯λ2, ...,¯λm yang memenuhi:
1. Jikagi(x)<0 maka λi = 0
2. Jikaλi <0 maka gi(x) = 0
2.4 Metode Biseksi
Kelebihan Metode Biseksi adalah selalu berhasil menemukan akar (solusi) yang dicari, atau dengan kata lain selalu konvergen. Sedangkan kekurangan metode biseksi adalah:
1. Metode biseksi hanya dapat dilakukan apabila ada akar persamaan pada interval yang diberikan.
2. Jika ada beberapa akar pada interval yang diberikan maka hanya satu akar saja yang dapat ditemukan.
3. Memiliki proses iterasi yang banyak sehingga memperlama proses penyele-saian. Tidak memandang bahwa sebenarnya akar atau solusi yang dicari dekat sekali dengan batas interval yang digunakan.
2.5 Metode Scant
Kelebihan metode scant adalah:
1. Dapat digunakan untuk mencari akar-akar persamaan dari persamaan poli-nomial kompleks, atau persamaan yang turunan pertamanya sangat sulit didapatkan.
2. Laju konvergen cepat.
3. Cukup satu terkaan awal.
Sedangkan kekurangan metode secant adalah:
1. Turunan harus di cari secara analitis.