• Tidak ada hasil yang ditemukan

ESTIMASI PARAMETER ANALISIS REGRESI KUANTIL MENGGUNAKAN METODE SIMPLEKS ATAU METODE INTERIOR POINT SKRIPSI KHAIRUNISA

N/A
N/A
Protected

Academic year: 2022

Membagikan "ESTIMASI PARAMETER ANALISIS REGRESI KUANTIL MENGGUNAKAN METODE SIMPLEKS ATAU METODE INTERIOR POINT SKRIPSI KHAIRUNISA"

Copied!
94
0
0

Teks penuh

(1)

MENGGUNAKAN METODE SIMPLEKS ATAU METODE INTERIOR POINT

SKRIPSI

KHAIRUNISA 110803038

DEPARTEMEN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA

MEDAN

2015

(2)

METODE INTERIOR POINT

SKRIPSI

Diajukan untuk melengkapi tugas dan memenuhi syarat mencapai gelar Sarjana Sains

KHAIRUNISA 110803038

DEPARTEMEN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA

MEDAN

2015

(3)

Judul : Estimasi Parameter Analisis Regresi Kuantil Menggunakan Metode Simpleks atau Metode Interior Point

Kategori : Skripsi

Nama : Khairunisa

Nomor Induk Mahasiswa : 110803038

Program Studi : Sarjana (S1) Matematika

Departemen : Matematika

Fakultas : Matematika Dan Ilmu Pengetahuan Alam (FMIPA) Universitas Sumatera Utara

Diluluskan di Medan, Desember 2015

Komisi Pembimbing:

Pembimbing 2, Pembimbing 1,

Drs. Gim Tarigan, M.Si Dr. Open Darnius, M.Sc NIP. 19550202 198601 1 001 NIP. 19641014 199103 1 004

Disetujui oleh:

Departemen Matematika FMIPA USU Ketua,

Prof. Dr. Tulus, M.Si

NIP. 19620901 198803 1 002

(4)

ESTIMASI PARAMETER ANALISIS REGRESI KUANTIL MENGGUNAKAN METODE SIMPLEKS ATAU

METODE INTERIOR POINT

SKRIPSI

Saya mengakui bahwa skripsi ini adalah hasil kerja saya sendiri, kecuali beberapa kutipan dan ringkasan yang masing-masing disebutkan sumbernya.

Medan, Desember 2015

Khairunisa 110803038

(5)

Puji dan syukur penulis panjatkan kehadirat Allah SWT Yang Maha Pemurah dan Maha Penyayang, dengan limpahan karuniaNya penulis dapat menyelesaikan penyusunan skripsi ini dengan judul Estimasi Parameter Analisis Regresi Kuantil Menggunakan Metode Simpleks atau Metode Interior Point.

Terimakasih penulis sampaikan kepada Ibunda tersayang Suriana, Ayahanda Alhamra dan abangda Reza Alnanda yang telah memberikan dukungan moril, materi, kasih sayang, dan do’a restu kepada penulis. Penulis juga mengucapkan terima kasih kepada Bapak Dr. Open Darnius, M.Sc selaku dosen pembimbing 1 dan Bapak Drs. Gim Tarigan, M.Si selaku dosen pembimbing 2 yang telah meluangkan waktunya selama penulisan skripsi ini. Terimakasih kepada dosen pembanding penulis Bapak Drs. Ujian Sinulingga, M.Si dan Bapak Drs. Henry Rani Sitepu, M.Si atas saran dan kritik yang membangun dalam penulisan skripsi penulis, dan seluruh Staff dan Dosen Matematika FMIPA USU, pegawai FMIPA USU serta rekan-rekan kuliah. Semoga Allah SWT akan membalasnya.

Penulis berharap semoga skripsi ini bermanfaat dalam pengembangan ilmu pengetahuan .

(6)

METODE INTERIOR POINT

ABSTRAK

Regresi kuantil merupakan metode yang berguna dalam mengestimasi parameter, metode ini tidak mudah terpengaruh oleh kehadiran pencilan sehingga pencilan menjauh dan tidak mengganggu kestabilan data yang diperoleh. Seperti halnya dengan metode OLS yang meminimumkan jumlah kuadrat sisaan untuk mencari nilai dugaan parameter regresinya, dalam regresi kuantil, dapat diperoleh dengan meminimumkan jumlah harga mutlak sisaaan dengan pembobot ߠ untuk error positif dan ሺ1 − ߠሻ untuk error negatif yang disebut metode LAD. Persamaan dari metode LAD akan membentuk suatu persamaan program linier sehingga dapat diselesaikan dengan metode simpleks dan metode interior point

Kata kunci: Regresi kuantil, Least Absolut Deviation (LAD), Metode Simpleks, Metode Interior Point

(7)

ABSTRACT

The Quantile regression is method for estimate regression parameter, this method couldn’t influenced by outlier. Thus, the outlier be far from data and not irritate data.like the OLS method which minimize sum of square of error for estimate regression parameter, the LAD method minimize sum of absolute deviation for estimate regression paramater. For quantile regression weight of negative error is ߠ and weight of possitive error is 1 − ߠ. We can get linear programming equation from LAD method. And we can solve that equation with simplex method and interior point method.

Keyword: Quantile Regression, Least Absolut Deviation (LAD), Simplex method, Interior Point method

(8)

Halaman

PERSETUJUAN i

PERNYATAAN ii

PENGHARGAAN iii

ABSTRAK iv

ABSTRACT v

DAFTAR ISI vi

DAFTAR TABEL viii

DAFTAR GAMBAR ix

DAFTAR SINGKATAN x

DAFTAR LAMPIRAN xi

BAB 1 PENDAHULUAN 1

1.1 Latar Belakang 1

1.2 Perumusan Masalah 2

1.3 Batasan Masalah 2

1.4 Tinjauan Pustaka 3

1.5 Tujuan Penelitian 5

1.6 Kontribusi Penelitian 6

1.7 Metodologi Penelitian 6

BAB 2 LANDASAN TEORI 10

2.1 Regresi Linier dengan Metode OLS 10

2.1.1 Metode OLS 10

2.1.2 Metode LAD 12

2.2 Regresi Kuantil dengan metode LAD 14

2.2.1 Metode Karmarkar (titik Interior) 15

2.2.1.1 Bentuk Kanonikal Karmarkar 15

2.2.1.2 Batasan Masalah Karmarkar 16

2.2.1.3 Perubahan dari Masalah Artifisial Karmarkar ke

Bentuk Kanonikal Karmarkar 16

2.2.1.4 Algoritma Karmarkar 22

2.2.2 Metode Simpleks 23

BAB 3 HASIL DAN PEMBAHASAN 27

3.1 Penggunaan Metode Simpleks Untuk Menyelesaikan

Regresi Kuantil 27

3.2 Penggunaan Metode Interior Point Untuk Menyelesaikan

Regresi Kuantil 35

3.3 Komputasi dengan Program R Untuk Menyelesaikan

Regresi Kuantil 42

3.3.1 Pendahuluan 42

3.3.2 Langkah-langkah Menyelesaikan Regresi Kuantil

(9)

3.4.1 20 Data Acak dengan 10 Variabel 46

3.4.2 40 Data Acak dengan 5 Variabel 47

3.4.3 60 Data Acak dengan 5 Variabel 49

3.5 Banyak Iterasi Perhitungan ߚመ 52

3.5.1 Iterasi dengan 20 Data Acak 52

3.5.2 Iterasi dengan 40 Data Acak 52

3.5.3 Iterasi dengan 60 Data Acak 53

BAB 4 KESIMPULAN DAN SARAN 54

4.1 Kesimpulan 54

4.2 Saran 54

DAFTAR PUSTAKA 55

LAMPIRAN 56

(10)

Nomor Judul Halaman Tabel

3.1.1 Data Contoh Kasus 27

3.1.2 Tabel Simpleks iterasi ke-1 28

3.1.3 Tabel Simpleks iterasi ke-2 30

3.1.4 Tabel Simpleks iterasi ke-3 31

3.1.5 Tabel Simpleks iterasi ke-4 33

3.1.6 Tabel Simpleks iterasi ke-5 34

3.4.1 20 Data Acak dengan 10 Variabel 46

3.4.2 40 Data Acak dengan 5 Variabel 47

3.4.3 60 Data Acak dengan 5 Variabel 49

3.5.1 Banyak Iterasi dengan 20 Data Acak 52

3.5.2 Banyak Iterasi dengan 40 Data Acak 53

3.5.3 Banyak Iterasi dengan 60 Data Acak 53

(11)

Nomor Judul Halaman Gambar

3.3.2.1 Tampilan awal Program R 43

3.3.2.2 Memanggil fungsi package dalam R 44

3.3.2.3 Memanggil fungsi kuantil 44

3.3.2.4 Menambahkan fungsi kuantil di R console 45

3.3.2.5 Menginput data di R console 45

(12)

OLS = Ordinary Least Square LAD = Least Absolute Deviation

(13)

Nomor Judul Halaman

1 Nilai ܲ dan ܲ 56

2 Proses Komputasi Data Acak Berjumlah 20 dengan 10 Variabel 57 3 Proses Komputasi Data Acak Berjumlah 40 dengan 5 Variabel 70 4 Proses Komputasi Data Acak Berjumlah 60 dengan 5 Variabel 76

(14)

PENDAHULUAN

1.1. Latar Belakang

Analisis Regresi adalah studi (kajian) tentang dependensi atau hubungan sebab- akibat suatu variabel yaitu variabel bebas (variabel dependen) pada satu atau beberapa variabel lain (variabel independen) untuk mengestimasi atau memprediksi mean atau average value dari variabel bebas.

Ada beberapa metode yang dapat digunakan untuk mengestimasi parameter-parameter dalam persamaan regresi, salah satunya yang paling sering digunakan adalah metode Ordinary Least Square ( OLS ). Nilai dugaan bagi parameter dengan menggunakan metode OLS diperoleh dengan meminimumkan jumlah kuadrat sisaan.Namun, metode OLS dapat digunakan bila data memenuhi beberapa asumsi yang biasanya disebut asumsi klasik regresi linear. Nachrowi dan Usman (2006) menjelaskan, Gauss Markov telah membuktikan bahwa penduga dalam regresi mempunyai sifat BLUE (best linier unbiased estimate), atau mempunyai sifat yang linier, tidak bias, dan varians minimum, bila beberapa asumsi terpenuhi. Bila beberapa asumsi tidak terpenuhi, misalnya data berbentuk lonceng tidak simetris, maka nilai mean menjadi sangat peka dengan adanya data outlier dan kurang tepat digunakan. Terkadang untuk mengatasi hal tersebut, peneliti akan melakukan transformasi terhadap data dengan maksud agar asumsi terpenuhi. Namun sering kali asumsi tersebut tidak terpenuhi meskipun telah dilakukan transformasi yang pada akhirnya mengakibatkan dugaan berbias.

Kemudian berkembanglah metode median regression dengan pendekatan Least Absolute Deviation ( LAD ) yang dikembangkan dengan mengganti pendekatan mean pada OLS menjadi median. Nilai dugaan bagi parameter dengan metode ini diperoleh dengan meminimumkan jumlah nilai mutlak dari sisaan.

Sehingga penduga parameter mengarah pada nilai median data. Permasalahannya

(15)

adalah metode median regression hanya dapat melihat dua kelompok data yang dibagi pada nilai tengahnya saja dan ketika terdapat data yang berbentuk lonceng tidak simetris atau kemiringan (titik pusat) data bukan terletak pada mediannya melainkan pada potongan kuantil tertentu. Maka pendekatan median dirasa kurang untuk mengatasi permasalahan tersebut.

Selanjutnya berkembanglah metode regresi kuantil. Metode ini tidak membutuhkan asumsi eror dalam model dan estimatornya bersifat tegar terhadap pencilan (outlier) pada variabel terikat. Pendekatannya adalah memisahkan atau membagi data yang dicurigai ada perbedaan nilai taksiran pada kuantil – kuantil tertentu. Dalam mengestimasi parameter regresinya, tidak dapat diperoleh secara analitik, melainkan secara numerik. Misalnya dengan metode simpleks dan metode interior point.

Berdasarkan uraian yang penulis jelaskan di atas maka penulis memilih judul skripsi “Estimasi Parameter Analisis Regresi Kuantil Menggunakan Metode Simpleks dan Metode Interior Point”.

1.2. Perumusan Masalah

Perumusan masalah yang akan penulis teliti adalah membandingkan hasil estimasi parameter regresi kuantil linear dengan menggunakan metode simpleks dan metode interior point.

1.3.Batasan Masalah

Model regresi kuantil memiliki lingkup yang sangat luas untuk dibahas. Batasan masalah yang diteliti dibatasi oleh perhitungan estimasi koefisien β dengan metode simpleks dan metode interior point.

(16)

1.4. Tinjauan Pustaka

Menurut Supranto, J apabila variabel Y mempunyai hubungan linier dengan n buah variabel X, maka model matematika multiple regresinya adalah :

 = +  



+

Dengan : Y = variabel dependent atau respon X = variabel independent atau predictor

= konstanta yang merupakan titik potong kurva terhadap sumbu Y

 = kemiringan kurva linier = Nilai kesalahan.

Regresi kuantil merupakan metode yang berguna dalam mengestimasi parameter, metode ini tidak mudah terpengaruh oleh kehadiran pencilan sehingga pencilan menjauh dan tidak mengganggu kestabilan data yang diperoleh. Selain itu, metode ini dapat memberikan hasil yang tepat dan stabil pada kehadiran pencilan serta dapat membatasi pengaruh dari pencilan. (Furno,2007)

Regresi kuantil pertama kali di perkenalkan oleh Roger Koenker dan Gilbert Basset tahun 1978. Roger Koenker dan Stephen Portnoy dalam buku mereka “Quantile Regression” menerangkan bahwa fungsi distribusi kumulatif dari variabel random X dapat dinyatakan:

 =  ≤  (1)

Misalkan Y adalah peubah acak dengan fungsi distribusi Fy dan merupakan fungsi dari X.  adalah sebuah konstanta dimana 0 <  < 1 fungsi distribusi probabilitas pada kuantil ke- dari Fy yang dinotasikan sebagai 

adalah:

 =  = inf {:  ≥ } (2)

Sebuah regresi kuantil linier dengan fungsi kondisional dari kuantil ke- 

#|%, … , ( dan  sebagai fungsi linier dari peubah %, … , ( ,maka model linear dari persamaan regresi kuantil dapat ditulis sebagai:

) = *#,+ *#,%%,+ ⋯ + *#,(,

Dimana : , = Pengamatan ke- - untuk peubah . = 2, … , 0

(17)

Untuk mendefinisikan regresi kuantil dalam sebuah analogi,metode OLS menawarkan sebuah model dengan sampel acak {, %, … , } diperoleh persamaan berikut:

1-234ℝ∑  9 − 8% (3)

Maka diperoleh rata-rata sampel yang merupakan penduga dari rata-rata populasi tidak bersyarat E(Y). jika skalar 8 = ′ maka persamaan (3) menjadi:

1-2:4ℝ;∑ < 9 − =% (4) Kemudian berkembang menjadi kuantil:

1-2:4ℝ;∑ > 9 − > (5)

Sehingga, untuk meminimumkan kuantil tak bersyarat dengan estimasi regresi * digunakan rumus:

*#= ?@A 1-2#B∑ C9 #<− #=D (6) Dengan:

C# = loss function yang asimetrik

#=fungsi kuantil ke- dari Y dengan syarat X

Dengan E#F|GH = # merupakan kuantil ke-  dari y dengan suatu nilai  tertentu. Seperti halnya dengan metode OLS yang meminimumkan jumlah kuadrat sisaan untuk mencari nilai dugaan , maka dalam regresi kuantil, penduga bagi  di kuantil ke-  dari Fy dapat diperoleh dengan meminimumkan jumlah harga mutlak sisaaan dengan pembobot  untuk error positif dan 1 −  untuk error negatif

* = 1-2:I  >− >

4B:FJKF:D

+ 1 −   >− >

4B:FJKF:D

L 7

Untuk  =0,5 maka persamaan (7) akan sama dengan metode median regression. Sejak awal 1950-an telah diteliti bahwa metode median regression dapat dirumuskan sebagai suatu permasalahan program linier. menyelesaikan masalah dalam mencari parameter estimasi median regression menggunakan algoritma modern oleh Barrodale dan Roberts (1973). Dan diselesaikan secara efisien dengan beberapa bentuk algoritma simpleks.

(18)

Cara kerja singkat algoritma ini adalah disetiap langkah terdapat sebuah percobaan dari p pengamatan awal, yang mungkin merupakan solusi. Selanjutnya, dihitung turunan berarah dari 2p arah yang dihasilkan dari penghapusan salah satu pengamatan awal, dan mengambil langkah positif atau negatif. Algoritma berhenti ketika tidak terdapat lagi turunan berarah negatif, setelah selalu memilih arah yang paling negatif ( paling kecil ). Versi khusus algoritma simpleks untuk metode median regression secara umum dapat juga digunakan untuk masalah regresi kuantil di setiap kuantil ke- . Pada dasarnya semua yang dilakukan oleh algoritma ini adalah menemukan solusi untuk masalah kuantil dengan memanfaatkan modifikasi dari metode simpleks. ( Koenker dan D’Orey 1993 )

Solusi dari permasalahan di persamaan (8) tidak dapat diperoleh secara analitik akan tetapi melalui tahapan iterasi yaitu dengan menggunakan metode simpleks. Metode simpleks adalah prosedur aljabar yang bersifat iteratif bergerak selangkah demi selangkah, dimulai dari titik ekstrim pada daerah fisibel menuju ke titik ekstrim yang optimum (koenker dan hallock, 2001)

Masalah timbul jika terdapat pengamatan berjumlah besar. Metode simpleks dianggap lamban dalam mencari solusi. Tulisan oleh karmarkar (1984) memberitahukan tentang metode lain dari program linear, yaitu metode interior point. Oleh karena itu, penulis tertarik dalam membandingkan estimasi parameter regresi kuantil menggunakan metode simpleks dan metode interior point.

1.5. Tujuan Penelitian

Tujuan dari penelitian ini adalah :

1. Mencari nilai estimasi parameter regresi kuantil menggunakan metode simpleks.

2. Mencari nilai estimasi parameter regresi kuantil menggunakan metode interior point.

3. Membandingkan hasil estimasi parameter regresi kuantil dengan metode simpleks atau metode interior point dan menentukan hasil yang lebih baik.

4. Membandingkan banyaknya iterasi untuk mencari nilai parameter regresi kuantil dengan menggunakan metode simpleks atau metode interior point.

(19)

1.6. Kontribusi Penelitian

Manfaat dari penelitian ini adalah sebagai berikut :

1. Merupakan partisipasi penulis dalam memberikan kontribusi terhadap pengembangan keilmuan, khususnya dalam bidang ilmu Matematika terhadap masalah regresi kuantil

2. Bentuk pengaplikasian ilmu yang telah penulis dapatkan dalam perkuliahan.

3. Salah satu cara bagi pembaca agar dapat mempelajari dan mengembangkan ilmu matematika dalam berbagai permasalahan.

1.7. Metodologi Penelitian

Metodologi penelitian yang digunakan dalam memecahkan permasalahan dalam tugas akhir ini adalah sebagai berikut:

1. Studi literatur.

Tahap ini dilakukan dengan mengidentifikasi permasalahan, mengkaji, dan menganalisis model regresi kuantil. Penelusuran referensi ini bersumber dari buku, jurnal, maupun penelitian yang telah ada sebelumnya mengenai hal-hal yang berhubungan dengan regresi kuantil dan estimasi model regresi kuantil dengan metode simpleks dan metode interior point.

2. Pengumpulan data.

Data yang digunakan dalam penelitian ini adalah data acak yang disimulasi dengan bantuan program R.

3. Mengestimasi koefisien β dengan metode simplex dan interior point.

Pada tahap ini dilakukan estimasi koefisien β dengan metode simpleks, menggunakan algoritma Barrodale dan Roberts kemudian mengestimasi koefisien β menggunakan metode interior point.

3.1 Metode Simpleks

(20)

1. Formulasikan dan standarisasikan modelnya.

2. Bentuk tabel awal simpleks berdasarkan informasi model.

3. Tentukan kolom kunci diantara kolom – kolom variable yang ada, yaitu mengandung nilai ( Cj – Zj ) paling kecil 4. Tentukan baris kunci diantara baris – baris variable yang

ada, yaitu baris yang memiliki rasio kuantitas dengan nilai positif terkecil

5. Bentuk tabel berikutnya dengan memasukkan variable pendatang ke kolom variabel dasar dan mengeluarkan variabel perantau dari kolom tersebut, serta lakukan transformasi baris-baris variabel.

6. Lakukan uji optimalis.

3.2 Metode Interior Point

1. Ubah Bentuk Minimisasi ke dalam bentuk Maksimisasi dengan menegatifkan Fungsi Kendala dan Fungsi Tujuan 2. Bentuk Fungsi Kendala dan Tujuan Ke dalam Bentuk

Matriks sehingga memenuhi Bentuk Umum metode interior point yaitu :

Maksimalkan : N = OP Dengan Kendala : Q = R

3. Iterasi dimulai dengan suatu nilai awal (yang

memungkinkan,sedemikian sehingga Q(= R dengan

(, untuk . = 1,2, … , 2 + 1 4. Lakukan proses iterasi

5. Proses iterasi akan berhenti apabila kriteria berhenti (stopping criterion) terpenuhi yaitu :

nilai N(S = OP(S ≤ N(= OP(

6. Menguji hasil estimasi.

(21)

7. Membuat kesimpulan.

Pada tahap ini dilakukan penarikan kesimpulan dari hasil analisis data dan juga memberikan saran yang berkaitan dengan pengembangan penelitian sebelumnya.

(22)

LANDASAN TEORI

2.1. Regresi Linier dengan Metode OLS

Metode OLS atau sering juga dikatakan sebagai metode kuadrat terkecil (Least Square) pada dasarnya merupakan anggapan–anggapan tertentu, anggapan–

anggapan pada metode kuadrat terkecil adalah dimaksudkan sebagai pembentukan model normal Hesse, yang digunakan untuk menentukan perhitungan besaran intercept dan koefisien regresi sampel. Berikut beberapa anggapan penting metode kuadrat terkecil, di antaranya :

1. Nilai rata–rata dari tingkat kesalahan (error) atau nilai ekspektasi dari setiap nilai X sama dengan nol. Anggapan ini dinyatakan seperti pada gambar 1, bahwa untuk setiap X, misalkan X1, X2, X3 terdapat beberapa nilai Y. Nilai Y tersebut berada di bawah dan di atas garis regresi, namun nilai rata-rata dari Y berada di titik tengah yaitu garis regresi. Karena kurva bersifat simetris, maka nilai di bawah garis regresi sama dengan nilai di atas garis regresi, sehingga nilai ekspektasi untuk setiap X sama dengan nol.

2. Nilai error dari  dan  dikatakan sebagai covarian yang saling independent , karena itu dapat diartikan bahwa cov(, ) = 0, dimana  ≠ .

3. Varians  dari error bernilai : var(Ei/Ej) = −  = . Nilai  untuk setiap X tersebar secara tetap sebesar nilai variansnya  . Nilai E tersebar di bawah kurva normal sejauh satu standar deviasi di bawah garis regresi dan satu standar deviasi di atas garis regresinya.

4. Variabel bebas X tidak berhubungan dengan besarnya nilai error, oleh karena itu cov(Ei,) = 0. Dengan demikian model regresinya ditulis :  =  + +

 ,terlihat dari model tersebut bahwa nilai Ei dan  secara nyata tidak saling mempengaruhi, namun demikian kedua variabel tersebut mempengaruhi variabel Y.

(23)

2.1.1. Metode OLS

Metode Least Square atau Metode Kuadrat Terkecil digunakan untuk mendapatkan penaksir koefisien regresi linier. Model regresi linier sederhana dinyatakan dengan persamaan :

Y = β0 + β1X + ε , model umum

Yi = β0 + β1Xi + εi , model setiap pengamatan Model dugaan dinyatakan oleh :

X

Yˆ=βˆ0+βˆ1 atau Yˆ = b0 + b1 X , model umum

i

i X

Yˆ =βˆ0+βˆ1 atau i = b0 + b1 Xi , model setiap pengamatan Didapatkan eror, yaitu ε atau εi sebagai berikut :

Y Y − ˆ

ε = =Yb0b1X atau εi=YiYˆi=Yib0b1Xi

Secara geometrik, titik-titik hasil eksperimen, model dan error digambarkan pada grafik berikut ini :

X

Y

45 40 35 30 25 20 15 10 10

9

8

7

6

5

4

3

Titik-titik merah adalah nilai hasil eksperimen, dinotasikan Yi , yang diduga membentuk garis lurus berwarna biru. Garis inilah model yang akan di-

(24)

taksir, dengan cara menaksir koefisiennya, yaitu b0 dan b1, sehingga terbentuk persamaan i = b0 + b1 Xi.

Garis tegak lurus sumbu horisontal yang menghubungkan titik eksperimen dengan garis lurus dugaan dinamai error. Metode least square bertujuan mendapatkan penaksir koefisien regresi, yaitu b0 dan b1, yang menjadikan jumlah kuadrat error, yaitu

= n

i i 1

ε2 sekecil mungkin. Prosedur metode kuadrat terkecil adalah sebagai berikut :

1. Membentuk

= n

i i 1

ε2 sebagai fungsi b0 dan b1,

S = f(b0,b1) =

= n

i i 1

ε2=

∑ ( )

=

n

i

i

i b bX

Y

1

2 1 0

2. Mendiferensialkan S terhadap b0 dan b1, kemudian hasil diferensialnya, yaitu

b0

S

∂ dan b1

S

∂ disamakan dengan 0

∂ =

b0

S

∑ ( )

=

=

n

i

i

i b bX

Y

1

1

0 ( 1) 0

2

( )

) 1 ( ...

...

...

...

...

...

...

...

0 0 0

1 1

1 0

1 1

1 0

1 1 1

1 0

1

1 0

∑ ∑

∑ ∑ ∑

=

=

= =

= = =

=

= +

=

=

=

n

i i n

i i n

i

n

i i i

n

i

n

i

n

i i i

n

i

i i

Y X

b b n

X b b n Y

X b b

Y

X b b Y

∂ =

b1

S

∑ ( )

=

=

n

i

i i

i b bX X

Y

1

1

0 ( ) 0

2

( )

=

=

n

i

i i

i b bX X

Y

1

1

0 ( ) 0

(25)

∑ ∑ ∑

= = =

=

n

i

n

i

n

i i i

i

iX b X bX

Y

1 1 1

2 1

0 0

∑ ∑ ∑

= = =

=

n

i

n

i i n

i i i

iY b X b X

X

1 1

2 1 1

0 0 (2)

Persamaan (1) dan (2) dinamai persamaan normal.

3. Menghitung b0 dan b1 berdasarkan dua persamaan yang terbentuk. Dari persamaan (1) didapatkan formula b0,

= = =

+ n

i i n

i

i Y

X b b n

1 1

1 0

b0 = Y b X Y bX

n

n

i i n

i

i 1

1 1 1

1 = −

 

=

=

Formula b0 ini kemudian disubstitusikan ke persamaan (2),

∑ ∑ ∑

=

=

=

=

+ n

i i i n

i i n

i

i b X XY

X b

1 1

2 1 1 0

( )

=

=

=

=

=

=

=

=

=

=

=

=



 

 −

= +

= +

n

i i n

i i i n

i i n

i i

n

i i i n

i i n

i i n

i i

n

i i i n

i i n

i i

X Y Y X X

X X b

Y X X

b X X b X Y

Y X X

b X X b Y

1 1

1 1

2 1

1 1

2 1 1

1 1

1 1

2 1 1

1

XX XY n

i i n

i i i n

i i n

i i

n

i i n

i i i

S S X n X

Y X n Y X

X X X

X Y Y X

b =

=

=

=

=

=

=

=

=

2 1

2 1

1 1

2

1 1

1

2.1.2. Metode LAD

Metode LAD adalah metode yang digunakan untuk menyelesaikan masalah regresi dengan meminimalkan deviasi mutlak antara nilai pengamatan  dan nilai

(26)

prediksi  untuk pengamatan ke- . Untuk mengestimasi parameter , dapat dilakukan dengan meminimalkan ∑|| dimana  adalah deviasi dari nilai pengamatan  dan nilai prediksi  yaitu ∑ −  .

Berdasarkan model regresi linier berganda :

 = + + + ⋯ + !"!"+ #

Dari data X dan Y yang diberikan pada pasangan $,%,  = 1,2, … , ) parameter

, , ,… , !" diperoleh dengan meminimalkan :

* − + + + ⋯ + !"!" 

+

,

Berdasarkan model regresi linier  =  + , dimana Y adalah vektor dari variabel terikat dengan ukuran ) × 1 dan X adalah matriks berukuran ) × ., masalah regresi menggunakan metode LAD dapat disusun seperti masalah program linier dengan n kendala dan p + 2n variabel sebagai berikut :

Minimalkan : ∑|| Dengan kendala : +  = 

,  tidak dibatasi tanda

"

/  = 0+ 0

(27)

Untuk titik data ke-,  dan  merupakan bagian positif dan negatif dari , sesuai dengan deviasi atas (error positif) dan deviasi bawah (error negatif) dari garis regresi.

2.2. Regresi Kuantil dengan Metode LAD

Regresi kuantil pertama kali di perkenalkan oleh Roger Koenker dan Gilbert Basset tahun 1978. Dapat dianggap sebagai perluasan dari model regresi OLS.

Secara khusus, regresi OLS hanya memperkirakan bagaimana variabel prediktor terkait dengan nilai rata-rata variabel respon, sedangkan regresi kuantil memungkinkan untuk memperkirakan keterkaitan model prediktor terhadap berbagai lokasi / pengukuran variabel respon. Karena sifatnya yang robust terhadap pencilan, maka regresi kuantil cocok untuk menganalisis sejumlah data yang bentuknya tidak simetris serta distribusi datanya tidak homogen.

Secara statistik, fungsi distribusi probabilitas dari variabel random X dapat dinyatakan sebagai berikut :

1 = 2 ≤ 

Dan fungsi distribusi probabilitas pada kuantil ke- 4 dari X dapat ditulis sebagai berikut :

1"4 = inf {: 1: ≥ 4}

Dalam kasus regresi kuantil, besarnya deviasi atas dan deviasi bawah tidak sama. Maka harus diboboti dengan 4 untuk bagian positif ( deviasi atas ) dan 1 − 4 untuk bagian negatif ( deviasi bawah ). Maka masalah regresi kuantil menggunakan metode LAD dapat dinyatakan kembali sebagai berikut :

Minimalkan : 4 ∑|| + 1 − 4 ∑|| Dengan Kendala :  + − = 

, ≥ 0

Bentuk program linier seperti di atas dapat diselesaikan dengan menggunakan :

(28)

2.2.1. Metode karmarkar (titik Interior)

Metode karmarkar dalam menyelesaikan masalah program linier secara fundamental berbeda dari metode simpleks. Pertama, titik awal metode karmarkar dari dalam himpunan feasible dan bergerak menuju vertex optimal. Inilah yang menyebabkan metode karmarkar juga dikenal sebagai metode titik interior. Hal ini berbeda dengan metode simpleks yang bergerak dari vertex ke vertex yang lain dari himpunan feasible ketika mencari vertex optimal. Perbedaan yang kedua, dalam metode simpleks, iterasi berhenti ketika menemukan solusi terbaik absolut.

Di sisi lain, metode karmarkar berhenti menemukan solusi yang memiliki nilai fungsi tujuan lebih kecil atau sama dengan nilai berhenti yang ditentukan pertama kali. Perbedaan lainnya adalah metode simpleks menggunakan masalah pemrograman linier bentuk standar, sedangkan metode karmarkar menggunakan bentuk kanonikal khusus yang dikenal dengan bentuk kanonikal karmarkar.

2.2.1.1.Bentuk Kanonikal Karmarkar

Bentuk kanonikal karmarkar dapat ditulis sebagai berikut : Minimalkan : >?

Dengan batasan : @ = 0 ∑ +,  = 1

 ≥ 0

Dimana  = A, . . , +C?. Akan didefinisikan beberapa notasi lain, yaitu :

•  = A1, … ,1C?, yaitu vector dalam ℝ+ yang semua anggotanya sama dengan 1

• Ω adalah subspace dimana : Ω = { ∈ ℝ+∶ @ = 0}

• Simpleks dalam ℝ+ sebagai :∆= { ∈ ℝ+ ∶ ? = 1,  ≥ 0}

• Pusat dari ∆ sebagai :  =  )⁄ = J1 )K , … , 1 )K L? Jelas bahwa  ⊂ ∆.

Dengan menggunakan notasi di atas bentuk kanonikal karmarkar juga dapat ditulis :

Minimalkan : >? Dengan batasan :  ∈ Ω ∩ ∆

(29)

Sebagai catatan, himpunan dari fungsi kendala (himpunan feasible) dapat dipresentasikan sebagai :

Ω ∩ ∆= Ox ∈ ℝ+∶ Q @?R  = Q01R, ≥ 0S

2.2.1.2.Batasan Masalah Karmarkar

Algoritma karmarkar untuk menyelesaikan masalah pemrograman linier, harus memiliki bentuk kanonikal karmarkar yang memenuhi asumsi berikut :

a) Pusat a dari simpleks ∆ adalah titik feasible b) Nilai minimal dari fungsi tujuan sama dengan 0 c) Matriks U + 1 × ) Q @?R memiliki rank U + 1

d) Diberikan parameter V > 0 sehingga jika ditentukan titik feasible  yang memenuhi >? ≤ 10"X, maka dianggap masalah telah terselesaikan.

Asumsi (a) pada dasarnya tidak terbatas, karena semua masalah pemrograman linier dapat dirubah ke bentuk kanonikal karmarkar.

Untuk asumsi (b), semua pemrograman linier dapat dirubah sehingga memenuhi asumsi ini. Misal telah diketahui nilai optimal dari masalah tersebut, misal sebesar M. Ambil fungsi

Y = >? − Z. Sehingga dapat dihitung :

Y = >? − Z = >? − Z? = >?− Z?  = >̃?,dimana

? = >?− Z?. Jelas bahwa fungsi tujuan di atas memiliki nilai minimal sama dengan nol

Asumsi (c) adalah syarat perlu untuk menyelesaikan algoritma karmarkar.

2.2.1.3.Perubahan dari Masalah Artifisial Karmarkar ke Bentuk Kanonikal Karmarkar

Diberikan masalah artificial karmarkar sebagai berikut : Minimalkan : >?

Dengan batasan : @ =   ≥ 0

(30)

Yang akan dirubah ke bentuk kanonikal karmarkar : Minimalkan : >\?

Dengan batasan : @\ = 0 ? = 1

 ≥ 0

Dimana @ ∈ ℝ]×+, @\ ∈ ℝ]×+/ , > ∈ ℝ+, >′ ∈ ℝ+/

Ambil titik  = A, … , +C? yang merupakan titik interior tegas , yang merupakan titik feasible, dimana @ =  dan  > 0. Misal _ = A_, … , _+/C? transformasi proyeksi ke dalam simpleks ∆ dalam ℝ+/

dimana :

_

`a b

ac K

K + ⋯ +  +K + 1+ , untuk 1 ≤  ≤ )

K + ⋯ +  1 +K + 1+ , untuk  = ) + 1 g

Transformasi _ ini berbentuk pemetaan satu-satu (jika _ = _

mengakibatkan  = ). Hal ini dapat dibuktikan sebagai berikut :

_

`a b

ac K

K + ⋯ +  +K + 1+ , untuk 1 ≤  ≤ )

K + ⋯ +  1 +K + 1+ , untuk  = ) + 1 g

Dan

_

`a b

ac K

K + ⋯ +  +K + 1+ , untuk 1 ≤  ≤ )

K + ⋯ +  1 +K + 1+ , untuk  = ) + 1 g

Dimana _ = _

Untuk  = ) + 1, maka _+/ = _+/ atau dapat ditulis:

K + ⋯ +  1 +K + 1+ = 1

K + ⋯ +  +K + 1+

K + ⋯ +  +K + 1+

K + ⋯ +  +K + 1+ = 1 Maka untuk 1 ≤  ≤ )

(31)

_ = _

K

K + ⋯ +  +K + 1+ = K

K + ⋯ +  +K + 1+

K

K + ⋯ +  +K + 1+ . 1 = K

K + ⋯ +  +K + 1+

substitusi persamaan (2.1) sehingga

K

K + ⋯ +  +K + 1+ .K + ⋯ +  +K + 1+

K + ⋯ +  +K + 1+

= K

K + ⋯ +  +K + 1+

K

K + ⋯ +  +K + 1+ $K + ⋯ +  +K + 1% +

= K

K + ⋯ +  +K + 1+ $K + ⋯ +  +K + 1% +



 =



 =  untuk 1 ≤  ≤ ) Dengan kata lain  = .

Transformasi ini memiliki invers misal  = _ . Maka transformasi inversnya adalah :

_" = A_", … , _+"C? dimana _" = K+/

Untuk nilai  pada bentuk kanonikal karmarkar, merupakan fungsi transformasi dari  atau dapat ditulis  = _

Untuk menghitung @\, untuk  = 1, … , ), kolom ke-  dari @\ sama dengan

 dikalikan kolom ke-  dan sama dengan –  untuk kolom ke-) + 1 dari @\, atau dapat ditulis :

Aj,k\ = lak. Aj,k , untuk 1 ≤ i ≤ n, 1 ≤ j ≤ m

−bk , untuk  = ) + 1, 1 ≤  ≤ Ug

(32)

Dapat dibuktikan bahwa untuk setiap matriks @ ∈ ℝ]×+, terdapat matriks

@\ ∈ ℝ]×+/ , dimana @ =  jika dan hanya jika @\_ = 0, yaitu sebagai berikut :

@\_ = 0

Bagi matriks @\ per baris menjadi vektor @\, … , @\], yang masing-masing berdimensi ) + 1 atau dapat ditulis:

p@\

@⋮\]

r _ = 0

Masing-masing baris vektor @\, untuk 1 ≤  ≤ U dapat dibagi menjadi:

@\= J@\,, … , @\,+, @\,+/L

Selanjutnya untuk masing-masing baris dapat disubstitusi : s@\, … @\,+ @\,+/

@\], … @\],+ @\],+/

t _ = 0

substitusi masing-masing nilai @\, dan _ :

s. @\, … +@\,+ −

. @\], … +@\],+ −]

t .

uv vv vv vv

vw K

K + ⋯ +  +K + 1+

+K⋮+

K + ⋯ +  +K + 1+

K + ⋯ +  1 +K + 1x+ yyyyyyyyz

= 0

s. @\, … +@\,+ −

. @\], … +@\],+ −]

t . uv vv wK

+K⋮+

1 xyyyz

. 1

K + ⋯ +  +K + 1+ = 0

s. @\, … +@\,+ −

. @\], … +@\],+ −]

t . uv vv wK

+K⋮+

1 xyyyz

= 0

s@\, … @\,+ @\,+/

@\], … @\],+ @\],+/

t s



⋮+

1 t = 0

(33)

Masing-masing dari baris matriks dalam persamaan (2.3) dapat dinyatakan :

AAj, … Aj,+ −C s



⋮+

1 t = 0

Atau dapat ditulis :

Aj,+ ⋯ + Aj,++− = 0, untuk 1 ≤  ≤ U

Jika telah selesai mensubstitusi masing masing baris matriks dalam persamaan (2.3) dengan persamaan (2.4) , diperoleh :

sA, ⋯ A,+

A], ⋯ A],+

t p

⋮+

r = p

⋮+

r

@ = 

Jadi terbukti bahwa @ =  jika @\_ = 0, dan karena transformasi _ merupakan pemetaan satu-satu dan memiliki invers, maka jelas bahwa @ =  jika dan hanya jika @\_ = 0

Untuk menghitung >\ dapat dilakukan sebagai berikut :

>\ = l> , untuk 1 ≤  ≤ ) 0 , untuk  = ) + 1g

Dapat dibuktikan bahwa terdapat >? = 0 jika dan hanya jika terdapat

>\?_ = 0, dimana > ∈ ℝ+ dan >\ ∈ ℝ+/. Hal ini dapat dibuktikan sebagai berikut :

>\?_ = 0 Substitusi nilai >\ dan _ , sehingga dapat ditulis:

A> … +>+ 0C

uv vv vv vv

vw K

K + ⋯ +  +K + 1+

+K⋮+

K + ⋯ +  +K + 1+

K + ⋯ +  1 +K + 1x+ yyyyyyyyz

= 0

(34)

A> … +>+ 0C.

uv vv wK

+K⋮+

1 xyyyz

. 1

K + ⋯ +  +K + 1+ = 0

A> … +>+ 0C.

uv vv wK

+K⋮+

1 xyyyz

= 0

A> … >+ 0C. s



⋮+

1 t = 0

A> … >+C. p

⋮+

r + 0.1 = 0

A> … >+C. p

⋮+

r = 0

>? = 0

Jadi, terbukti bahwa >? = 0 jika >\?_ = 0, dan karena transformasi _ merupakan pemetaan satu-satu dan memiliki invers maka dapat dibuktikan bahwa >? = 0 hanya jika >\?_ = 0

Sedangkan untuk pusat simpleks

∆ , \ = > ) + 1 K = J1 ) + 1K … 1 ) + 1K L? dimana \ ∈ ℝ+/. Hal ini dapat dibuktikan sebagai berikut :

\ = _

_ =

`a b

ac K

K + ⋯ +  +K + 1+ , {)|{} 1 ≤  ≤ )

K + ⋯ +  1 +K + 1+ , {)|{}  = ) + 1 g

Karena 1 ≤  ≤ ), ~K /⋯/~~ ~K~€K /~€ =~K /⋯/~~  €K /~€ , maka dapat disimpulkan bahwa :

_ = 1

K + ⋯ +  +K + 1+ , {)|{} 1 ≤  ≤ ) + 1

(35)

_ = 1

$∑ 1+, % + 1, {)|{} 1 ≤  ≤ ) + 1 _ = 1

) + 1 , {)|{} 1 ≤  ≤ ) + 1 _ = J1 ) + 1K … 1 ) + 1K L? ∈ ℝ+/

Jadi \=  ) + 1 K = J1 ) + 1K … 1 ) + 1K L?

Untuk mengembalikan nilai hasil algoritma karmarkar ke bentuk standar, maka dilakukan transformasi invers _ seperti persamaan (2.2).

2.2.1.4.Algoritma Karmarkar

Untuk menyelesaikan masalah pemrograman linier yang sudah dalam bentuk kanonikal karmarkar

Minimalkan : >?

Dengan batasan :  ∈ Ω ∩ ∆

Maka dilakukan langkah-langkah sebagai berikut : 1) Inisialisasi.

} = 0

 = a

2) Melakukan update

Mencari nilai / = ‚$% dengan cara sebagai berikut :

• Hitung matriks:

ƒ = s … 0

⋮ ⋱ ⋮

0 … +t … = †@ƒ?‡

• Hitung proyektor orthogonal ke ruang … : 2 = ˆ]/− …?…?%"…

• Hitung proyeksi orthonormal dari > ke ruang …:

= 2ƒ>

|2ƒ>|

• Hitung vector arah

(36)

= −Š>̂

, dimana Š = 1Œ‹)) − 1

• Hitung ̅/

/ = a+∝ 

, dimana nilai ∝ adalah nilai langkah yang telah ditetapkan sebelumnya, biasanya dipakai∝= 0,95

• Hitung nilai / dengan menggunakan transformasi invers ‘" :

/ = ‘"$̅/ % = ƒ/

?ƒ/

3) Periksa kriteria berhenti

Jika kondisi >?/ ≤ >? terpenuhi, maka iterasi dihentikan.

4) Iterasi.

} = } + 1 Lalu kembali ke langkah 2

2.2.2. Metode Simpleks

Metode simpleks adalah sebuah cara untuk menyelesaikan masalah optimasi linear, dengan melakukan pengulangan pada pengujian titik-titik sudut hingga menemukan penyelesaian optimal . Algoritme simpleks merupakan prosedur berulang, berarti cara yang sama digunakan di dalam pengujian setiap titik sudut hingga ditemukan penyelesaian optimal, yaitu penyelesaian yang memenuhi seluruh kendala dan menghasilkan nilai tujuan. Dalam model optimasi linear, titik sudut adalah perpotongan antara paling sedikit dua garis kendala.

Selain membentuk titik sudut, juga akan membentuk sebuah daerah fisibel dengan kemungkinan nilai optimal pada seluruh koordinat yang memenuhi kendala- kendala yang ada.

Adapun istilah-istilah yang terdapat dalam algoritme simpleks, yaitu:

1. Variabel Slack

(37)

Variabel slack adalah variabel basis yang berfungsi untuk menampung sisa kapasitas pada kendala yang berupa pembatas.

2. Variabel Surplus

Variabel surplus adalah variabel yang berfungsi untuk menampung kelebihan nilai ruas kiri pada kendala yang berupa syarat. Dalam kasus regresi kuantil menggunakan metode LAD, variabel surplus adalah deviasi bawah yang diboboti dengan 1 − 4 .

3. Variabel Artificial

Variabel artificial adalah variabel yang bernilai positif, berfungsi untuk memulai penyelesaian dan harus dijadikan nol pada solusi akhir. Variabel ini digunakan untuk setiap persamaan yang tidak memiliki variabel basis. Dalam kasus regresi kuantil menggunakan metode LAD variabel artificial adalah deviasi atas yang diboboti dengan 4.

4. Variabel Basis dan Nonbasis

Variabel basis (basic variabel) dan variabel nonbasis (nonbasic variabel) merupakan dua terminologi penting yang akan selalu digunakan di dalam algoritme simpleks. Variabel basis adalah variabel yang bernilai positif, dan variabel nonbasis adalah variabel yang bernilai nol.

Algoritme simpleks memerlukan sebuah tabel simpleks atau yang biasa dikenal dengan tabulasi simpleks pada pengujian suatu titik sudut untuk menentukan apakah variabel keputusan pada titik sudut itu telah menghasilkan nilai tujuan yang optimal. Di dalam tabulasi simpleks menghendaki suatu bangun matematik tertentu agar pengujian titik-titik sudut tersebut bisa dilakukan. Bangun matematik tersebut dikenal sebagai bangun metematik yang sudah tereduksi lengkap, di dalam bangun tersebut terdapat sebuah bangun matriks simetri di mana elemen-elemen diagonalnya bernilai “+1” yang disebut sebagai matriks identitas. Untuk membentuk bangun matematik yang sudah tereduksi lengkap membutuhkan peranan kehadiran variabel slack, variabel surplus, dan variabel artificial.

Peranan variabel slack, variabel surplus, dan variabel artificial adalah untuk menampung selisih antara nilai ruas kiri dengan nilai ruas kanan pada kendala

(38)

yang berbentuk pertidaksamaan sehingga dapat diubah menjadi bentuk persamaan yang sesuai dengan bangun matriks identitas. Bangun matriks identitas adalah syarat agar sebuah model matematis optimasi linear dapat dituangkan ke dalam tabulasi simpleks dan selanjutnya diselesaikan. Selain itu bangun matriks identitas juga akan menandai variabel-variabel basis pada setiap koordinat yang diuji.

Tabel awal metode simpleks untuk kasus regresi kuantil:

Cj 0 0 ... 0 4 … 4 1 − 4 … 1 − 4

WB CB VB X1 X2 ... Xn  … +  … +

 / X1 

 +/ X2

⋮ ⋮ ⋮

+ +/ Xn

’= * 

Cj - Zj

Keterangan:

a. Baris Cj diisi dengan koefisien fungsi tujuan.

b. Kolom CB diisi dengan koefisien variabel yang menjadi basis.

c. Kolom VB diisi dengan nama-nama variabel yang menjadi basis (variabel yang menyusun matriks identitas). Dalam hal ini diisi dengan variabel surplus yaitu deviasi atas

d. Kolom WB diisi dengan nilai ruas kanan dari kendala.

e. Baris Zj diisi dengan rumus ’= ∑  , j = 1, …, n.

Berikut ini akan diberikan proses algoritme simpleks, yaitu:

1. Mengubah terlebih dahulu masalah optimasi linear ke bentuk standar, fungsi tujuan dan kendala-kendala diubah ke dalam bentuk persamaan. Seperti yang

(39)

sudah dijelaskan di atas, dengan menambahkan variabel slack, variabel surplus, dan variabel artificial terhadap kendala yang berbentuk pertidaksamaan.

2. Menentukan kolom kunci (variabel masuk), yaitu untuk masalah maksimum memilih “−> yang terbesar, sedangkan untuk masalah minimum memilih

“−> yang terkecil.

3. Menentukan baris kunci (variabel keluar), yaitu dari nilai rasio antara nilai ruas kiri ( ) dengan koefisien kolom kunci, pilih yang terkecil (untuk masalah minimum atau maksimum). Rasio =~”•–• , di mana rasio > 0.

4. Menentukan pivot dari perpotongan antara kolom kunci dan baris kunci yang dinamakan elemen kunci atau elemen penentu iterasi algoritme simpleks dan akan diubah nilainya menjadi 1.

5. Selanjutnya melakukan operasi baris dasar (OBD) berdasarkan pivot untuk baris lainnya, termasuk baris “−> dengan nilai elemen-elemen yang termasuk di dalam kolom kunci dijadikan nol (selain elemen yang dijadikan pivot).

Baris Kunci Baru = Baris kunci Lama Pivot Baris Baru Selain Baris Kunci

= Baris Lama − Unsur Kolom Kunci × Baris Kunci Baru 6. Proses iterasi untuk masalah maksimum berhenti jika semua nilai pada baris

“−>≤0 berarti solusi sudah optimal, apabila masih ada “−>>0 (positif) maka iterasi metode simpleks masih berlanjut. Untuk masalah minimum berhenti jika semua nilai pada baris “−>≥0, apabila masih ada “−><0 (negatif) maka iterasi algoritme simpleks masih berlanjut.

(40)

BAB 3

3.1. Penggunaan Metode Simpleks Untuk Menyelesaikan Regresi Kuantil

Misalkan sebuah persamaan kuantil dengan  = 0,4 untuk memprediksi banyaknya penjualan minuman kaleng yang dipengaruhi oleh stok yang tersedia dan harga per unit. Diberikan data sebagai berikut :

Banyak Penjualan Stok Harga ( dalam Ribuan )

4 1 3

3 2 2

4 3 1

5 4 2

5 5 3

Tabel 3.1.1

Andaikan persamaan prediksi nya adalah :  =  , + ,+ ,

Dimana :

, = titik potong kurva terhadap sumbu Y pada saat kuantil ke-  ,, , = Parameter prediksi dari stok dan harga

Bentuk Umum :

Minimalkan :  ∑|| + 1 −  ∑|| Dengan Kendala :  + −  = 

, ≥ 0 Bentuk Standart :

Minimalkan : 0,4+ 0,4+ 0,4+ 0,4+ 0,4+ 0,6+ 0,6+ 0,6+ 0,6+ 0,6

Dengan Kendala : + + 3 + − = 4 + 2 + 2 + − = 3

HASIL DAN PEMBAHASAN

Gambar

Tabel awal metode simpleks untuk kasus regresi kuantil:

Referensi

Dokumen terkait

[r]

Yang dimaksud dengan penyesuaian diri pada lanjut usia adalah kemampuan orang yang berusia lanjut untuk menghadapi tekanan atau konflik akibat perubahan–perubahan

Dengan memanjatkan puji syukur kepada Allah SWT atas rahmat dan hidayahnya yang diberikan kepada penyusun sehingga skripsi yang berjudul “Pengaruh Elemen-Elemen Ekuitas Merek

Hal ini sesuai dengan kepustakaan yang menyatakan bahwa hordeolum internum merupakan infeksi pada kelenjar Meibom sehingga ia bertumbuh ke arah konjungtiva tarsal dan

PEMERINTAH KOTA BANDAR LAMPUNG DINAS PEKERJAAN UMUM PANITIA PENGADAAN JASA KONSULTANSI.. Jalan Pulau Sebesi Nomor 68

PEMERINTAH KOTA BANDAR LAMPUNG DINAS PEKERJAAN UMUM PANITIA PENGADAAN JASA KONSULTANSI.. Jalan Pulau Sebesi Nomor 68

Gambaran perasaan ibu: jenis perasaan, tingkat perasaan, penyebab perasaan; perilaku menyusui: jenis perilaku pemberian ASI, penyebab perilaku

Tahun 1950 perubahan terhadap Undang-Undang Postspaarbank (stbl N.I tahun 1934 No. Isinya perubahan nama Batavia menjadi Jakarta dan Postpaarbank di Indonesia menjadi