SIMULASI ANALISIS MULTIKOLINIERITAS PADA REGRESI LINIER BERGANDA MENGGUNAKAN
METODE RIDGE BAYESIAN
SKRIPSI oleh : EFFRIHAN 135090500111006
PROGRAM STUDI STATISTIKA JURUSAN MATEMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS BRAWIJAYA
MALANG 2017
i
HALAMAN JUDUL
SIMULASI ANALISIS MULTIKOLINIERITAS PADA REGRESI LINIER BERGANDA MENGGUNAKAN
METODE RIDGE BAYESIAN
SKRIPSI
Sebagai salah satu syarat untuk memeroleh gelar Sarjana Sains dalam bidang Statistika
oleh : EFFRIHAN 135090500111006
PROGRAM STUDI STATISTIKA JURUSAN MATEMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS BRAWIJAYA
MALANG 2017
ii
LEMBAR PENGESAHAN SKRIPSI
SIMULASI ANALISIS MULTIKOLINIERITAS PADA REGRESI LINIER BERGANDA MENGGUNAKAN
METODE RIDGE BAYESIAN
oleh : EFFRIHAN 135090500111006
Setelah dipertahankan di depan Majelis Penguji pada tanggal 11 Juli 2017
dan dinyatakan memenuhi syarat untuk memeroleh gelar Sarjana Sains dalam bidang Statistika
Dosen Pembimbing
Achmad Efendi, S.Si., M.Sc., Ph.D.
NIP. 198102192005011001
Mengetahui,
Ketua Jurusan Matematika Fakultas MIPA Universitas Brawijaya
Ratno Bagus Edy Wibowo, S.Si., M.Si., Ph.D.
NIP. 197509082000031003
iii
LEMBAR PERNYATAAN
Saya yang bertanda tangan di bawah ini:
Nama : Effrihan
NIM : 135090500111006 Jurusan : Matematika Program Studi : Statistika
Judul Skripsi : Simulasi Analisis Multikolinieritas Pada Regresi Linier Berganda Menggunakan Metode Ridge Bayesian
Dengan ini menyatakan bahwa:
1. Isi dari Skripsi yang saya buat adalah benar-benar karya sendiri dan tidak menjiplak karya orang lain, selain nama- nama yang termaktub di isi dan tertulis di daftar pustaka dalam Skripsi ini.
2. Apabila dikemudian hari ternyata Skripsi yang saya tulis terbukti hasil jiplakan, maka saya akan bersedia menanggung segala resiko yang akan saya terima.
Demikian pernyataan ini dibuat dengan segala kesadaran.
Malang, Juli 2017 Yang menyatakan,
Effrihan 135090500111006
iv
SIMULASI ANALISIS MULTIKOLINIERITAS PADA REGRESI LINIER BERGANDA MENGGUNAKAN
METODE RIDGE BAYESIAN ABSTRAK
Suatu kajian atau analisis yang melibatkan satu atau lebih variabel prediktor dan satu variabel respon disebut analisis regresi, dengan tujuan untuk memprediksi nilai rata-rata dari variabel respon dengan nilai variabel prediktor yang telah diketahui. Terdapat beberapa asumsi yang melandasi dalam analisis regresi yaitu non- multikolinieritas, normalitas, non-autokorelasi, dan homoskedastisitas. Banyak kasus tidak terpenuhinya asumsi non- multikolinieritas, sehingga perlu adanya penanganan kasus tersebut.
Salah satu metode yang dapat digunakan dalam pendugaan parameter regresi ridge selain dengan Metode Kuadrat Terkecil (MKT) yaitu dengan metode Bayesian. Pada penelitian ini, metode Bayesian diterapkan pada data simulasi dengan berbagai ukuran sampel dan korelasi. Hasil yang didapatkan berupa penduga parameter, standard error (SE), R2adjusted, dan Kuadrat Tengah Galat (KTG). Berdasarkan hasil simulasi regresi ridge dengan metode Bayesian didapatkan bahwa pendugaan parameter regresi ridge bayesian mempunyai hasil yang serupa dengan MKT. Standard error (SE) penduga regresi ridge bayesian memiliki pola yang sama dengan MKT di mana SE menurun seiring bertambahnya ukuran sampel. Metode Bayesian sangat baik digunakan pada ukuran sampel yang kecil (n=20) karena menghasilkan nilai SE penduga parameter yang kecil. R2adjusted untuk ridge bayesian meningkat dan cenderung semakin stabil seiring bertambahnya ukuran sampel. Sedangkan KTG regresi ridge bayesian yang dihasilkan semakin kecil seiring bertambahnya ukuran sampel.
Kata Kunci : Regresi Ridge Bayesian, Simulasi, Gibbs Sampling, Ridge Trace
v
SIMULATION OF MULTICOLLINEARITY ANALYSIS IN MULTIPLE LINEAR REGRESSION USING RIDGE
BAYESIAN METHOD ABSTRACT
A study or an analysis that involves one or more predictor variables and one response variable is called as regression analysis, which is aimed to predict the average value of the response variable with the predictor variable value. There are several underlying assumptions in regression analysis that are non-multicollinearity, normality, non- autocorrelation, and homoscedasticity. A lot of cases do not meet the assumption of non-multicollinearity, thus there is a need to solve this problem. One of the methods that can be used in estimation of ridge regression parameters beside the Ordinary Least Square (OLS) is Bayesian method. In this study, Bayesian method was applied to simulation data with various sample size and correlation. The results obtained were parameter estimators, standard error (SE), R2adjusted, and Mean Square Error (MSE). Based on the result of simulation of ridge regression using Bayesian method, it was found that the estimation of Bayesian ridge regression parameter had similar result with OLS.
Standard error (SE) Bayesian ridge regression estimators had the same pattern as OLS in which the SE decreased as the sample size increased.
The Bayesian method is best used on small sample sizes (n = 20) because it resulted a low value of the parameter estimator SE. In addition, R2adjusted for Bayesian ridge increased and tended to be more stable as the sample size increased. Meanwhile, Bayesian ridge regression’s MSE obtained was becoming lower as the sample size increased.
Keywords : Bayesian Ridge Regression, Simulation, Gibbs Sampling, Ridge Trace
vi
KATA PENGANTAR
Puji Syukur penulis haturkan kehadirat Allah Yang Maha Esa, karena berkat Rahmat, Taufiq, dan Hidayah-Nya penulis dapat menyelesaikan skripsi yang berjudul Simulasi Analisis Multikolinieritas Pada Regresi Linier Berganda Menggunakan Metode Ridge Bayesian.
Skripsi ini disusun untuk memenuhi salah satu syarat untuk memeroleh gelar Sains dalam bidang Statistika. Dalam penyelesaiaan penulisan skripsi, penulis telah menerima bimbingan dan dukungan dari berbagai pihak, untuk itu penulis ingin menyampaikan ucapan terima kasih kepada :
1. Bapak Achmad Efendi, S.Si., M.Sc., Ph.D., selaku dosen pembimbing skripsi yang telah memberikan waktu, bimbingan, kritik, dan saran dalam penyelesaian skripsi ini.
2. Bapak Samingun Handoyo, S.Si., M.Cs., selaku dosen penguji I yang telah memberikan waktu, bimbingan, kritik, dan saran dalam penyelesaian skripsi ini.
3. Ibu Rahma Fitriani, S.Si., M.Sc., Ph.D., selaku dosen penguji II dan Ketua Program Studi Statistika yang telah memberikan waktu, bimbingan, kritik, dan saran dalam penyelesaian skripsi ini.
4. Bapak Ratno Bagus Edy Wibowo, S.Si., M.Si., Ph.D., selaku Ketua Jurusan Matematika Fakultas Universitas Brawijaya.
5. Keluarga saya yang selalu memberi dukungan secara materil, do’a serta motivasi dalam memeroleh gelar sarjana.
6. Sahabat Statistika 2013, terutama Fariz, Rizki, Anton, Yanti, Bella, Rara, Tata, St, Naila, Aing, Nana, Pipit, Deisi, Husna, Nia, dan Dita.
7. Inti SS 2016 : Galih, Bella, dan Retno.
8. Sahabat dan teman-teman Statistika 2013, seluruh pengurus dan anggota Studio Statistika 2016 yang telah membantu memberikan saran dan kritik.
9. Semua pihak yang telah memberikan motivasi dan membantu dalam penyelesaian skripsi ini.
vii
Penulis mengharapkan kritik serta saran yang membangun karena penulis sadar bahwa penulisan skripsi ini belum baik dan sempurna. Semoga skripsi ini dapat bermanfaat bagi semua pihak.
Malang, Juli 2017
Penulis
viii DAFTAR ISI
Halaman
HALAMAN JUDUL... i
LEMBAR PENGESAHAN SKRIPSI ... ii
LEMBAR PERNYATAAN ... iii
ABSTRAK ... iv
ABSTRACT ... v
KATA PENGANTAR ... vi
DAFTAR ISI ... viii
DAFTAR GAMBAR ... x
DAFTAR TABEL ... xi
DAFTAR LAMPIRAN ... xii
BAB I PENDAHULUAN ... 1
1.1. Latar Belakang ... 1
1.2. Rumusan Masalah ... 2
1.3. Tujuan Penelitian ... 2
1.4. Batasan Masalah ... 2
1.5. Manfaat Penelitian ... 3
BAB II TINJAUAN PUSTAKA ... 5
2.1. Analisis Regresi Linier Berganda ... 5
2.2. Pendugaan Parameter Regresi Linier Berganda ... 5
2.3. Asumsi Regresi Linier Berganda ... 7
2.3.1. Normalitas Galat ... 7
2.3.2. Uji Keacakan Variabel ... 8
2.3.3. Multikolinieritas ... 9
2.4. Regresi Ridge ... 11
2.5. Metode Penduga Bayesian ... 14
2.5.1. Prior dan Posterior ... 15
2.5.2. Markov Chain Monte Carlo (MCMC) ... 16
2.6. Kriteria Pendugaan Parameter dan Model Regresi ... 19
2.6.1. Standard Error Penduga Parameter Regresi ... 19
2.6.2. R2 adjusted Model Regresi ... 19
2.6.3. Kuadrat Tengah Galat Model Regresi ... 20
BAB III METODE PENELITIAN ... 23
3.1. Sumber Data ... 23
3.2. Alur Pembangkitan Data ... 24
ix
Halaman
3.3. Metode Analisis ... 25
3.4. Diagram Alir ... 27
BAB IV HASIL DAN PEMBAHASAN ... 29
4.1. Proses Simulasi ... 29
4.2. Hasil Simulasi Data 1 ... 30
4.2.1. Penduga Parameter Pada Simulasi Data 1 ... 30
4.2.2. Standard Error Penduga Parameter Pada Simulasi Data 1 ... 32
4.2.3. R2adjusted dan KTG Model Regresi Ridge Pada Simulasi Data 1 ... 34
4.3. Hasil Simulasi Data 2 ... 36
4.3.1. Penduga Parameter Pada Simulasi Data 2 ... 36
4.3.2. Standard Error Penduga Parameter Pada Simulasi Data 2 ... 38
4.3.3. R2adjusted dan KTG Model Regresi Ridge Pada Simulasi Data 2 ... 40
4.4. Hasil Simulasi Data 3 ... 42
4.4.1. Penduga Parameter Pada Simulasi Data 3 ... 42
4.4.2. Standard Error Penduga Parameter Pada Simulasi Data 3 ... 44
4.4.3. R2adjusted dan KTG Model Regresi Ridge Pada Simulasi Data 3 ... 46
4.5. Tetapan Bias (c) Pada Simulasi Data 1, 2, dan 3 ... 48
BAB V KESIMPULAN DAN SARAN ... 51
5.1. Kesimpulan ... 51
5.2. Saran... 51
DAFTAR PUSTAKA ... 53
LAMPIRAN ... 55
x
DAFTAR GAMBAR
Halaman
Gambar 2.1. Plot Tetapan Bias (c) Terhadap VIF ... 13
Gambar 2.2. Ridge Trace dengan Berbagai Tetapan Bias (c) ... 14
Gambar 3.1. Diagram Alir Pembangkitan dan Analisis Data ... 27
Gambar 4.1. Plot Penduga Parameter Pada Simulasi Data 1... 31
Gambar 4.2. Plot Standard Error Penduga Parameter Pada Simulasi Data 1... 33
Gambar 4.3. Plot R2adjusted Model Regresi Ridge Pada Simulasi Data 1 ... 35
Gambar 4.4. Plot Kuadrat Tengah Galat (KTG) Model Regresi Ridge Pada Simulasi Data 1 ... 36
Gambar 4.5. Plot Penduga Parameter Pada Simulasi Data 2... 37
Gambar 4.6. Plot Standard Error Penduga Parameter Pada Simulasi Data 2... 39
Gambar 4.7. Plot R2adjusted Model Regresi Ridge Pada Simulasi Data 2 ... 41
Gambar 4.8. Plot Kuadrat Tengah Galat (KTG) Model Regresi Ridge Pada Simulasi Data 2 ... 42
Gambar 4.9. Plot Penduga Parameter Pada Simulasi Data 3... 43
Gambar 4.10. Plot Standard Error Penduga Parameter Pada Simulasi Data 3... 45
Gambar 4.11. Plot R2adjusted Model Regresi Ridge Pada Simulasi Data 3 ... 47
Gambar 4.12. Plot Kuadrat Tengah Galat (KTG) Model Regresi Ridge Pada Simulasi Data 3 ... 48
Gambar 4.13. Plot Tetapan Bias (c) ... 49
xi
DAFTAR TABEL
Halaman
Tabel 2.1. Dampak Peningkatan r Terhadap VIF ... 11
Tabel 3.1. Variabel Bangkitan Beserta Parameter ... 23
Tabel 3.2. Hubungan Variabel Prediktor ... 24
Tabel 4.1. Ukuran Sampel, Koefisien Korelasi, dan Sebaran ... 29
Tabel 4.2. Penduga Parameter Regresi Pada Data 1 ... 30
Tabel 4.3. Standard Error Penduga Parameter Pada Data 1 ... 32
Tabel 4.4. R2adjusted dan KTG Model Regresi Ridge Pada Data 1 ... 35
Tabel 4.5. Penduga Parameter Regresi Pada Data 2 ... 36
Tabel 4.6. Standard Error Penduga Parameter Pada Data 2 ... 38
Tabel 4.7. R2adjusted dan KTG Model Regresi Ridge Pada Data 2 ... 41
Tabel 4.8. Penduga Parameter Regresi Pada Data 3 ... 42
Tabel 4.9. Standard Error Penduga Parameter Pada Data 3 ... 44
Tabel 4.10. R2adjusted dan KTG Model Regresi Ridge Pada Data 3 ... 47
Tabel 4.11. Nilai Tetapan Bias (c) ... 48
xii
DAFTAR LAMPIRAN
Halaman Lampiran 1. Syntax Utama Regresi Ridge MKT dan Bayesian .... 55 Lampiran 2. Syntax Pembangkitan Data ... 57 Lampiran 3. Syntax Regresi Ridge dengan MKT ... 58 Lampiran 4. Syntax Regresi Ridge dengan Metode Bayesian ... 60 Lampiran 5. Hasil dan Plot Penduga Parameter Regresi Ridge
Pada Data 1 ... 62 Lampiran 6. Hasil dan Plot SE Penduga Parameter Regresi Ridge
Pada Data 1 ... 63 Lampiran 7. Hasil dan Plot Penduga Parameter Regresi Ridge
Pada Data 2 ... 64 Lampiran 8. Hasil dan Plot SE Penduga Parameter Regresi Ridge
Pada Data 2 ... 65 Lampiran 9. Hasil dan Plot Penduga Parameter Regresi Ridge
Pada Data 3 ... 66 Lampiran 10. Hasil dan Plot SE Penduga Parameter Regresi Ridge
Pada Data 3 ... 67 Lampiran 11. Konvergensi Regresi Ridge Metode Bayesian untuk
n = 20, r = 0.90 ... 68 Lampiran 12. Konvergensi Regresi Ridge Metode Bayesian untuk
n = 50, r = 0.90 ... 71 Lampiran 13. Konvergensi Regresi Ridge Metode Bayesian untuk
n = 100, r = 0.90 ... 74 Lampiran 14. Konvergensi Regresi Ridge Metode Bayesian untuk
n = 200, r = 0.90 ... 77
1 BAB I
PENDAHULUAN 1.1. Latar Belakang
Suatu kajian atau analisis yang melibatkan satu atau lebih variabel prediktor dan satu variabel respon disebut analisis regresi.
Terdapat beberapa metode pendugaan parameter dalam analisis regresi seperti Metode Kuadrat Terkecil (MKT) dan Maximum Likelihood Estimator (MLE). Sebelum analisis regresi dapat digunakan, terdapat asumsi yang harus terpenuhi dalam analisis regresi yaitu asumsi non-multikolinieritas, normalitas, non- autokorelasi, dan homoskedastisitas.
Salah satu asumsi yang sering terlanggar dalam analisis regresi linier berganda yaitu non-multikolinieritas. Kasus multikolinieritas terjadi karena terdapat hubungan antar dua variabel atau lebih yang mempunyai korelasi. Kasus multikolinieritas menyebabkan tingginya bias dalam pendugaan parameter sehingga nilai galat pada model semakin besar. Oleh karena itu diperlukan penanganan kasus multikolinieritas. Multikolinieritas dapat ditangani dengan beberapa model, salah satu model yang dapat digunakan yaitu regresi ridge.
Regresi ridge diperkenalkan pertama kali oleh Hoerl dan Kennard pada tahun 1970 di mana regresi ridge memberikan tetapan bias yang relatif kecil serta memberikan keragaman yang minimum dibandingkan analisis regresi. Pendugaan parameter regresi ridge dapat dilakukan dengan MKT yang telah dimodifikasi dengan penambahan tetapan bias (c), namun saat ini sudah banyak pendugaan parameter regresi ridge yang dapat digunakan seperti metode Bayesian.
Pendugaan parameter dengan metode Bayesian membutuhkan informasi awal (prior) dan informasi data sampel, kedua informasi tersebut akan digabungkan untuk membentuk distribusi posterior.
Dalam pengerjaannya, pendugaan parameter dengan metode Bayesian sangatlah rumit sehingga dilakukan pendekatan menggunakan Markov Chain Monte Carlo (MCMC) dengan algoritma Gibbs Sampling. Pada penelitian sebelumnya yang dilakukan oleh Abidin (2015) menyatakan bahwa metode Bayesian merupakan metode terbaik dalam pendugaan parameter karena menghasilkan Kuadrat Tengah Galat (KTG) lebih kecil dibanding MKT sehingga metode Bayesian dapat menjadi alternatif lain dalam menduga parameter regresi ridge.
Berdasarkan uraian di atas, pada penelitian ini dilakukan pendugaan
2
parameter regresi ridge menggunakan data bangkitan untuk mengetahui kriteria penduga dan model regresi ridge menggunakan MKT dan metode Bayesian dengan ukuran sampel dan koefisien korelasi yang berbeda.
1.2. Rumusan Masalah
Berdasarkan penjelasan latar belakang, dasar permasalahan dari penelitian ini yaitu :
1. Bagaimana proses pembangkitan data model regresi linier berganda dengan multikolinieritas ?
2. Bagaimana melakukan pendugaan parameter pada regresi ridge dengan menggunakan MKT dan Bayesian ?
3. Apakah hasil pendugaan parameter dan model regresi ridge dengan metode Bayesian sama baiknya dengan MKT ?
1.3. Tujuan Penelitian
Adapun tujuan dari penelitian ini yaitu :
1. Membangkitkan data model regresi linier berganda dengan multikolinieritas.
2. Melakukan pendugaan parameter regresi ridge dengan MKT dan Bayesian.
3. Mengetahui kriteria kebaikan penduga parameter dan model regresi ridge dengan MKT dan Bayesian.
1.4. Batasan Masalah
Batasan masalah pada penelitian ini yaitu :
1. Asusmi klasik regresi yaitu normalitas, homoskedastisitas, serta non-autokorelasi terpenuhi namun asumsi non-multikoliniertas tidak terpenuhi.
2. Data dibangkitkan dengan ukuran sampel sebesar 20, 50, 100, dan 200.
3. Kriteria kebaikan penduga parameter regresi ridge menggunakan nilai standard error (SE) sedangkan untuk kriteria kebaikan model menggunakan R2adjusted dan Kuadrat Tengah Galat (KTG).
4. Koefisien korelasi dalam pembangkitan data untuk simulasi regresi ridge bernilai positif.
3 1.5. Manfaat Penelitian
Adapun manfaat yang dapat diperoleh dari penelitian ini yaitu : 1. Memberikan informasi mengenai simulasi pada regresi ridge.
2. Memberikan informasi mengenai metode pendugaan parameter regresi ridge dapat diduga dengan metode Bayesian.
5 BAB II
TINJAUAN PUSTAKA 2.1. Analisis Regresi Linier Berganda
Analisis regresi merupakan hubungan ketergantungan variabel respon terhadap satu atau lebih variabel prediktor. Tujuan dari analisis regresi yaitu untuk memprediksi atau memperkirakan nilai rata-rata dari variabel respon dengan nilai variabel prediktor yang telah diketahui (Gujarati, 2010). Terdapat dua jenis regresi linier yaitu regresi linier sederhana dan regresi linier berganda. Analisis regresi linier berganda merupakan suatu analisis yang memperlihatkan hubungan antara satu variabel respon dengan lebih dari satu variabel prediktor. Bentuk model regresi linier berganda yaitu sebagai berikut :
0 1 1 2 2 1 1,
i i i p p i i
Y   X  X    X   (2.1) di mana :
Yi : Variabel respon pada pengamatan ke-i
0 : Intersep model regresi
1, 2, 3, , p1
     : Penduga parameter model regresi
1i, 2i, 3i, , p-1,i
X X X X : Variabel prediktor pada pengamatan ke-i
i : Galat pada pengamatan ke-i
p : Banyaknya parameter model regresi
i : 1, 2, ……, n
n : Ukuran sampel
2.2. Pendugaan Parameter Regresi Linier Berganda
Terdapat beberapa metode dalam mengestimasi parameter regresi linier berganda seperti Metode Kuadrat Terkecil (MKT) dan Maximum Likelihood Estimator (MLE). Pendugaan parameter model regresi linier berganda untuk populasi tidak dapat diestimasi secara langsung sehingga dapat diestimasi dengan regresi linier berganda untuk sampel dengan bentuk sebagai berikut :
0 1 1 2 2 1 1,
ˆ ˆ ˆ ˆ
ˆ
i i i p p i
Y   X  X    X  (2.2) Tujuan dari MKT yaitu meminimumkan Jumlah Kuadrat Galat (JKG). Pendugaan parameter dengan MKT dapat diuraikan sebagai berikut :
6
0 1 1 2 2 1 1,
ˆ ˆ ˆ ˆ
ˆ
i i i p p i
Y   X  X   X  (2.3) ˆi Yi Yˆi
  
(2.4)
0 1 1 2 2 1 1,
ˆ ˆ ˆ ˆ
ˆi Yi ( Xi X i p Xp i)
         
(2.5)
0 1 1 2 2 1 1,
ˆ ˆ ˆ ˆ
ˆi Yi Xi X i p Xp i
         (2.6)
2 1
JKG ˆ
n
i i
(2.7)
2
0 1 1 2 2 1 1,
1
ˆ ˆ ˆ ˆ
JKG ( )
n
i i i p p i
i
Y   X  X   X 
     (2.8) di mana :ˆi
Y : Penduga variabel respon pada pengamatan ke-i
ˆ
i
: Penduga galat pada pengamatan ke-iNilai JKG dapat diperoleh melalui perhitungan matriks, dengan membentuk persamaan (2.1) menjadi notasi matriks sebagai berikut :
Y = Xβε (2.9)
0
1 11 12 1 1
2 1
2 21 22 2
1 2
1 1
1
p
p
np p
n n
n n
X
Y X X
Y X X X
X X X Y
 
 
 
 
 
   
 
 
   
 
 
    
   
 
 
   
      
      
di mana :
Y : Vektor variabel respon berukuran (n × 1) X : Matriks variabel prediktor berukuran (n × p) β : Vektor parameter berukuran (p × 1)
ε : Vektor galat berukuran (n × 1)
JKG dapat ditulis dalam bentuk notasi matriks sebagai berikut : JKG = (ε'ε) (2.10)
= (YXβ) '(Y Xβ )
= Y Y' β X Y Y Xβ β X Xβ' '  '  ' '
= Y Y' 2β X Y' ' β X Xβ' ' (2.11) sesuai dengan tujuan MKT yaitu meminimumkan JKG, sehingga dilakukan penurunan JKG secara parsial terhadap β dan disamadengankan nol menjadi :
7 (
 
) 0
 ε'ε
β (2.12)
( ' ' '
 
' ' )   0
Y Y 2β X Y β X Xβ β
(2.13)
2 ' 2 ' ˆ 0
 X Y + X Xβ
:2
2X Xβ' ˆ2X Y' ' ˆ ' X Xβ X Y
ˆ( ' ) (1 ' )
β X X X Y (2.14)
di mana :
ˆβ : Vektor penduga parameter berukuran (p × 1) '
X : Transpose matriks X berukuran (p × n) ( ' )X X 1 : Invers matriks (X’X) berukuran (p × p) 2.3. Asumsi Regresi Linier Berganda
Terdapat asumsi yang melandasi dalam regresi linier berganda yaitu non-multikolinieritas, kenormalan galat, non-autokorelasi, dan homoskedastisitas.
2.3.1. Normalitas Galat
Asumsi normalitas merupakan asumsi yang harus terpenuhi dalam analisis regresi. Pelanggaran pada asumsi normalitas terjadi karena sisaan yang dihasilkan tidak berasal dari distribusi normal dan terdapat pencilan. Distribusi normal yang harus terpenuhi dalam sisaan yaitu dengan nilai rata-rata nol dan ragam bernilai σ2, diharapkan sisaan yang dihasilkan bernilai kecil sehingga akan menghasilkan nilai bias pada pendugaan parameter yang kecil (Sembiring, 2003). Pengujian asumsi normalitas galat dapat menggunakan uji Kolgomorov-Smirnov. Uji Kolgomorov-Smirnov terpusat pada penyimpangan terbesar, di mana harga F0(ε) – SN(ε) terbesar dinamakan deviasi maksimum, hipotesis uji Kolgomorov- Smirnov sebagai berikut :
H0 : ε ~ NIID(0, σ2) lawan
H1 : ε≁ NIID(0, σ2) Statistik uji :
D = Sup F ( )-S ( )0 n
  
(2.15)
8
di mana :
F ( )0  : Fungsi distribusi kumulatif yang telah ditentukan.
S ( )N  : Distribusi frekuensi kumulatif dari suatu sampel random dengan n observasi.
Apabila statistik D ≤ Dα maka memberikan keputusan untuk menerima H0 yang berarti sisaan model regresi berdistribusi normal sebaliknya jika statistik D > Dα maka memberikan keputusan menolak H0 yang berarti sisaan model regresi tidak berdistribusi normal.
(Daniel,1989) 2.3.2. Uji Keacakan Variabel
Data yang dibangkitkan harus bersifat acak. Untuk mengecek keacakan variabel dapat dilakukan menggunakan run test. Berikut hipotesis run test :
Hipotesis :
H0 : Variabel bersifat acak lawan
H1 : Variabel bersifat tidak acak Statistik uji :
R
R
Z R 
  ~ N(0,1) (2.16)
1 2
1 2
ˆR 2n n
n n
 
 (2.17)
2 1 2 1 2 1 2
2
1 2 1 2
2 (2 )
ˆR ( ) ( 1)
n n n n n n
n n n n
   
   (2.18)
di mana :
R : Banyaknya kelompok variabel yang bertanda negatif dan positif
n1 : Banyaknya nilai variabel bertanda positif n2 : Banyaknya nilai variabel bertanda negatif n1+ n2 : Total pengamatan bertanda positif dan negatif
Keputusan yang dihasilkan yaitu jika Z Z maka H0 diterima yang berarti bahwa variabel bersifat acak.
(Mendenhall, 2008)
9 2.3.3. Multikolinieritas
Multikolinieritas diperkenalkan pertama kali oleh Ragnar Fisch yang berarti adanya hubungan linier yang sempurna atau tepat di antara sebagian atau seluruh variabel prediktor pada model regresi (Gujarati, 2010). Beberapa konsekuensi adanya multikolinieritas yaitu sebagai berikut :
1. Walaupun BLUE (Best Linier Unbias Estimator) tetapi penduga parameter MKT memiliki ragam dan peragam yang besar sehingga membuat estimasi yang kurang akurat.
2. Akibat konsekuensi 1 membuat selang kepercayaan penduga parameter menjadi lebar.
3. Statistik uji t dari satu atau lebih koefisien akan cenderung tidak signifikan.
4. Walaupun statistik uji t cenderung tidak signifikan, nilai R2 keseluruhan bisa saja bernilai tinggi.
5. Estimator MKT dan standard error bersifat sensitif terhadap perubahan yang kecil pada data.
Ada beberapa metode dalam pendeteksian multikolinieritas salah satunya adalah VIF (Variance Inflation Factor). Kecepatan dari meningkatnya ragam dan peragam dilihat dengan VIF. VIF menunjukkan ragam dari sebuah penduga ditingkatkan oleh keberadaan multikolinieritas, dengan nilai R2j mendekati 1 maka nilai VIF mendekati tak hingga (Gujarati, 2010). Berikut merupakan pendeteksian multikolinieritas menggunakan VIF :
2
VIF 1
(1 R )
j
j
  , j = 1, 2, 3, ..., k (2.19) di mana :
VIFj : Nilai Variance Inflation Factor (VIF) pada variabel prediktor ke-j.
R2j : Koefisien determinasi auxiliary regression, yaitu regresi Xjsebagai variabel respon terhadap (k-1) variabel prediktor lain.
k : Banyaknya variabel prediktor.
Kriteria pengambilan keputusan yaitu apabila nilai VIF ≥ 10 maka dapat diambil keputusan yaitu terdapat kasus multikolinieritas antar variabel prediktor.
Terdapat hubungan nilai VIF dengan korelasi, di mana semakin meningkatnya koefisien korelasi maka akan meningkatkan nilai VIF.
10
Menurut Pramoedyo (2013) koefisien korelasi merupakan nilai yang menggambarkan tingkat keeratan hubungan antara 2 variabel atau lebih. Koefisien korelasi dinotasikan r yang bernilai -1 sampai +1 yang mempunyai makna yaitu :
1. Jika nilai r mendekati nilai +1 maka dapat dikatakan terdapat hubungan antar variabel yang sangat kuat dan memiliki hubungan positif.
2. Jika nilai r mendekati nilai 0 maka dapat dikatakan tidak terdapat hubungan antar variabel.
3. Jika nilai r mendekati nilai -1 maka dapat dikatakan terdapat hubungan variabel yang sangat kuat dan memiliki hubungan negatif.
Hipotesis :
H0 :ij= 0 (tidak terdapat kasus korelasi) lawan
H1 :ij≠ 0 (terdapat kasus korelasi) Statistik uji :
  
   
  
   
1
1
2 2 2 2
1 1 1 1
1
1 1
n
i i n
i i i
i
n n n n
i i i i
i i i i
X X Y Y
X X Y Y
r n
X X Y Y X X Y Y
n n
   
 
 
  
   
 
 
   
(2.20) di mana :
r : Nilai koefisien korelasi
Xi : Nilai variabel X pada pengamatan ke-i Yi : Nilai variabel Y pada pengamatan ke-i
X : Rata-rata variabel X Y : Rata-rata variabel Y
akan menghasilkan keputusan menerima H0 apabila r bernilai 0, maka dapat dikatakan bahwa antar variabel tidak terdapat hubungan keeratan.
Berikut merupakan seberapa erat hubungan peningkatan koefisien korelasi terhadap VIF (Gujarati, 2010).
11 Tabel 2.1. Dampak peningkatan r terhadap VIF
r VIF
0,00 1,00
0,50 1,33
0,70 1,96
0,80 2,78
0,90 5,76
0,95 10,26
0,97 16,92
0,99 50,25
0,995 100,00
0,999 500,00
Pada Tabel 2.1 dapat diketahui bahwa kasus multikolinieritas terjadi ketika korelasi antar variabel prediktor lebih dari 0,95 yang menghasilkan nilai VIF ≥ 10. Kasus multikolinieritas dapat diatasi dengan berbagai cara salah satunya adalah dengan model regresi
ridge.
2.4. Regresi Ridge
Regresi ridge diperkenalkan oleh A. E. Hoerl dan R. W.
Kennard pada tahun 1970. Ridge mempunyai kegunaan untuk mengatasi kondisi buruk yang diakibatkan dari tingkat korelasi yang tinggi antar beberapa peubah prediktor dalam model regresi sehingga menghasilkan matriks X’X yang hampir singular dan akan menghasilkan penduga parameter model regresi yang tidak stabil (Draper dan Smith, 1992). Regresi ridge dapat mengurangi multikolinieritas karena terdapat tetapan bias (c) yang dapat memperkecil ragam penduga dibandingkan ragam penduga pada regresi linier berganda. Estimasi regresi ridge dapat diperoleh dari modifikasi persamaan regresi linier berganda. Data yang digunakan pada regresi ridge merupakan data yang telah distandarisasi.
Standarisasi data dapat dilakukan dengan persamaan sebagai berikut : 1
1
ik k
ik
k
X X
Z n s
  
  
  , i=1, 2, .., n dan k=1, 2, ..., p-1 (2.21) di mana :
Zik : Hasil standarisasi data pada pengamatan ke-i pada variabel prediktor ke-k
Xik : Data pengamatan ke-i pada variabel prediktor ke-k
12
X k : Rata-rata variabel prediktor ke-k sk : Simpangan baku variabel prediktor ke-k
sehingga bentuk dari model regresi ridge adalah sebagai berikut :
1 1 2 2 3 3 1 1
ˆ ˆ ˆ ˆ
ˆ* ....
R R R Rp p
Y  Z  Z  Z   Z 
(2.22) di mana :
1
ˆ
Rp
  : Penduga parameter regresi ridge
1
Zp : Variabel prediktor yang telah distandarisasi
Model regresi ridge dapat dibuat dalam bentuk matriks dengan tujuan meminimumkan jumlah kuadrat sisaan pada model :
ˆ ˆ
* R
Y Zβ ε
(2.23)
ˆ * ˆR
ε Y Zβ
(2.24)
dengan metode pengali Lagrange dapat meminimumkan fungsi :
ˆ ˆ
ˆ ˆ' ( * R) '( * R)
ε ε Y Zβ Y Zβ (2.25)
dengan syarat kendala yaitu : ˆ ˆR' R= q2
β β (2.26)
ˆ ˆR' R- q20 β β
sehingga,
2
2
2
2
ˆ ˆ ˆ ˆ
F ( * ) '( * ) c( ' - q )
ˆ ˆ ˆ ˆ ˆ ˆ
F * ' * * ' ' ' * ' ' c( ' - q )
ˆ ˆ ˆ ˆ ˆ
F * ' * 2 ' ' * ' ' c( ' - q )
ˆ ˆ ˆ ˆ ˆ
F * ' * 2 ' ' * ' ' c ' - cq )
ˆ ˆ
2 ' * 2 ' 2c '
ˆ F
   
    
   
   
    
R R R R
R R R R R R
R R R R R
R R R R R
R R
R
Y Zβ Y Zβ β β
Y Y Y Zβ β Z Y β Z Zβ β β
Y Y β Z Y β Z Zβ β β
Y Y β Z Y β Z Zβ β β
Z Y Z Zβ β
β
ˆR 0 β
:2
ˆ ˆ
2 ' * 2 ' 2c 0
ˆ ˆ
2 ' 2c 2 ' *
ˆ ˆ
' c ' *
( ' c )ˆ ' *
   
 
 
 
R R
R R
R R
R
Z Y Z Zβ Iβ
Z Zβ Iβ Z Y
Z Zβ Iβ Z Y
Z Z I β Z Y
ˆR( ' c )1 ' *
β Z Z I Z Y (2.27) maka persamaan penduga parameter regresi ridge dengan tetapan bias (c) dapat ditulis sebagai berikut :
13 ˆ (c) ( 'R  c ) ( ' *)1
β Z Z I Z Y , 0 ≤c≤ 1 (2.28) di mana :
ˆR
β : Vektor parameter regresi ridge dengan ukuran (p-1 × 1) c : Tetapan bias
Z : Matriks variabel prediktor hasil standarisasi berukuran (n × p-1)
I : Matriks identitas yang berukuran (p-1 × p-1)
*
Y : Vektor variabel respon hasil standarisasi berukuran (n × 1) Cara untuk memilih tetapan bias (c) yang tepat adalah dengan melihat penurunan nilai VIF pada plot nilai VIF terhadap tetapan bias (c), di mana tetapan bias yang dipilih ketika nilai VIF pada semua prediktor memiliki nilai VIF ≤ 1. Berikut merupakan persamaan untuk mendapatkan nilai c yang tepat.
-1 -1
(c) c c
VIF = (Z'Z + I) (Z'Z)(Z'Z + I) (2.29) Tetapan bias (c) yang telah didapatkan akan digunakan dalam pendugaan parameter regresi ridge. Ridge trace merupakan plot antara penduga parameter regresi ridge dengan berbagai kemungkinan tetapan bias (c). Nilai c memperlihatkan besarnya bias dalam pendugaan parameter regresi. Apabila nilai c=0 maka ˆβ (c) sama R dengan penduga ˆβ menggunakan MKT. Berikut merupakan contoh plot nilai VIF terhadap tetapan bias (c) dan ridge trace dengan berbagai tetapan bias (c).
Gambar 2.1. Plot tetapan bias (c) terhadap VIF
14
Gambar 2.2. Ridge trace dengan berbagai tetapan bias (c) Setelah didapatkan penduga regresi ridge ( ˆβ ), penduga regresi R ridge dikembalikan menjadi bentuk model regresi awal untuk mendapatkan parameter regresi yang telah bebas dari multikolinieritas
dengan persamaan sebagai berikut:
ˆ ˆ
j Y
j R
j
s
  s  , j = 1, 2, …, p-1 (2.30)
1 2 1
0 1 2 1
ˆ ˆ ˆ ˆ
R R Rp p
Y X X X
       
(2.31) di mana :
sj : Simpangan baku variabel prediktor ke-k sy : Simpangan baku variabel respon
1
Xp : Rata-rata variabel prediktor ke- (p-1) 2.5. Metode Penduga Bayesian
Metode Bayesian merupakan metode untuk pendugaan parameter menggunakan peluang distribusi data. Konsep dasar metode Bayesian yaitu penggunaan peluang untuk mengukur ketidakpastian suatu pendugaan (Gelman dkk, 2004). Menurut Periera (1999) menyatakan bahwa metode Bayesian dapat menduga parameter lebih baik dibandingkan dengan metode klasik karena metode klasik hanya berdasarkan informasi data sampel sedangkan metode Bayesian tidak hanya berdasarkan informasi data sampel tetapi juga terdapat informasi melalui distribusi prior. Pendugaan parameter menggunakan metode Bayesian cukup sulit untuk dilakukan secara manual sehingga dilakukan dengan cara menerapkan teknik simulasi
15 Markov Chain Monte Carlo (MCMC). Salah satu algoritma pada MCMC yang dapat digunakan yaitu algoritma Gibbs Sampling.
2.5.1. Prior dan Posterior
Menurut Box dan Tiao (1973), distribusi prior dapat dibedakan menjadi dua jenis, yaitu:
1. Conjugate dan non-conjugate
Yaitu distribusi prior yang bergantung pada pola likelihood data.
2. Informatif dan non-informatif
Yaitu distribusi prior yang berdasarkan apakah terdapat informasi yang didapatkan, pemberian nilai parameter didasarkan pada informasi yang diperoleh.
Terdapat jenis prior yang lainnya yaitu pseudo prior di mana pemberian nilai parameter pseudo prior disetarakan dengan hasil elaborasi dari frequentist (regresi dengan OLS).
Distribusi bersyarat pada metode Bayesian menggunakan fungsi likelihood L θ
 
 (x|θ)f , sehingga dapat dikatakan metode Bayesian merupakan penggabungan antara fungsi likelihood dengan distribusi prior. Menurut Congdon (2003), hasil posterior pertama dapat digunakan sebagai distribusi prior yang baru jika dilakukan penelitian selanjutnya. Secara umum, distribusi posterior memiliki bentuk seperti berikut :     
     
|
f f
f f f
 Y θf θ 
θ | Y Y | θ θ
Y (2.32)
di mana : ( | )
f θ Y : Distribusi Posterior ( | )
f Y θ : Fungsi Likelihood ( )
f θ : Distribusi Prior
Dasar dalam pembentukan Maximum Likelihood yaitu memutuskan fungsi kepekatan dari data untuk sampel nyata. Sebagai contoh variabel acak    1, 2,....,n dengan fungsi kepekatan yaitu
({ , })
f   di mana parameterθ( , 1 2,....,p). Prinsip utama Maximum Likelihood dijadikan acuan dalam memilih nilai  yang bertujuan untuk memaksimalkan fungsi likelihood. Bentuk fungsi likelihood model regresi ridge pada data berdistribusi normal sama dengan fungsi likelihood model regresi linier pada data berdistribusi
16
normal, sehingga fungsi likelihood untuk data berdistribusi normal pada regresi ridge adalah sebagai berikut :
     
2
2
( * | , ) exp 1 * *
2
f   n
  
    
 
R R R
Y Z,β Y Zβ ' Y Zβ (2.33)
Fungsi prior yang digunakan dalam penelitian ini yaitu prior conjugate berdistribusi normal. Nilai pada setiap parameter distribusi normal didapatkan dengan menggunakan pseudo prior, sehingga fungsi prior dapat ditulis sebagai berikut :
2  
2 
2 
2 1 2| exp 1 exp
2 2
k a b
f  f   c 
 
      
    
R R R
β β 'β
(2.34) maka distribusi posterior dapat ditulis sebagai berikut :
, 2| *
( *| , 2)
| 2  
2f βR  Y , Ζ  f Y Z,βR  f βR  f 
 
2   
exp 1 * *
2
 n
  Y ZβR ' Y ZβR 
 
2 
2 1 2exp 1 exp
2 2
k a b
 c 
 
  β 'βR R     (2.35) di mana :
( *| , 2)
f Y Z,βR  : Fungsi Likelihood
| 2  
2f βR  f  : Distribusi prior conjugate
, 2| *
f βR  Y , Ζ : Distribusi Posterior
2
| 2 ~N 0, c
   
 
βR I
2~ Invers Gamma (a,b)
(Wieringen, 2015) Distribusi posterior dibentuk melalui perkalian distribusi prior dan fungsi likelihood, tetapi dalam pembentukan posterior secara analitik sangatlah rumit sehingga dibutuhkan suatu teknik simulasi yaitu Markov Chain Monte Carlo (MCMC).
2.5.2. Markov Chain Monte Carlo (MCMC)
Teknik MCMC dapat digunakan pada model yang sangat rumit dan memperkirakan distribusi posterior secara tepat. MCMC merupakan metode untuk membangkitkan sampel acak dari distribusi peluang dengan membentuk rantai Markov sesuai distribusi yang
17 diinginkan. MCMC merupakan prosedur iterasi di mana setiap langkah iterasi yang dihasilkan selalu tergantung pada hasil iterasi sebelumnya. Rantai Markov merupakan proses stokastik
(1) (2) (3) ( )
{θ θ, ,θ ,....,θT }yang dapat ditulis dengan persamaan :
( 1) ( ) (1) ( 1) ( )
( t | t,..., ( t | t )
f θ  θ θ  f θ  θ (2.36)
dalam membangkitkan sampel dari f θ y( | )sebaiknya membentuk rantai Markov dengan 2 sifat yang diinginkan yaitu f(θ(t1)|θ( )t ) mudah untuk dibangkitkan dan kesetimbangan distribusi pada rantai Markov agar menjadi distibusi posterior dari ( | )f θ y . Berdasarkan sifat di atas langkah pembangkitan menggunakan rantai Markov pada regresi ridge adalah sebagai berikut :
1. Menentukan nilai awal(βR,2 0)
2. Membangkitkan sampel sebanyak T hingga keseimbangan distribusi tercapai.
3. Memeriksa konvergensi, apabila tidak konvergen maka harus membangkitkan kembali dengan pengamatan yang lebih banyak.
4. Membuang sebanyak B pengamatan awal.
5. Menganggap
(βR,2 ()B1),(βR,2 ()B2),...,(βR,2 ( ))T
sebagai sampel untuk analisis posterior.6. Mendapatkan ringkasan dari distribusi posterior berupa rata- rata, standar deviasi, dan MC error.
Output yang dihasilkan merupakan sampel acak yang dapat ditulis sebagai berikut :
2 (1) 2 (2) 2 (3) 2 ( ')
(βR, ) ,(βR, ) ,(βR, ) ,....,(βR, )T
untuk semua sampel fungsiG(βR,2)dan parameter(βR,2)dapat memperoleh yaitu :
1. Sampel parameter yang diharapkan yaitu :
2 (1) 2 (2) 2 (3) 2 ( )
( , ) , ( , ) , ( , ) ,...., ( , )t
G βR  G βR  G βR  G βR 
2 ( ')
,...., (G βR, )T
2. Menghitung ringkasan posterior berupa rata-rata untuk ( , 2)
G βR  yaitu :
'
2 2 2 ( )
' 1
( ( , ) | *) ( , ) 1 ( , )
T
t r
E G G G
  T 
 
R R R
β Y β β (2.37)
'
T  T B (2.38)
18 '
T = banyaknya sampel yang dibangkitkan (T) dikurangi dengan banyaknya burn in (B).
3. Standar deviasi untuk posterior yaitu :
' 2
2 2 ( ) 2
1
1 ˆ
( ( , ) | *) ( , ) ( ( , ) | *)
' 1
T
t
t
Sd G G E G
 T  
 
 
  R R R
β Y β β Y
(2.39) 4. Ringkasan MC Error (Monte Carlo Error) harus bernilai kecil untuk menghitung parameter yang diinginkan dengan peningkatan presisi.
5. Trace plot.
6. Perhitungan korelasi parameter.
(Ntzoufraz, 2009) Terdapat banyak algoritma pada MCMC yang dapat digunakan namun yang sering dan populer digunakan adalah algoritma Gibbs Sampling. Algoritma Gibbs Sampling diperkenalkan pertama kali oleh Geman dan Geman (1984). Salah satu kelebihan dari Gibbs Sampling yaitu pada setiap langkahnya di mana nilai acak harus dibangkitkan dari distribusi dimensi tunggal yang mudah untuk dilakukan pada alat- alat komputasi yang tersedia. Langkah-langkah metode MCMC menggunakan algoritma Gibbs Sampling sebagai berikut :
1. Memilih nilai awal (βR,2 0)
2. Untuk t = 1,…..,T lakukan pengulangan langkah-langkah berikut ini :
a. Menentukan(βR,2)(βR,2 ()t1)
b. Lakukan pembaharuan, untuk lebih jelasnya sebagai berikut :
 
 
 
 
1 1 2 3
2 2 1 3
3 3 1 2 4
( 1)
( ) ( 1) ( 1) ( 1) 2
( 1)
( ) ( ) ( 1) ( 1) 2
( 1)
( ) ( ) ( ) ( 1) ( 1) 2
2 ( )
dari ( | , ,..., , , *),
dari ( | , ,..., , , *),
dari ( | , , ,..., , , *),
k
k
k
t t t t t
R R R R R
t t t t t
R R R R R
t t t t t t
R R R R R R
t
f y
f y
f y
     
     
      
   
  
  
1 2
2 ( ) ( ) ( )
dari (f   p| Rt , Rt ,....,Rkt, *).y
c. Membentuk(βR,2)( )t dan menyimpan sebagai kumpulan nilai-nilai yang dibangkitkan pada iterasi ke-(t+1) dari algoritma.
(Ntzoufras, 2009)
19 2.6. Kriteria Penduga Parameter dan Model
Suatu penduga parameter dan model yang terbentuk dikatakan baik dan tepat dengan melihat dari nilai SE (Standard Error), Kuadrat Tengah Galat (KTG), dan R2adjusted(Koefisien determinasi terkoreksi).
Semakin kecil nilai SE dan KTG maka nilai penduga semakin baik sedangkan semakin tinggi R2adjusted maka model yang terbentuk semakin baik.
2.6.1. Standard Error (SE) Penduga Parameter Regresi
Penduga parameter yang baik ketika menghasilkan SE yang relatif kecil, sehingga dapat dikatakan bahwa penduga tersebut semakin efisien. Berikut merupakan persamaan untuk mencari ragam penduga parameter :
 
2 1
( )
ˆ KTG *
p p
s β (X'X) (2.40)
 
2
0 0 1 0 1
2
2 1 0 1 0 1
( )
2
1 0 1 1 1
ˆ ˆ ˆ ˆ ˆ
( ) ( , ) ( , )
ˆ ˆ ˆ ˆ ˆ
( , ) ( ) ( , )
ˆ
ˆ ˆ ˆ ˆ ˆ
( , ) ( , ) ( )
p
p
p p
p p p
s s s
s s s
s s s
    
    
    
  
 
 
 
  
 
 
 
s β
Maka akan didapatkan SE untuk penduga parameter regresi yaitu akar dari elemen diagonal matriks ragam s2
 
β . ˆ(Kutner, 2004)
Sedangkan pada regresi ridge persamaan untuk mencari ragam penduga parameter dapat ditulis sebagai berikut :
   1   
 1
2 2
( )
ˆ
p p
c c
  
  
s βR Z'Z I Z'Z Z'Z I (2.41) di mana :
2 : Kuadrat Tengah Galat (KTG) model regresi linier pada data Standarisasi
Maka akan didapatkan SE untuk penduga parameter regresi ridge yaitu akar dari elemen diagonal matriks ragam s2
 
βˆR .(Marquardt dan Snee, 1975)
20
2.6.2. R2 adjusted (Koefisien Determinasi Terkoreksi) Model Regresi
Menentukan kriteria model yang baik dapat dilihat pada R2adjusted. R2adjusted merupakan ukuran yang paling umum digunakan dalam mengukur goodness of fit dari sebuah garis regresi, R2adjusted
untuk model regresi linier berganda didapatkan dengan persamaan sebagai berikut :
2 ( 1)
1 ( )
adjusted
JKG n
R JKT n p
  
     (2.42) di mana :
JKG :
(YiYˆi)2 JKT :
(YiY)2Yi : Variabel respon pada pengamatan ke-i ˆi
Y : Penduga model regresi pada pengamatan ke-i Y : Rata-rata variabel respon
i : 1, 2, 3,..., n
Sedangkan pada regresi ridge, persamaan R2adjusted sama dengan regresi linier berganda, perbedaannya terletak pada data yang digunakan, regresi ridge menggunakan data yang telah standarisasi, sehingga perhitungan R2adjusted menjadi :
2
( )
( 1)
1 ( )
R R adjusted
R
JKG n
R JKT n p
  
     (2.43)
di mana :
JKGR :
(Yi*Yˆi* 2) JKTR :
(Yi*Y* 2) 1*
Yi : Variabel respon ke-i yang telah distandarisasi ˆ*
Yi : Penduga model regresi ridge
Y* : Rata-rata variabel respon yang telah distandarisasi
(Kutner, 2004) 2.6.3. Kuadrat Tengah Galat (KTG) Model Regresi
Selain menggunakan R2adjusted dalam menentukan kebaikan model regresi ridge yang terbentuk, terdapat cara lain yang dapat digunakan yaitu dengan melihat Kuadrat Tengah Galat (KTG) model.
21 Model yang baik yaitu ketika menghasilkan KTG yang kecil, di mana persamaan untuk mencari KTG model regresi ridge adalah sebagai berikut :
R R
KTG JKG
n p
  (2.44)
(Kutner, 2004)