• Tidak ada hasil yang ditemukan

Analisis Perbandingan Regresi Komponen Utama dan Regresi Ridge untuk Mengatasi Masalah Multikolinieritas pada Model Regresi Linier Berganda

N/A
N/A
Protected

Academic year: 2017

Membagikan "Analisis Perbandingan Regresi Komponen Utama dan Regresi Ridge untuk Mengatasi Masalah Multikolinieritas pada Model Regresi Linier Berganda"

Copied!
21
0
0

Teks penuh

(1)

BAB 2

TINJAUAN PUSTAKA

2.1 Matriks

2.1.1 Definisi Matriks

Matriks adalah suatu kumpulan angka-angka yang juga sering disebut elemen-elemen yang disusun secara teratur menurut baris dan kolom berbentuk persegi panjang, dimana panjang dan lebarnya ditunjukkan oleh banyaknya kolom dan

baris serta dibatasi dengan tanda “ ”, “[ ]”, atau “‖ ‖”.

Sebuah matriks dinotasikan dengan simbol huruf besar seperti atau dan sebagainya. Sebuah matriks yang berukuran baris dan kolom dapat ditulis sebagai berikut:

[

]

(2.1)

Atau juga dapat ditulis:

[ ]

Matriks disebut disebut matriks , karena terdiri dari baris dan kolom. Setiap disebut elemen (unsur) dari matriks , sedangkan indeks dan

berturut-turut menyatakan baris dan kolom. Jadi elemen terdapat pada baris

ke- dan kolom ke- . Pasangan bilangan ( ) disebut dimensi (ukuran atau bentuk) dari matriks .

Contoh:

(2)

Disebut matriks dengan 2 baris dan 3 kolom. Jika sebuah matriks, maka digunakan untuk menyatakan elemen yang terdapat di dalam baris dan kolom

dari . Dalam contoh ini dan atau dapat ditulis [ ]

2.1.2 Jenis-Jenis Matriks

Matriks Kuadrat

Matriks kuadrat adalah matriks yang banyak barisnya sama dengan banyak kolomnya. Dalam matriks kuadrat terdapat adanya diagonal utama yaitu entri-entri yang mempunyai nomor baris yang sama dengan nomor kolom. Elemen-elemen tersebut adalah .

[

]

Matriks Diagonal

Matriks diagonal adalah matriks kuadrat yang semua entri di luar diagonal utamanya bernilai nol dan paling tidak terdapat satu elemen diagonal utama . Jumlah elemen-elemen diagonal suatu matriks kuadrat disebut trace disimbolkan dengan .

[

]

∑ (2.2)

Matriks Identitas

Matriks identitas adalah matriks diagonal yang entri-entri pada diagonal utamnya adalah bilangan satu dan entri-entri yang lainnya adalah bilangan nol. Matriks identitas disimbolkan dengan .

(3)

dengan:

Matriks Singular

Matriks kuadrat [ ] dikatakan singular jika semua elemen pada salah satu

baris atau kolom adalah nol atau jika semua kofaktor dari elemen suatu baris atau kolom sama dengan nol. Untuk melihat kesingular suatu matriks adalah dengan menghitung determinan matriks tersebut. Apabila determinannya sama dengan nol maka matriks tersebut adalah singular.

Matriks Ortogonal

Matriks kuadrat [ ] dikatakan dapat didiagonalisasikan secara ortogonal

jika terdapat matriks ortogonal sehingga berlaku . Matriks ortogonal didefinisikan sebagai matriks yang nilai inversnya sama dengan nilai transposnya, sehingga:

Maka adalah matriks ortogonal.

2.1.3 Operasi Matriks

Penjumlahan Matriks

Misalkan matriks [ ] [ ] dengan dan .

Jumlah matriks dan dapat dinyatakan oleh , yang memenuhi syarat ordo ordo . penjumlahan matriks dapat dinyatakan dengan:

( )

Pengurangan Matriks

Misalkan matriks [ ] [ ] dengan dan .

Jumlah matriks dan dapat dinyatakan oleh , yang memenuhi syarat ordo ordo . penjumlahan matriks dapat dinyatakan dengan:

(4)

Perkalian Matriks dengan Skalar

(5)

Determinan Matriks

Determinan adalah suatu skalar (angka) yang diturunkan dari suatu matriks kuadrat melalui operasi khusus. Disebut operasi khusus karena dalam proses penurunan determinan dilakukan perkalian sesuai dengan aljabar matriks. Suatu matriks yang mempunyai determinan disebut dengan matriks singular sedangkan matriks yang tidak mempunyai determinan (determinannya = 0) disebut matriks

non-singular.

Misalkan matriks kuadrat [ ] dengan . Fungsi

determinan dari matriks dituliskan dengan atau | |. Secara matematiknya dituliskan dengan:

| | ∑

di mana ∑ menunjukkan bahwa suku-suku tersebut harus dijumlahkan terhadap semua permutasi ( ) dan simbol atau dapat dipilih dalam masing-masing suku sesuai dengan permutasi itu ganjil atau genap.

Invers Matriks

Matriks kuadrat [ ] dengan dan disebut

mempunyai invers jika terdapat matriks sedemikian rupa sehingga

di mana matriks satuan.

Jika matriks mempunyai invers maka matriks disebut matriks non-singular. Dan jika matriks tidak mempunyai invers maka matriksnya disebut matriks singular. Jika matriks mempunyai invers maka inversnya tunggal (unik).

Andaikan matriks dan invers dari matriks sehingga dipenuhi hubungan dan , maka

Jadi, atau kedua invers matriks tersebut adalah tunggal. Secara umum invers matriks adalah :

(6)

Adjoint matriks adalah suatu matriks yang elemen-elemennya terdiri dari

adalah determinan dari submatriks yang diperoleh dengan cara membuang semua elemen pada baris ke- dan semua elemen pada kolom ke- .

2.2 Nilai Eigen dan Vektor Eigen

Kata “vektor eigen” adalah ramuan dari bahasa Jerman dan Inggris. Dalam bahasa Jerman “eigen” dapat diterjemahkan sebagai “sebenarnya” atau “karakteristik”;

oleh karena itu, nilai eigen dapat juga dinamakan nilai sebenarnya atau nilai karakteristik. Dalam literatur lama kadang-kadang dinamakan akar-akar laten (Howard Anton, 1992).

Jika adalah matriks , maka vektor taknol di dalam dinamakan vektor eigen (eigenvector) dari jika adalah kelipatan skalar dari

, yaitu:

(2.6)

Untuk suatu skalar . Saklar dinamakan nilai eigen (eigenvalue) dari dan dikatakan vektor eigen yang bersesuaian dengan .

(7)

dari persamaan (2.7) yang memberikan sistem persamaan linier homogen:

(2.8)

atau jika dituliskan kedalam bentuk matrik, yaitu:

(2.9)

Menurut teori aljabar, persamaan linier homogen dengan yang tidak diketahui (variabel), hanya dapat mempunyai penyelesaian yang tidak trivial, dapat dituliskan menjadi:

(2.10) Persamaan (2.10) dinamakan persamaan karakteristik . Skalar yang memenuhi persamaan (2.10) adalah nilai eigen dari . Apabila diperluas, maka adalah polinom yang dinamakan polinom karakteristik dari . Dengan persamaan polinomnya berderajat di dalam , yaitu:

(2.11)

Matriks disebut matriks karakteristik, sedang adalah fungsi karakteristik dari dan adalah akar-akar dari persamaan (2.11) yang menurut teori aljabar mempunyai akar. Pada umumnya akar-akar ini komple dan ada kemungkinan terdapat akar-akar yang sama. Akar-akar dari persamaan (2.11) disebut eigen value dari matriks .

Andaikan untuk setiap dengan sitem persamaan (2.9) mempunyai penyelesaian, misalkan suatu vektor yang bersesuaian dengan , sedemikian hingga:

(2.12)

(8)

tunggal. Dalam ilmu ukur menentukan arahnya secara tunggal sedangkan panjang vektornya boleh sebarang.

2.3 Matriks Korelasi

Matriks korelasi adalah matriks yang elemen-elemennya terdapat korelasi atau hubungan satu sama lain. Andaikan adalah sebuah matriks data, ̅ adalah matriks rata-rata dan adalah matriks ragam peragam.

dengan:

̅

Jika diubah ke dalam bentuk matriks akan menjadi:

̅ [

̅ dihitung dari matriks data yang dikalikan dengan vektor dan konstanta .

Selanjutnya, persamaan (2.13) dikalikan dengan vektor , sehingga dihasilkan matriks ̅ .

(9)

Matriks adalah perkalian silang antara matriks (2.15) dengan matriks

Persamaan (2.16) menunjukkan dengan jelas bahwa hubungan operasi

perkalian matriks data dengan dan transpose matriks datanya. Jika

nilai diketahui dari persamaan (2.16), maka dapat dihubungkan ke matriks korelasi dengan cara menghitung matriks .

[

Maka bentuk korelasi matriks adalah:

(10)

Di mana

√ Untuk menghasilkan .

2.4 Multikolinieritas

Istilah kolinieritas (collinearity) berarti hubungan linier tunggal (single linier relationship), sedangkan kolinieritas ganda (multicollinearity) menunjukkan adanya lebih dari satu hubungan linier yang sempurna (J. Supranto, 2004).

Masalah Multikolinieritas pertama kali diperkenalkan pada tahun 1934 oleh Ragnar Frisch serta mendefenisikan multikolinieritas adalah hubungan yang

perfect atau exact diantara sebagian atau semua variabel bebas pada suatu model regresi, sehingga akan menyulitkan untuk mengidentifikasi variabel penjelas dan variabel yang dijelaskan (Gunawan Sumodiningrat, 1998). Dengan demikian pengertian multikolinieritas berkaitan dengan adanya lebih dari satu hubungan linier yang sempurna diantara variabel bebas.

Adanya hubungan linier diatara variabel bebas yaitu dimisalkan terdapat variabel bebas . Hubungan linier yang sempurna terjadi apabila berlaku hubungan berikut:

Di mana merupakan bilangan konstan dan tidak seluruhnya benilai nol atau paling tidak terdapat satu nilai yang bernilai tidak nol, yaitu

.

Jika variabel bebas itu berkorelasi linier secara sempurna, apabila koefisien korelasi dari variabel bebasnya sama dengan dengan demikian parameter dalam model regresi tidak dapat ditentukan (Vincent Gaspersz, 1991).

Menurut Gunawan Sumodiningrat, ada 3 hal yang perlu dijelaskan berkaitan dengan masalah multikolinieritas yaitu:

(11)

sehingga sampel tidak memenuhi asumsi dasar tidak adanya ketergantungan diantara variabel bebas yang digunakan dalam model regresi.

2. Multikolinieritas adalah masalah derajat (degree) bukan persoalan jenis (kind), yang dimaksud adalah adanya korelasi diantara variabel penjelas baik sebagian maupun semua variabel bebas tanpa memperhatikan tanda negatif maupun positif.

3. Multikolinieritas berkaitan dengan adanya hubungan linier diantara variabel bebas, sehingga masalah multikolinieritas tidak akan terjadi jika model estimasi (regresi) non-linier.

2.4.1 Akibat Multikolinieritas

Multikolinieritas berakibat terhadap estimasi kuadrat terkecil dari koefisien

regresi. Berikut akan diperlihat untuk ̂ , Variansi ( ̂) dan kovariansi ( ̂ ̂ ) jika terdapat multikolinieritas. Misalkan terdapat dua varibel bebas dan variabel terikat sehingga model

persamaan normal dengan kuadrat terkecil adalah ̂ .

[

]

Diperoleh

[ ] [

]

Elemen diagonal utama dari matriks [ ] merupakan nilai faktor variansi inflasi (VIF), yaitu:

Dengan adalah koefisien determinansi dari regresi .

(12)

[

]

̂ ̂

̂

̂

Jika ada multikolinieritas antara variabel dan yang sangat erat dan nilai korelasi . Variansi dan kovariansi koefisien regresi menjadi sangat

besar karena ( ̂ ) seperti | | , galat ( ̂ ̂ )

, variansi yang besar untuk ̂ menyatakan bahwa koefisien regresi adalah perkiraan yang sangat lemah. Jika diasumsikan seperti | | , perkiraan koefisien regresi menjadi sama besarnya akan tetapi menjadi berlawanan tanda, yaitu ̂ ̂ .

2.4.2 Pendeteksian Multikolinieritas

Ada beberapa untuk mendeteksi ada tidaknya multikolinieritas diantaranya yaitu: 1. Nilai korelasi (korelasi antara varibel bebas)

Cara ini merupakan pendeteksian yang paling sederhana dan paling mudah untuk dilakukan. Jika nilai korelasi antara variabel bebas ( melebihi 0,8 diduga terdapat masalah multikolinieritas (Gujarati, 2003).

[

]

∑ ̅

̅

√ Untuk menghasilkan nilai korelasi

2. Variance Inflation Factor (VIF)

(13)

( ̂)

dengan:

koefisien determinansi antar dengan variabel bebas lainnya.

3. lakukan regresi antar variabel bebas dan menghitung masing-masing ,

kemudian melakukan uji-F dan bandingkan dengan F tabel. Jika nilai F hitung melebih dari F tabel berarti dapat dinyatakan bahwa terjadi kolinieritas terhadap variabelnya.

2.5 Regresi Linier Berganda

Analisis regresi yang sering digunakan dalam pemecahan suatu permasalahan adalah regresi linier. Dalam perkembangannya terdapat dua jenis regresi yang sangat terkenal, yaitu regresi linier sederhana dan regresi linier berganda. Regresi linier sederhana digunakan untuk menggambarkan hubungan antara satu variabel bebas ( ) dengan satu variabel tak bebas ( ). Sedangkan jika variabel bebas ( ) yang digunakan lebih dari satu, maka persamaan regresinya adalah persamaan regresi linier berganda.

Secara umum persamaan regresi linier dengan variabel bebas dapat dinyatakan dengan:

di mana:

Variabel tak bebas / pengamatan ke pada variabel yang dijelaskan

Variabel bebas / pengamatan ke pada variabel yang dijelaskan Parameter / koefisien regresi variabel penjelas

Galat / error

Apabila terdapat sejumlah pengamatan dan variabel bebas maka untuk setiap pengamatan atau responden mempunyai persamaannya seperti berikut:

(14)

Apabila persamaan regresi linear berganda untuk setiap pengamatan dinyatakan dengan notasi matriks maka menjadi:

Dalam melakukan analisis regresi linier berganda, sering dijumpai masalah multikolinieritas pada variabel-variabel bebasnya ( ). Akibat adanya pelanggaran terhadap salah satu asumsi yang disyaratkan pada penggunaan regresi linier tersebut, maka tentu mempengaruhi terhadap sifat-sifat penduga atau penaksir koefisien regresi linier gandanya. (J. Supranto, 2004) Adapun asumsi-asumsi yang mendasari analsis regresi linier berganda tersebut antara lain:

a. Nilai rata-rata kesalahan pengganggu nol, yaitu: untuk

e. Tidak ada multikolinieritas pada variabel bebas.

(15)

2.6 Metode Ordinary Least Square (OLS)

Metode Ordinary Least Square (OLS) merupakan suatu metode untuk mendapatkan garis regresi yang baik yaitu sedekat mungkin dengan datanya sehingga menghasilkan prediksi yang baik (Widarjono, 2005).

Metode OLS harus memenuhi asumsi-asumsi yang ada dalam proses pengestimasian parameter sehingga hasil estimasinya memenuhi sifat Best Linear

Unbiased Estimator (BLUE). Pada dasarnya metode OLS meminimumkan jumlah

kuadrat error.

Dengan ̂ adalah suatu vektor kolom -unsur dari estimasi OLS parameter regresi dan adalah suatu vektor kolom dari residual.

(16)

∑ untuk seluruh pengamatan memberikan persamaan pertama dalam persamaan (2.26) kemudian mengalikannya dengan pada kedua sisinya dan menjumlahkan untuk seluruh maka dihasilkan persamaan kedua. Begitu juga persamaan ketiga dalam persamaan (2.26) mengalikan kedua sisinya dengan dan menjumlahkan untuk seluruh , dan seterusnya.

Dinyatakan dalam bentuk matriks, persamaan normal akan menjadi:

(17)

Persamaan (2.27) diperoleh dari menurunkan persamaan mariks terhadap ̂, sehingga diperoleh:

̂ ̂ kemudian samakan hasil dengan, sehingga diperoleh:

̂ ̂

̂ ; kali dengan sehingga diperoleh ̂

̂

̂ dengan ketentuan (2.28)

Penduga ̂ merupakan penduga tak bias linier terbaik atau efisien bagi , yaitu:

1. ̂ adalah penduga tak bias bagi

Akan ditunjukkan bahwa ̂ adalah penaksir linier tak bias dari . Dari persamaan (2.23) diketahui:

̂

)

(2.29)

Dengan

( ̂) [ ]

2. Kovarian ( ̂)

(18)

[ ] [ ]

[ ]

2.7 Analisis Komponen Utama

Analisis komponen utama merupakan teknik statistika yang dapat digunakan untuk mereduksi data multivariat (banyak data) dari sejumlah variabel asal menjadi variabel baru yang bersifat orthogonal dan tetap mempertahankan jumlah varian (keragaman) dari data asalnya.

Analisis komponen utama bertujuan untuk mengubah (mentransformasi) sebagain besar variabel asal yang saling berkorelasi menjadi suatu set variabel baru yang lebih kecil dan merupakan kombinasi linier dari variabel asal. Secara umum tujuan dari analisis komponen utama adalah mereduksi dimensi data sehingga mudah untuk menginterpretasikan data tersebut. Selanjutnya variabel baru ini dinamakan dengan komponen utama (principal component).

Analisis komponen utama mengestrak dengan cara yaitu dengan menyerap varian matriks korelasi yang paling banyak dari komponen pertama. Kemudian komponen kedua yang menyerap varian terbanyak kedua terhadap sisa varian dan begitu seterusnya sampai komponen yang terakhir menyerap varian matriks korelasi yang paling sedikit. Pada akhirnya sejumlah komponen yang diperoleh dapat digunakan sebagai variabel bebas (predictor) dalam analisi regresi yang sudah bebas dari multikolinieritas.

Jika variabel yang diamati tidak mempunyai satuan pengukuran yang sama, maka variabel tersebut perlu dibakukan sehingga komponen utama ditentukan dari variabel baku (Johnson dan Wichern, 1982). Variabel asal perlu ditransformasi ke dalam variabel baku , yang dalam catatan matriks adalah:

(19)

dengan:

= variabel baku

= matriks simpangan baku dengan diagonal utama = variabel pengamatan

= nilai rata-rata variabel pengamatan

Dengan demikian komponen utana dari dapat ditentukan dari vektor ciri yang diperoleh melalui matriks korelasi variabel asal , di mana vektor pembobot

diperoleh dengan memaksimumkan keragaman komponen utama ke- dengan

kendala:

, serta , untuk .

Sehingga diperoleh komponen utama ke- dengan menggunakan variabel baku, yaitu:

dengan:

= komponen utama

= vektor ciri

ke-= variabel baku

Ragam dari komponen utama ke- adalah sama dengan akar ciri ke- , serta antara komponen utama ke- dan komponen utama ke- tidak berkorelasi untuk .

Untuk meregresikan komponen utama dengan variabel dengan variabel tak bebas, perlu dihitung skor komponen utama dari setiap pengamatan ditentukan sebagai berikut:

dengan:

= vektor pembobot komponen utama

= vektor skor baku dari variabel yang diamati pada pengamatan

(20)

ciri yang nilainya lebih besar dari satu, artinya hanya nilai akar ciri yang lebih besar dari satu dilibatkan dalam analisis regresi komponen utama atau dengan melihat proporsi kumulatif keragaman data asal yang dijelaskan oleh komponen utama minimal 80%, dan proporsi total variansi populasi bernilai cukup besar (Vincent Gaspersz, 1991).

2.8 Regresi Ridge

Prosedur regresi ridge pertama kali dikemukakan oleh A.E. Hoerl pada 1962. Regresi ridge ditujukan untuk mengatasi kondisi buruk (ill-condition) yang diakibatkan oleh korelasi yang tinggi antara beberapa variabel bebas, sehingga menyebabkan matriks -nya hampir singular, yang pada gilirannya menghasilkan nilai dugaan parameter model yang tidak stabil.

Apabila terjadi multikolinieritas tidak sempurna pada variabel bebas pada diagonal utama ditambahkan bilangan kecil positif yang bernilai antara 0 dan 1. Kemudian degan menstranformasikan matriks menjadi matriks korelasi

, sehingga dugaan koefisien regersi menjadi:

̂ dengan:

̂ = vektor koefisien regresi ridge

= matriks transformasi variabel bebas ( = tetapan bias (

= matriks identitas

= matriks transformasi variabel tak bebas ( )

Hubungan parameter ̂ ̂ ̂ dalam model baru dengan parameter dalam model semula adalah sebagai berikut:

̂

̂ (

)

̂ (

)

(21)

2.9 Ridge Trace

Ridge trace adalah plot dari estimator regresi ridge secara bersama dengan berbagai kemungkinan tetapan bias , konstanta mencerminkan jumlah bias

dalam estimator ̂ . Jika maka estimator ̂ akan bernilai sama dengan kuadrat terkecil , tetapi cenderung lebih stabil dari pada estimator kuarat terkecil.

Referensi

Dokumen terkait

Berdasarkan hasil pembahasan yang telah diuraikan diatas, dapat ditarik kesimpulan: 1) semua data sampel telah melalui uji validitas, yang hasilnya adalah semua item

Berdasarkan hasil penelitian dan pembahasan dapat diambil beberapa kesimpulan sebagai berikut; adanya ion sianida (CN - ) dengan jumlah mol yang lebih kecil dari

Asas Ius Sanguinis (Law of The Blood ) Adalah penentuan kewarganegaraan oleh keturunan/pertalian darah. Kewarganegaraan dari orang tua yang menurunkannya menentukan

Yudhistira Arie Wijaya, S.Kom Raditya Danar Dana, M.Kom.

Hasil penilaian aspek administrasi, teknis, dan aspek biaya telah dilakukan terhadap peserta Pelelangan Umum dengan Pascakualifikasi yang telah ditetapkan sebagai

Pada hari ini Rabu, tanggal dua puluh sembilan, bulan Maret, tahun Dua ribu tujuh belas, Kami selaku Kelompok Kerja Unit Layanan Pengadaan telah mengadakan Evaluasi

[r]

Skripsi ini berhasil memberikan bukti empiris bahwa dalam penerapan Total Quality Management (TQM), pengukuran kinerja dan sistem reward tidak mempunyai pengaruh yang kuat