• Tidak ada hasil yang ditemukan

III. METODOLOGI PENELITIAN

3.6 Uji Ekonometrika

3.6.1 Multikolinearitas

Multikolinearitas terjadi akibat adanya korelasi yang tinggi di antara peubah bebasnya. Multikolinearitas menyebabkan koefisien- koefisien regresi dugaan memilki ragam yang sangat besar, sehingga akan berdampak pada hasil pengujian koefisien yang akan cenderung untuk

menerima H0, sehingga koefisien-koefisien regresi tidak nyata yang pada akhirnya sering membuat persamaan regresi yang dihasilkan menjadi

misleding(Wetherill dalam Ulpah, 2006).

Salah satu cara mendeteksi terjadinya multikolineritas adalah dengan menggunakan matriks korelasi untuk melihat terjadinya korelasi di antara peubah bebas. Koefisien korelasi antara x1dan x2dapat dirumuskan sebagai berikut:

rx1x2= Cov (x1,x2)______

[Var(x1)Var(x2)]1/2 (6)

Cara lain yang dapat digunakan adalah dengan faktor inflasi ragam (Variance Inflation Factor) atau VIF, yaitu pengukuran multikolinearitas untuk peubah bebas ke-i. VIFadalah suatu faktor yang mengukur seberapa besar kenaikan ragam dari koefisien penduga regresi dibandingkan dengan peubah bebas yang ortogonal jika dihubungkan secara linier. Nilai VIF

akan semakin besar jika terdapat korelasi yang semakin besar di antara peubah-peubah bebas. VIF yang lebih besar dari 10 dapat digunakan sebagai indikator adanya multikolinearitas (Neter et al, 1990). Hubungan antara VIF dengan multikolinearitas adalah :

VIF = 1___

1-Ri2 (7)

Ri2 adalah koefisien determinasi dari regresi peubah bebas ke-i dengan semua peubah bebas lainnya.

Ada banyak cara dan pendekatan yang dapat digunakan untuk mengatasi masalah multikolinearitas, diantaranya:

a. Menghilangkan peubah bebas yang mempunyai multikolineritas tinggi terhadap peubah bebas lainnya.

b. Menambah data pengamatan atau contoh,

c. Melakukan transformasi terhadap peubah-peubah bebas yang mempunyai kolineritas atau menggabungkan menjadi peubah-peubah bebas baru yang mempunyai arti.

Selain cara-cara tersebut, terdapat beberapa metode yang dapat diterapkan, seperti penggunaan regresi gulud, regresi kuadrat terkecil, dan regresi komponen utama. Regresi komponen utama merupakan suatu metode yang dikenal naik dan sering digunakan untuk mengatasi masalah multikolinearitas, karena pendugaan dengan metode tersebut akan menghasilkan nilai dugaan yang memiliki tingkat ketelitian lebih tinggi, serta dengan jumlah kuadrat sisaan yang lebih kecil dibandingkan dengan pendugaan menggunakan metode kuadrat terkecil (Gasperz dalam Ulpah, 2006).

3.6.1.1 Regresi Komponen Utama

Analisis komponen utama pada dasarnya mentransformasi peubah- peubah bebas yang berkorelasi menjadi peubah-peubah baru yang orthogonal dan tidak berkorelasi. Analisis ini bertujuan untuk menyederhanakan peubah-peubah yang diamati dengan cara mereduksi

dimensinya. Hal ini dilakukan dengan menghilangkan korelasi di antara peubah melalui transformasi peubah asal ke peubah baru (komponen utama) yang tidak berkorelasi (Gasperz dalam Ulpah, 2006).

Konsep aljabar linier tentang diagonalisasi matriks digunakan dalam anlisis tersebut, matriks korelasi R(atau matriks ragam peragam Σ)

dengan dimensi pxp, simetrik dan non singular, dapat direduksi menjadi matriks diagonal D dengan pengali awal dan pengali akhir suatu matriks orthogonal Vatau dapat dituliskan sebagai berikut :

V’ R V = D (8)

λ1>λ2> ... > λp> 0 adalah akar ciri - akar ciri dari matriks Ryang merupakan unsur-unsur diagonal matriks D, sedangkan kolom-kolom matriks V, v1, v2,..., vp adalah vektor -vektor ciri R. Ada pun λ1, λ2, ..., λp dapat diperoleh melaului persamaan berikut:

|–λI|= 0 (9)

Jika peubah yang diamati mempunyai satuan pengukuran berbeda, maka perlu dibakukan. Dalam hal ini, komponen utama diturunkan dari matriks korelasi R. Matriks peragam Σ digunakan apabila semua peubah yang diamati, diukur dalam satuan pengukuran yang sama. Misalkan x1, x2, ..., xp adalah peubah acak berdimensi p yang mengikuti sebaran normal ganda dengan vektor nilai tengah υ dan matriks peragam Σ serta matriks korelasi R, dapat ditulis dalam bentuk vektor X’ = (x1x2... xp). P peubah asal tadi dapat diturunkan p buah komponen utama untuk

menerangkan komponen total sistem, dan sering kali keragaman total itu dapat diterangkan secara memuaskan oleh sejumlah kecil komponen utama, misal k buah komponen dimana k<p.

Peubah bebas pada regresi komponen utama merupakan kombinasi linier dari peubah asal Z (Zadalah hasil pembakuan dari peubah X), yang disebut sebagai komponen utama. Komponen utama ke-j dapat dinyatakan dalam bentuk persamaan berikut:

Wj= v1jZ1+ v2jZ2+ ... + vpjZp (10)

Dimana Wj saling ortogonal sesamanya. Komponen ini menjelaskan bagian terbesar dari keragaman yang dikandung oleh gugusan data yang telah dibakukan. Komponen-komponen W yang lain menjelaskan proporsi keragaman yang semakin lama semakin kecil sampai semua keragaman datanya terjelaskan. Tetapi biasanya tidak semua W

digunakan, sebagian ahli menganjurkan agar memilih komponen utama yang akar cirinya lebih besar dari satu, karena jika akar ciri kurang dari satu maka keragaman data yang dapat diterangkan oleh komponen utama tersebut sangat kecil. Pemilihan komponen-komponen utama disarankan yang memiliki keragaman kumulatif sampai kira-kira 75 persen.

Adapun pembakuan yang dimaksud adalah dengan mengurangkan setiap peubah bebas asal Xj dengan rata-rata dan dibagi simpangan baku, dapat dinotasikan sebagai berikut:

Z = (Xj – X) (11)

Misalkan suatu persamaan regresi dinyatakan dalam bentuk sebagai berikut:

Y = X + ε (12)

Jika suatu matriks pengamatan X yang telah dibakukan dilambangkan dengan Z sehingga diperoleh akar ciri (λ) dan vektor ciri

(V) dari Z’Z (bentuk korelasi) dan V’V = Ikarena V ortogonal, persamaan regresi asal dapat dituliskan sebagai berikut:

Y = Z + ε (13) Y = 0 1 + ZVV’ + ε (14) Y = 0 1 + Wα + ε (15) dengan W = ZVdan α = V’ W = Z V (16) W’W = (ZV)’(ZV) = V’Z’ZV (17)

Persamaan (17) akan menghasilkan diagonal (λ1,λ2,...λp) yang setara dengan Var(Wi) = λi dan Cov(Wi-1,Wi) = 0. Hal ini menunjukkan bahwa komponen utama tidak saling berkorelasi dan komponen utama ke-i

memiliki keragaman sama dengan akar ciri ke-i, sedangkan ragam

koefisien regresi dari m komponen utama adalah:

Var( i) = s*2 Σ , i = 1, 2, ..., m (18)

Dimana : aig adalah koefisien pembobot komponen utama (vektor ciri), λgadalah akar ciri, sedangkan s*2adalah:

s*2 = KTG= s2_____

JKT Σ(y-y)2 (19)

3.6.1.2 Bias dalam Penduga Koefisien Regresi Komponen Utama Penduga koefisien regresi pada model regresi yang diperoleh dengan menggunakan regresi komponen utama sering berbias, padahal sifat penduga yang baik adalah tak bias dengan ragam penduga minimum. Namun, bersamaan dengan hal tersebut telah terjadi reduksi besar-basaran pada ragam penduga koefisien regresi yang besar karena multikolinearitas. Bias bukanlah hal yang harus dihindari, karena penduga dengan ragam yang minimum juga dapat berbias dan tetap disukai.

Misalkan sebanyak r komponen utama dieliminasi dan sebanyak k tersisa, dengan r + k + p. Misalkan juga telah diperoleh matriks V = (v1v2

... vp) dari vektor ciri-vektor ciri Z’Z dipartisi menurut V = (Vr| Vk), maka demikian pula dengan matriks diagonal akar cirinya:

^ = [^, 0 ] [0 ^k]

Dimana ^, dan ^k juga merupakan matriks diagonal, sedangkan ^, berisi akar ciri yang bersesuaian dengan vektor ciri yang dieliminasi, karena ^ = V’(Z’Z)V = W’W, maka αr = (W’W)-1 V’ZY sehingga α yang

tersisa adalah αk = ^-1VkZY dan dapat ditulis sebagai bpc = Vk αk, sehingga

E(bpc) = VkαkVkVk’ , karena VV’= I=VrVr’+VkVk’,maka:

E(bpc) = [I- VrVr’] = - VrVr’ = - Vrαr (20)

Sehingga penduga koefisien regresi komponen utama dengan mengeliminasi r komponen utama dalam model akan berbias sebesar Vrαr dengan Vradalah vektor ciri – vektor ciri yang dieliminasi (Myers dalam Ulpah, 2006).

Tahapan Analisis Komponen Regresi Komponen utama yang dilakukan dalam anlisis adalah:

a) Membakukan peubah bebas asal, yaitu Xmenjadi Z

b) Mencari akar ciri dan vektor ciri dari matriks R

c) Menentukan persamaan komponen utama dari vektor ciri

d) Meregresikan peubah respon Yterhadap skor komponen utama W

e) Transformasi balik

3.6.1.3 Penutup Analisis Regresi Komponen Utama

Analisis komponen utama pada dasarnya mentransformasi peubah- peubah bebas yang berkorelasi menjadi peubah-peubah baru yang ortoghonal dan tidak berkorelasi. Analisis ini bertujuan untuk menyederhanakan peubah-peubah yang diamati dengan cara mereduksi dimensinya, sehingga masalah multikolinearitas dapat diatasi. Reduksi ini dilakukan terhadap komponen utama yang mempunyai akar ciri yang nilainya kurang dari satu. Dengan teknik ini peubah yang cukup banyak

akan diganti dengan peubah yang jumlahnya lebih sedikit tanpa diiringi oleh hilangnya objektifitas analisis.

Berdasarkan teori, jika semua komponen utama tetap dalam model regresi, maka akan terjadi transformasi berupa rotasi peubah bebas, sehingga koefisien regresi tidak berubah. Jika peubah yang diamati mempunyai satuan pengukuran berbeda, maka perlu dibakukan. Dalam hal ini komponen utama diturunkan dari matriks korelasi R. Matriks peragam Σ digunakan bila pengukuran semua peubah yang diamati berdasarkan pada satuan pengukuran yang sama.

Dokumen terkait