• Tidak ada hasil yang ditemukan

BAB 2 TINJAUAN PUSTAKA

N/A
N/A
Protected

Academic year: 2021

Membagikan "BAB 2 TINJAUAN PUSTAKA"

Copied!
23
0
0

Teks penuh

(1)

BAB 2

TINJAUAN PUSTAKA

2.1. Matriks

2.1.1. Definisi Matriks

Matriks adalah suatu kumpulan angka-angka yang juga sering disebut elemen-elemen yang disusun secara teratur menurut baris dan kolom sehingga berbentuk persegi panjang, dimana panjang dan lebarnya ditunjukkan oleh banyaknya kolom dan baris serta dibatasi tanda ”[ ]” atau “( )” (Anton, 1987).

Matriks A adalah susunan segiempat dari skalar-skalar yang biasanya dinyatakan dalam bentuk sebagai berikut:

                      = mn m m m n n n a a a a a a a a a a a a a a a a A . . . . . . . . . . . . . . . 3 2 1 3 33 32 31 2 23 22 21 1 13 12 11

Baris-baris dari matriks A semacam ini adalah m deretan horizontal yang terdiri dari skalar-skalar:

(

a11,a12,...,a1n

) (

, a21,a22,...,a2n

) (

,..., am1,am2,...,amn

)

Dan kolom-kolom dari A adalah n deretan vertikal yang terdiri dari skalar-skalar:

                                    mn n n m m a a a a a a a a a ... ,..., ... , ... 2 1 2 22 12 1 21 11

(2)

Elemen aijyang disebut entri ij atau elemen ij, muncul pada baris i dan kolom j. Matriks tersebut seringkali dituliskan hanya sebagai A=[aij] (Schaum’s, 2006).

2.1.2. Jenis jenis matriks

1. Matriks Bujursangkar

Matriks bujursangkar adalah matriks yang memiliki baris dan kolom yang sama banyak. Matriks bujursangkar n x n dikatakan sebagai matriks dengan orde n.

Contoh:       = 1 3 4 2 A 2. Matriks Nol

Matriks nol adalah suatu matriks yang semua elemennya mempunyai nilai nol.       = 0 0 0 0 A 3. Matriks Diagonal

Matriks diagonal adalah suatu matriks bujursangkar dimana semua elemen diluar diagonal utama mempunyai nilai nol dan paling tidak ada satu elemen diagonal utama ≠ 0 disimbol D. Contoh :           = 5 0 0 0 2 0 0 0 4 D

4. Matriks Segitiga Atas

Matriks segitiga atas adalah matriks dimana semua entri dibawah diagonal utama bernilai nol.

(3)

Contoh:           = 8 0 0 7 2 0 3 5 4 A

5. Matriks Segitiga Bawah

Matriks segitiga bawah adalah matriks dimana semua entri diatas diagonal utama bernilai nol. Contoh:           = 8 3 6 0 2 7 0 0 4 A 6. Matriks Identitas

Matriks identitas atau matriks satuan bujursangkar-n ditulis In atau hanya I adalah

matriks bujursangakar-n dengan bilangan 1 pada diagonalnya dan 0 pada entri-entri lainnya. Contoh:           = 1 0 0 0 1 0 0 0 1 I 7. Matriks Skalar

Skalar ialah suatu bilangan konstan. Jika k suatu bilangan konstan maka hasil kali k I dinamakan scalar matriks.

Contoh: k I3, k=3           =           = 3 0 0 0 3 0 0 0 3 1 0 0 0 1 0 0 0 1 3 kI

(4)

8. Matriks Simetri

Apabila matriks A yang berisikan aij

Dimana i=j=1,2,…,n. dan berlaku aij= aji maka matriks A disebut matriks simetri

Contoh:           − − − = 8 7 5 7 6 3 5 3 2 A

Keterangan: melalui pengamatan, elemen-elemen simetri di dalam A sama, atau AT=A. Jadi A adalah matriks simetri.

9. Transpos Matriks

Transpos dari suatu matriks A=(aij) ialah suatu matriks baru dengan menukarkan

baris menjadi kolom dan kolom menjadi baris. Apabila suatu matriks ditranspos kepada dirinya sendiri maka disebut matriks simetri.

Contoh:           = →           = 8 7 5 3 7 3 5 4 2 8 3 5 7 7 4 5 3 2 T A A 10. Matriks Ortogonal

Matriks real A disebut matriks ortogonal jika AT=A-1, yaitu, jika AAT= ATA=I. Jadi A

haruslah matriks bujursangkar dan dapat dibalik. Contoh: Misalkan                 − − − = 9 4 9 1 9 8 9 7 9 4 9 4 9 4 9 8 9 1

A . Mengalikan A dengan AT menghasilkan I, yaitu

AA-T

=I. ini juga berarti bahwa ATA=I . Maka AT= A-1; dengan demikian, A adalah matriks ortogonal.

(5)

11. Matriks Trace

Misalkan A=[aij] adalah matriks bujursangkar-n, diagonal dari A terdiri dari

elemen-elemen subskrip bilangan kembar yaitu:

a11, a22, a33, …, ann

Trace dari A ditulis tr(A) adalah jumlah dari elemen-elemen diagonal yaitu:

tr(A) = a11 + a22 + a33 + +ann contoh :           − − − = 8 7 5 7 8 3 5 3 2 A Maka tr(A) = a11 + a22 + a33 = 2 + 8 + (-8) = 2

2.1.3. Penjumlahan matriks dan perkalian skalar matriks

Misalkan A=[aij] dan B=[bij] adalah dua matriks dengan ukuran yang sama, misalnya

matriks mxn. Jumlah A dan B ditulis A+B adalah matriks yang diperoleh dengan menjumlahkan elemen-elemen yang bersesuaian dari A dan B. Yaitu

            + + + + + + + + + = + mn mn m m m m n n n n b a b a b a b a b a b a b a b a b a B A ... ... ... ... ... ... ... 2 2 1 1 2 2 22 22 21 21 1 1 12 12 11 11

Hasilkali dari matriks A dengan suatu skalar k ditulis k.A atau hanya kA adalah matriks yang diperoleh dengan cara mengalikan setiap elemen A dengan k. Yaitu

            = mn m m n n ka ka ka ka ka ka ka ka ka kA ... ... ... ... ... ... ... 2 1 2 22 21 1 12 11

(6)

2.1.4. Determinan

Setiap matriks bujursangkar-n A=(aij) memiliki skalar khusus yang disebut determinan A, dilambangkan dengan det(A) atau |A| atau

nn n n n n a a a a a a a a a ... ... ... ... ... ... ... 2 1 2 22 21 1 12 11 Sifat-sifat determinan:

1. Jika AT merupakan transpos dari matriks A maka det(A)=det(AT ).

2. Jika semua elemen dari suatu baris atau kolom dari matriks kuadrat A mempunyai nilai nol maka det(A)=0.

3. Jika 2 baris atau 2 kolom dipertukarkan maka nilai determinan matriks tersebut berubah tanda.

4. Jika 2 baris atau 2 kolom mempunyai elemen yang sama maka nilai determinan=0.

2.1.5. Invers Matriks

Jika pada matriks bujur sangkar A terdapat matriks B sehingga AB = I, dengan I adalah matriks identitas, maka B dinamakan invers matriks A dan ditulis sebagai Jadi jika A adalah matriks bujur sangkar tak singular berorde-n, maka terdapat satu

invers sehingga

Invers matriks memiliki sifat:

1. ; yaitu invers dari perkalian dua matriks adalah perkalian inversnya dalam urutan yang terbalik.

2. ; yaitu transpose dari invers A adalah invers dari transpose A. Invers matriks A dapat ditentukan dengan rumus sebagai berikut :

(7)

2.2. Nilai Eigen dan Vektor Eigen

Kata “vektor eigen” adalah ramuan bahasa Jerman dan Inggris. Dalam bahasa Jerman “eigen” dapat diterjemahkan sebagai “sebenarnya” atau “karakteristik”. Oleh Karena itu, nilai eigen dapat juga dinamakan nilai sebenarnya atau nilai karakteristik. Dalam literatur lama kadang-kadang dinamakan akar-akar latent.

Jika A adalah matriks n x n, maka vektor taknol x di dalam Rn dinamakan vektor eigen (eigenvector) dari A jika Ax adalah kelipatan skalar dari x; yakni, Ax =

λx untuk suatu skalarλ. Skalarλdinamakan nilai eigen (eigenvalue) dari A dan x dikatakan vektor eigen yang bersesuaian denganλ (Anton, 1987) .

Nilai eigen dan vektor eigen mempunyai tafsiran geometrik yang bermanfaat dalam R2 dan R3. Jikaλadalah nilai eigen dari A yang bersesuaian dengan x. maka Ax = λx, sehingga perkalian oleh A akan memperbesar x, atau membalik arah x, yang bergantung pada nilaiλ. Untuk mencari nilai eigen matriks A yang berukuran n x n maka dituliskan kembali Ax = λx sebagai

Ax = λI x

atau secara ekivalen

I – A)x = 0 Supayaλ menjadi nilai eigen, maka harus ada pemecahan tak nol dari persamaan ini. Akan tetapi persamaan ini akan mempunyai pemecahan tak nol jika dan hanya jika det(λI – A) = 0 ini dinamakan persamaan karakteristik A, skalar yang

memenuhi persamaan ini adalah nilai eigen dari A. Bila diperluas, maka determinan det(λI – A) adalah polinom λ yang dinamakan polinom karakteristik dari A (Anton, 1987).

Jika A adalah matriks n x n, maka polinom karakteristik A harus terpenuhi sebanyak n dan koefisienλn adalah 1. Jadi, polinom karakteristik dari matriks n x n mempunyai bentuk det(λI – A) = n n n

c c + + + − ... 1 1λ λ .

(8)

Jika A matriks n x n, maka pernyataan-pernyataan berikut ekivalen satu sama lain: 1. λ adalah nilai eigen dari A.

2. Sistem persamaan (λI – A)x = 0 mempunyai pemecahan yang taktrivial.

3. Ada vektor taknol x di dalam Rn sehingga Ax =λx.

4. λ adalah pemecahan riil dari persamaan karakteristik det(λI – A) = 0.

Vektor eigen A yang bersesuaian dengan nilai eigen λ adalah vektor taknol x yang memenuhi Ax =λx. Secara ekivalen, vektor eigen yang bersesuaian denganλ adalah vektor taknol dalam ruang pemecahan dari (λI – A)x = 0. Ruang

pemecahan ini dinamakan sebagai ruang eigen (eigenspace) dari A yang bersesuaian denganλ. 2.3. Matriks Korelasi Misalkan persamaan ε β β β + + + + = X pXp Y 0 1 1 ... (1) Keterangan: Y = peubah tak bebas

Xj = peubah bebas βi= parameter ε = galat error i dinyatakan sebagai ε β β β β β β + − + + − + − + + + + = ) ( ... ) ( ) ( ) ... ( 0 1 1 1 1 1 2 2 2 p p p p p X X X X X X X X Y (2)

dengan X = nilai tengah yang dihitung dari data j j = 1, 2, ..., p Andaikan β =β +β X + +βpXp ∧ ... 1 1 0 0

Maka persamaan (2) dapat ditulis

ε β β β β + − + − + + − + = ∗ ) ( ... ) ( ) ( 1 1 2 2 2 1 0 X X X X p Xp Xp Y

(9)

atau ε β β β β = − + − + + − + − ∗ ) ( ... ) ( ) ( 1 1 2 2 2 1 0 X X X X p Xp Xp Y (3) Jika β0∗ =Y , maka ε β β β − + − + + − + = −Y 1(X1 X1) 2(X2 X2) ... p(Xp Xp) Y (4) Matriks XtX untuk model ini adalah

                      = PP p p p p p p t S S S S S S S S S S S S S S S S X X . . . . . . . . . . . . . . . 3 2 1 3 33 32 31 2 23 22 21 1 13 12 11 dengan 2 1 ) ( jj j ij ij S x x z = − dimana

= − = n i j ij jj x x S 1 2 , ) ( dan 2 1 yy i i S y y y∗ = − dimana

= − = n i i yy y y S 1 2 , ) ( dengan i = 1, 2, …, n j = 1, 2, …, p

Ini akan mengubah persamaan (4) menjadi

ε β β β + + + + = ∗ p PP p yy S Z S Z S Z S y 2 1 2 2 1 22 2 1 2 1 11 1 2 1 1 ... (5) dengan bj = , 1,2,..., . 2 1 p j S S yy jj j  =       β

Dengan metode kuadrat terkecil, nilai dugaan parameter (

b) pada persamaan di atas dapat ditentukan yaitu

(10)

matriks ZtZ merupakan matriks korelasi yaitu:                       = 1 . . . . . . . . . 1 . . . 1 . . . 1 3 2 1 3 32 31 2 23 21 1 13 12 p p p p p p T r r r r r r r r r r r r Z Z dengan

=                 = n i jj j nj ii i ni ij S x x S x x r 1

hubungan antara koefisien regresi data awal ( j)

β dengan koefisien regresi yang

dibakukan (bj ∧ ) adalah 2 1         =∧ ∧ jj yy j j S S b β dan

= ∧ ∧ − = n j j jx y 1 0 β β dengan j = 1, 2, ..., p y = rata-rata dari y x= rata-rata dari x. 2.4. Multikolinearitas

Multikolinearitas adalah hubungan linear antara beberapa atau semua variabel independen didalam model regresi. Salah satu asumsi model regresi linear klasik adalah bahwa tidak terdapat multikolinearitas diantara variabel-variabel independen yang masuk dalam model. Salah satu indikator yang dapat digunakan dalam mendeteks multikolinearitas adalah nilai VIF yang lebih dari 10 (Gujarati, 2004).

Pada mulanya multikolinearitas berarti adanya hubungan linear yang “sempurna” atau pasti, di antara beberapa atau semua variabel yang menjelaskan dari model regresi. Untuk regresi k-variabel, meliputi variabel yang menjelaskan X1,

(11)

X2,…,Xk (dimana X1 = 1 untuk semua pengamatan untuk memungkinkan unsur

intersep), suatu hubungan linear yang pasti dikatakan ada apabila kondisi berikut ini dipenuhi: 0 ... 2 2 1 1XX + +λkXk = λ (6) dimana X1, X2, …, Xk = variabel ke 1, 2, …, k

λ1,λ2,...,λk = konstanta sedemikian rupa sehingga tidak semuanya secara simultan sama dengan nol.

Tetapi, saat ini istilah multikolinearitas digunakan dalam pengertian yang lebih luas untuk memasukkan kasus multikolinearitas sempurna, seperti ditunjukkan oleh (6) maupun kasus dimana variabel X berkorelasi tetapi tidak secara sempurna, seperti kondisi berikut :

0 ... 2 2 1 1XX + +λkXk +vi = λ (7)

dimana vi = unsur kesalahan stokhastik (Gujarati, 1978).

Untuk melihat perbedaan antara multikolinearitas yang sempurna dan kurang sempurna, asumsikan, sebagai contoh, bahwa λ2 ≠0. Maka (7) dapat ditulis sebagai

k k X X X X 2 3 2 3 1 2 1 2 ... λ λ λ λ λ λ − − − − = (8)

yang menunjukkan bagaimana X2 berhubungan linear secara sempurna dengan

variabel lain atau bagaimana X2 dapat diperoleh dari kombinasi linear variabel X lain.

Dalam keadaan ini, koefisien korelasi antara variabel X2 dan kombinasi linear di sisi

kanan dari (8) akan menjadi sama dengan satu (Gujarati, 1978).

Serupa dengan itu, jika λ2 ≠0, persamaan (7) dapat ditulis sebagai

i k k X v X X X 2 2 3 2 3 1 2 1 2 1 ... λ λ λ λ λ λ λ − − − − − = (9)

yang menunjukkan bahwa X2 tidak merupakan kombinasi linear yang pasti dari X

(12)

2.5. Konsekuensi Multikolinearitas

Jika asumsi model regresi linear klasik dipenuhi, penaksir kuadrat-terkecil biasa (OLS) dari koefisien regresi adalah linear, tak bias, dan mempunyai varians minimum, ringkasnya penaksir tadi adalah penaksir tak bias kolinear terbaik (Best

Linear Unbiased Estimator/BLUE). Jika sekarang dapat ditunjukkan bahwa

multikolinearitas sangat tinggi, penaksir OLS masih tetap memiliki sifat BLUE.

Ketidakbiasan adalah sifat multi sampel atau penyampelan berulang. Jika seseorang mendapatkan sampel berulang dan menghitung penaksir OLS untuk tiap sampel ini, maka rata-rata nilai sampel akan menuju ke nilai populasi yang sebenarnya dari penaksir, dengan meningkatnya jumlah sampel. Tetapi hal ini tidak mengatakan sesuatu mengenai sifat penaksir dalam sampel.

Dalam kasus multikolinearitas sempurna penaksir OLS tak tertentu dan varians atau kesalahan standarnya tak tertentu. Jika kolinearitas tajam tetapi tidak sempurna, maka dapat terjadi konsekuensi berikut ini:

1 Meskipun penaksir OLS mungkin bisa diperoleh, kesalahan standarnya cenderung semakin besar dengan meningkatnya tingkat korelasi antara peningkatan variabel. 2. Karena besarnya kesalahan standar, selang keyakinan untuk parameter populasi

yang relevan cenderung untuk lebih besar.

3. Dalam kasus multikolinearitas yang tinggi, data sampel mungkin sesuai dengan sekelompok hipotesis yang berbeda-beda. Jadi probabilitas untuk menerima hipotesis yang salah meningkat.

4. Selama multikolinearitas tidak sempurna, penaksiran koefisien regresi adalah mungkin tetapi taksiran dan kesalahan standarnya menjadi sangat sensitif terhadap sedikit perubahan dalam data.

5. Jika multikolinearitas tinggi, seseorang mungkin memperoleh R2 yang tinggi tetapi tidak satu pun atau sangat sedikit koefisien yang ditaksir yang penting secara statistik.

(13)

2.6. Pendeteksian Multikolinearitas

Menurut Gujarati (1978) ada beberapa cara untuk mendeteksi ada tidaknya multikolinearitas diantaranya yaitu :

1. Menghitung koefisien korelasi sederhana (simple correlation) antara sesama variabel bebas, jika terdapat koefisien korelasi sederhana yang mencapai atau melebihi 0.8 maka hal tersebut menunjukkan terjadinya masalah multikolinearitas dalam regresi.

2. Menghitung nilai Toleransi atau VIF (Variance Inflation Factor), jika nilai Toleransi kurang dari 0.1 atau nilai VIF melebihi 10 maka hal tersebut menunjukkan bahwa multikolinearitas adalah masalah yang pasti terjadi antar variabel bebas.

3. Lakukan regresi antar variabel bebas dan menghitung masing-masingR , 2

kemudian melakukan uji–F dan bandingkan dengan F tabel. Jika nilai F hitung melebihi nilai F tabel berarti dapat dinyatakan bahwa X kolinier dengan X yang i lain.

2.7. Regresi Linear Berganda

Regresi linear berganda adalah regresi dimana variabel terikatnya (Y) dihubungkan atau dijelaskan dengan lebih dari satu variabel bebas (X1, X2……..Xn) dengan syarat

variabel bebas masih menunjukkan hubungan yang linear dengan variabel tak bebas. Hubungan fungsional antara variabel dependen (Y) dengan variabel independent (X1, X2……..Xn) secara umum dapat dituliskan sebagai berikut:

Y = f(X1, X2……..Xn)

dengan : Y = variabel independen X X ……..X = variabel independent.

(14)

Model regresi linear berganda merupakan suatu model yang dapat dinyatakan dalam persamaan linear yang memuat peubaha dan parameter. Parameter ini pada umumnya tidak diketahui dan dapat ditaksir. Hubungan linear lebih dari dua peubah bila dinyatakan dalam bentuk persamaan matematis adalah:

Ŷ = b0 + b1X1 + b2X2 + … + biXi dengan ∧ Y = nilai estimasi Y Xi = peubah bebas bi = parameter

Koefisien-koefisien b0,b1,...,bi dapat ditentukan dengan menggunakan metode kuadrat terkecil (least square method). Metode kuadrat terkecil untuk menentukan persamaan linear estimasi, berarti memilih satu kurva linear dari beberapa kemungkinan kurva linear yang dapat dibuat dari data yang ada yang mempunyai error paling kecil dari data aktual dengan data estimasinya.

2.8. Metode Regresi Ridge

Metode regresi ridge merupakan salah satu metode yang dianjurkan untuk memperbaiki masalah multikolinearitas dengan cara memodifikasi metode kuadrat terkecil, sehingga dihasilkan penduga koefisien regresi lain yang bias. Modifikasi metode kuadrat terkecil dilakukan dengan cara menambah tetapan bias c yang relatif kecil pada diagonal matriks X’X , sehingga penduga koefisien regresi dipengaruhi oleh besarnya tetapan bias k. pada umumnya nilai c terletak antara 0 dan 1.

Hoerl dan Kennard (1970), membahas tentang cara mengatasi kondisi buruk(ill condition)yang diakibatkan oleh korelasi yang tinggi antara beberapa peubah peramal dalam model, sehingga menyebabkan matriksX’X-nya hampir singular, yang pada gilirannya akan menghasilkan nilai dugaan parameter yang tidak stabil. Hasil akhir yang diperoleh dari penyelesaian masalah multikolinieritas dengan

(15)

regresi ridge ini adalah masih memungkinkan untuk melakukan seleksi terhadap variabel asal.

Dalam regresi ridge variabel bebas x dan variabel tak bebas y ditransformasikan dalam bentuk variabel baku Z dan Y*, dimana transformasi variabel bebas dan variabel tak bebas ke bentuk variabel baku diperoleh dari

(10)

dengan Z = nilai variabel yang di bakukan

x = nilai variabel x x = nilai rata-rata x

x

S = simpangan baku x

(11) dengan Y = nilai variabel y yang dibakukan

y = nilai variabel y y = nilai rata-rata y y S = simbangan baku y Selanjutnya (12) (13)

Sementara itu, rumus dari korelasi

(14)

Sehingga persamaan normal kuadrat terkecil (XX)b=X’y akan berbentuk (rxx)b=rxy,

dengan rxx adalah matriks korelasi variabel x dan rxy adalah matriks korelasi variabel y

x S x x Z = −       −       − = x x S x x S x x Z Z' . y S y y Y∗ = −         −       − = y x S y y S x x y Z' .

(

)(

)

x x xx S S x x x x r = − −

(16)

dan masing-masing variabel x. Akibat dari transformasi matriks X ke Z dan vektor y ke y*, maka akan menjadikan persamaan normal regresi ridge yaitu: (rxx+kI) *

b = rxy.

Sehingga penduga koefisien regresi ridge menjadi :

* ∧

b = (rxx+kI)-1 rxy. (15)

Dengan * ∧

b = vektor koefisien regresi ridge

rxx = matriks korelasi variabel x berukuran pxp

rxy = vektor korelasi antara variabel x dan y berukuran px1 k = tetapan bias

I = matriks identitas berukuran pxp

Masalah yang dihadapi dari regresi ridge adalah penentuan nilai dari c. prosedur yang cukup baik untuk menentukan nilai c ini adalah dengan menggunakan nilai statistik CP-Mallows yaitu Ck. statistik CP-Mallows adalah suatu criteria yang

berkaitan dengan rata-rata kuadrat error (mean square error) dari nilai kesesuaian model. Nilai k yang terpilih adalah yang meminimumkan nilai Ck (Mayers, 1990).

2.9. Ridge Trace

Ridge Trace adalah plot dari estimator Regresi Ridge dengan berbagai kemungkinan nilai tetapan bias c, konstanta c mencerminkan jumlah bias dalam estimator (c)

β .

Bila c = 0 maka estimator (c)

β akan bernilai sama dengan kuadrat terkecil β , tetapi cenderung lebih stabil dari pada estimator kuadrat terkecil.

(17)

Nilai dari c berada pada interval (0.1). Pemilihan tetapan bias c merupakan masalah yang perlu diperhatikan. Tetapan bias yang diinginkan adalah tetapan bias yang menghasilkan bias relatif kecil dan menghasilkan koefisien yang relatif stabil.

Tahapan penaksiran koefisien regresi ridge:

1. Lakukan transformasi tehadap matriks X menjadi Z dan vektor Y menjadi YR, melalui centering and rescaling.

2. Hitung matriks Z'Z => matriks korelasi dari variable bebas, serta hitung Z'YR => korelasi dari variable bebas terhadap variable tak bebas y.

3. Hitung nilai penaksir parameter β dengan berbagai kemungkinan tetapan bias c.

4. Hitung nilai VIF dengan berbagai nilai c (0<c<1)

5. Tentukan nilai c dengan mempertimbangkan nilai VIF dan β .

Tentukan koefisien penduga (estimator) regresi ridge dari nilai c yang terpilih..

6. Buat persamaan model regresi ridge

7. Uji Hipotesis secara Simultan dengan ANOVA regresi ridge dan Parsial . 8. Transformasikan ke bentuk asal.

2.10. Analisis Komponen Utama

Analisis komponen utama merupakan suatu teknik mereduksi data multivariat (banyak data) untuk mengubah (mentransformasi) suatu matrik data awal/asli menjadi suatu set kombinasi linear yang lebih sedikit akan tetapi menyerap sebagian besar jumlah varian dari data awal.

Analisis komponen utama tidak selalu bermanfaat. Analisis komponen utama digunakan untuk mereduksi banyaknya peubah asal menjadi beberapa peubah baru yang dapat menjelaskan dengan baik keragaman data asal. Bila tidak ada korelasi

(18)

antara peubah asal, analisis komponen utama tidak akan memberikan hasil yang di inginkan, karena peubah baru yang diperoleh hanyalah peubah asal yang ditata berdasarkan besarnya keragamannya. Makin erat korelasi (baik positif maupun negatif) antara peubah, maka baik pula hasil yang diperoleh dari analisis komponen utama.

Analisis komponen utama mengekstrak dengan cara yaitu komponen pertama menyerap varian matriks korelasi paling banyak. kemudian diikuti komponen kedua yang menyerap varian terbanyak kedua terhadap sisa varian dan begitu seterusnya, sampai komponen yang terakhir menyerap varian matriks korelasi paling sedikit. Setiap komponen yang berikutnya juga harus orthogonal yaitu tidak berkorelasi sama sekali dengan komponen sebelumnya atau yang mendahuluinya. Akhirnya, ketika p mendekati k, jumlah varian yang dijelaskan oleh setiap komponen semakin kecil. Tujuannya ialah untuk mempertahankan sejumlah komponen yang diperoleh bisa dipergunakan sebagai variabel bebas (predictor) dalam analisis regresi/diskriminan atau analisis varian, yang sudah bebas dari multikolinearitas.

Kalau Wi = komponen ke i, maka diperoleh m persamaan berikut :

W1 = γ11z1+γ12z2 +...+γ1jzj +...+γ1pzp W2 = γ21z1 +γ22z2 +...+γ2jzj +...+γ2pzp . . . Wi = γi1z112z2 +...+γijzj +...+γipzp . . . Wm = γm1z1 +γm2z2 +...+γmjzj +...+γmpzp. dimana : Wi = komponen ke i

(19)

γ = vektor eigen

z = nilai standar variabel

Komponen yang ke-i yaitu Wi merupakan kombinasi linear dari X1, X2, …, Xj, …, Xp

dengan timbangan (weight) yaitu γ1j,γ2j,...,γij,...,γip yang pemilihannya harus sedemikian rupa, sehingga memaksimumkan rasio dari varian komponen pertama (W1) dengan jumlah varian (total variance) data asli/awal. Komponen berikutnya

yaitu W2, juga kombinasi linear yang ditimbang dari seluruh variabel asli, tidak

berkorelasi dengan komponen atau faktor pertama (W1) dan harus menyerap secara

maksimum sisa varian yang ada (Supranto, 2004).

Langkah awal yang dilakukan dalam Analisis Komponen Utama adalah menentukan nilai eigen dan vektor eigen dari matriks R, matriks korelasi dari X. Dengan terlebih dahulu mengubah data yang distribusi normal umum menjadi distribusi normal baku dengan rumus

Dengan : Z = nilai variabel yang di bakukan x = nilai data berdistribusi normal nilai rata-rata variabel

σ = standar deviasi

Nilai eigen matriks korelasi ini adalah r solusi λ12,...,λr dari persamaan determinan

= 0

dapat ditunjukkan bahwa jumlah akar-akar ciri matriks korelasi ini sama dengan tras (trace) matriks ZTZ.

(20)

Untuk setiap akar ciri λ terdapat vector ciri (Characteristic vector) j γ yang j memenuhi sistem persamaan homogen

0 ) ( − j j = T I Z Z λ γ .

Vektor ciri solusinya γj =(γ1j,γ2j,...,γrj)', yang dipilih dari sekian banyak solusi sebanding yang ada untuk setiap j, merupakan solusi yang ternormalkan sedemikian rupa sehingga γ'jγj =1. juga dapat diperlihatkan bahwa jika semua λ berbeda, j maka setiap pasangan vector ciri akan saling orthogonal sesamanya. Vektor γ j digunakan untuk membentuk Z ke dalam suku-suku komponen utama yaitu:

r rj j j j z z z W1 12 2 +...+γ

sehingga jumlah kuadrat setiap peubah baru Wj, yang unsur-unsurnya Wji dengan n

i=1,2,..., , adalah λ Dengan kata lain, j. Wj mengambil sejumlah λ dari j keragaman totalnya. Perhatikan bahwa

= = r j j r 1

λ sehingga jumlah kuadrat totalnya

= = = n i ji r j r W 1 2 1

seperti semula (Draper and Smith, 1992).

Jadi, prosedur ini menciptakan peubah-peubah baru Wj dari peubah-peubah asalnya j

Z , melalui suatu transformasi linear pada persamaan r rj j j j z z z W =γ1 1+γ2 2 +...+γ

sedemikian rupa sehingga vektor-vektor W itu orthogonal sesamanya. Peubah Wj padanan nilai λ yang terbesar disebut komponen utama pertama. Komponen ini j menjelaskan bagian terbesar dari keragaman yang dikandung oleh gugusan data yang telah dibakukan. Komponen-komponen Wj yang lain menjelaskan proporsi keragaman yang semakin lama semakin kecil sampai semua keragaman datanya terjelaskan, jadi

= = p j j r 1 λ .

(21)

Biasanya semua Wj tidak digunakan melainkan mengikuti suatu aturan seleksi tertentu. Komponen-komponen dapat dihitung sampai sejumlah tertentu proporsi keragaman data yang cukup besar (mungkin 75 persen atau lebih) telah dijelaskan”, dengan kata lain, kita pilih k penyumbang terbesar yang menghasilkan 0,75.

1 >

= k j j r λ

Aturan-aturan semacam ini secara otomatis memberi k peubah W yang merupakan hasil trasformasi terhadap peubah asal Z . Selanjutnya prosedur kuadrat terkecil i

digunakan untuk memperoleh persamaan peramalan bagi Y sebagai fungsi dari peubah-peubah Wj yang terpilih itu. Urutan masuknya pada peubah Wj tidak ada pengaruhnya dalam hal ini, sebab semua yaitu orthogonal satu sama lain. Bila persamaan regresi dalam Wj telah diperoleh, persamaan ini dapat dikembalikan menjadi fungsi peubah semula Z bila dikehendaki, atau ditafsirkan berdasarkan i peubah-peubah Wj tadi (Draper and Smith, 1992).

Berlawanan dengan analisis komponen utama, analisis faktor didasarkan pada suatu anggapan, mendasari struktur kausal. Variabel yang terobservasi, dipercaya, disebabkan oleh beberapa konstrak laten yang tidak terlihat (unseen latent construct). Sebagai contoh, kemampuan untuk menghasilkan bahwa ujian matematika yang sukses disebabkan oleh konstrak atau konsep yang tidak terlihat yang disebut :analytical intelligence. Secara konseptual hal ini merupakan suatu pendekatan yang berbeda dibandingkan dengan analisis komponen utama. Di dalam analisis akhir, analisis komponen utama menghasilkan reduksi dimensionalitas dari data set, sedangkan analisis faktor mencari untuk menjelaskan konstrak latent yang mungkin menjadi penyebab variabel yang dikumpulkan (Supranto, 2004).

(22)

Algoritma analisis komponen utama :

1. Mencari nilai rata-rata dari masing-masing variabel, dengan rumus :

Keterangan : i = 1, 2, 3, …, n

i

X = nilai rata-rata variabel ke i i

X = nilai data variabel ke i

n = jumlah sampel.

2. Mencari standar deviasi setiap variabel dengan rumus :

Keterangan : j = 1, 2, 3, …, n

S = standar deviasi ke i. i

3. Menstandarkan masing-masing variabel bebas , dengan rumus :

4. Menentukan rata-rata setiap variabel yang telah distandarisasi, dengan rumus :

dengan Zi = rata-rata variabel ke i yang telah distandarisasi.

5. Mencari koefisien korelasi dari variabel yang distandarkan, dengan rumus :

dengan rij = koefisien korelasi kolom ke i dan baris ke j.

6. Menentukan matriks korelasi, jika ZTZ adalah matriks korelasi, maka n X Xi =

i

(

)

1 2 − − =

n X X Si ij i i i ij ij S X X Z = − n Z Zi =

i

− − − − = 2 2 ) ( ) ( ) )( ( j jk i ik j jk i ik ij Z Z Z Z Z Z Z Z r

(23)

7. Mencari nilai eigen (λ) yang lebih besar dari 1. Nilai eigen dicari dengan menggunakan persamaan

dengan I = matriks identitas.

8. Mencari vektor eigen dari nilai eigen yang lebih besar dari satu dengan menggunakan persamaan :

dengan j = 1, 2, 3, …, n γ = vektor eigen ke j. j

9. Komponen utama ke j untuk standar Z didapatkan yaitu : .

Maka model regresi komponen utama dapat dirumuskan sebagai :

Keterangan : Y = variabel tak bebas

j

W = variabel bebas komponen utama yang merupakan kombinasi linier dari semua variabel baku Z(j=1, 2,….,m)

0

k = konstanta j

k = koefisien model regresi ( j = 1, 2,….,m) v = galat                       = 1 . . . . . . . . . 1 . . . 1 . . . 1 3 2 1 3 32 31 2 23 21 1 13 12 p p p p p p T r r r r r r r r r r r r Z Z 0 = − I Z ZT λ 0 ) (ZTZ −λjI γj = r rj j j j Z Z Z W =γ1 1+γ2 2+...+γ v W k W k W k k Y = 0+ 1 1+ 2 2+...+ m m +

Referensi

Dokumen terkait

Uji disolusi invitro dilakukan untuk mengetahui profil disolusi zat aktif dari sediaan tablet sustained release natrium diklofenak yang dibuat dengan metode

• Bagian potong bertanggung jawab memotong secara teliti agar bahan yang digunakan tidak banyak yang terbuang.. • Bagian finishing bertanggung jawab teliti dalam

Puji syukur kehadirat Allah SWT atas segala rahmat dan limpahan hidayah- Nya, penulis dapat menyelesaikan skripsi yang berjudul “Analisis Pengaruh Produk Wisata, Citra Destinasi

Faktor-faktor yang mempengaruhi kegagalan dan kesuksesan informasi antara lain sumber daya manusia yang terlibat, teknik perancangan yang baik, komplesitas

“ Apakah terdapat perbedaan Intercultural Sensitivity siswa pada sekolah yang homogen (monokultural) dengan sekolah yang heterogen (multikultural) di.

kesehatan dan seringkali diidentikkan dengan kegagalan upaya penyembuhan yang dilakukan dokter dan tenaga medis lain, sehingga profesi tenaga medis sangat rentan

Adapun prosedurnya adalah sebagai berikut: (1) Anak yang pendiam duduk berdekatan anak yang banyak bicaranya, sehingga pada saat latihan anak yang banyak bicaranya dapat

Setelah melihat sistem kerja di lapangan menunjukkan bahwa, untuk mengejar omset perusahaan dan memuaskan konsumen, karyawan sering kerja lembur 3 s.d 4 jam sehari tanpa