• Tidak ada hasil yang ditemukan

PCA (Principle Component Analysis) merupakan metode yang digunakan untuk menjalankan struktrur keragaman yaitu melalui suatu kombinasi linier dari variabel-variabel. Metode ini dapat juga digunakan untuk mengurangi dimensi dari

sebuah ruang. Dengan adanya pengurangan dimensi maka akan dihasilkan dimensi basis baru yang lebih baik dalam menggambarkan berbagai kumpulan model. Model disini adalah sekumpulan citra resolusi tinggi dan citra resolusi rendah dalam tahap

training kemudian oleh kombinasi linier maka basis baru tersebut dilakukan

konstruksi.

Sering sumbu pertama dari sebuah dataset menjelaskan variasi dari sumber ukuran rata-rata untuk data allometric. Sebuah indikasi yang baik adalah sumbu utama (principle axis) sebesar % varian yang digambarkan. Hal ini bertujuan meningkatkan jumlah variabel sama dengan jumlah sumbu dalam peningkatan

dataspace, terlihat pada Gambar 2.17.

Untuk setengah data yang layak dengan 10-20 variabel diharapkan 30% dari variasi pada sumbu utama pertama. Dalam memperoleh satu sumbu utama yang

Gambar 2.17. Diagram dataspace . [21]

cocok, dapat menggunakan sumbu kedua dengan varian yang lebih sedikit daripada sumbu pertama. Sumbu kedua mengcitrakan kemungkinan variasi maksimum yakni:

A. Orthogonal (sudut 90 o) pada sumbu utama pertama.

B. Dapat dihitung melalui rata-rata dari dataset (mean of dataset).

2.5.1. Konsep dasar PCA

Teori PCA pertama kali di kembangkan oleh para ahli statistika. Metode PCA ini merupakan suatu teknik multivariate untuk menentukan korelasi antara sejumlah variabel kuatitatif. Teknik ini pertama kali dikembang pada tahun 1901 oleh K.Pearsong kemudian pada tahun 1933 dikembangkan oleh Hotteling aplikasi analisa PCA adalah menggunakan teknik pencarian kombinasi linier baku dari variabel data asli yang memiliki variasi yang maksimum. Secara umum teknik ini bertujuan untuk mencari kombinasi linier yang digunakan untuk meminimalkan data tanpa kehilangan informasi. Komponen utama pertama merupakan proyeksi kombinasi dari titik–titik pengamatan yang memiliki variansi terbesar diantara semua linier yang mungkin dan komponen utama kedua memiliki variansi terbesar kedua yang orthogonal dengan komponen utama pertama dan seterusnya. Setiap komponen utama merupakan kombinasi linier dari variabel–variabel aslinya dengan koefisien yang sama dangan vektor–vektor karakteristik (eigenvector) dari matrik korelasi atau matrik kovariansi. Variabel–variabel aslinya mempunyai nilai rata–rata 0 dan variasinya 1 sehingga dapat menghindari kemungkinan suatu variabel memiliki kemungkinan yang tidak menguntungkan pada komponen utama. Komponen utama dipisahkan oleh nilai–nilai

karakteristik (eigenvalues) yang urutannya menurun dan sama untuk variansinya dari semua komponen tersebut. Sehingga dari nilai komponen utama pertama, kedua, ketiga dan seterusnya nilainya akan menurun dan jumlahnya adalah 100%. Komponen utama juga merupakan teknik representasi data. Representasi data yang diperoleh memenuhi suatu kriteria optimal. Dengan menggunakan komponen utama akan diperoleh kolom dan representasi baris pada ruang berdimensi satu (garis), dua (bidang), atau tiga (ruang). Metode PCA diaplikasikan untuk menentukan aspek-aspek dari obyek yang mana merupakan tahap penting untuk proses identifikasi. Vektor–vektor karakteristik (eigenvector) dihitung dari sekumpulan data obyek. Setelah karakteristik didapatkan dan diwakili oleh sejumlah bobot maka bobot–bobot tersebut dapat digunakan sebagai identifikasi [22].

2.5.2. Parameter dan variabel PCA

PCA merupakan upaya untuk mengelompokkan variabel–variabel yang berkorelasi linier sejalan menjadi komponen utama. Sehingga dari “p” variabel akan didapat “q” komponen utama yang dapat mewakili seluruh persoalan. Atau dapat dikatakan bahwa PCA adalah suatu metode untuk menyederhanakan atau mereduksi variabel–variabel yang diamati dengan cara mengurangi dimensinya agar mempermudah analisis selanjutnya. Jadi di sini terjadi transformasi variabel asal menjadi variabel baru yang lebih sederhana. Transformasi yang dimaksud adalah

bersifat menghilangkan korelasi antar varaibel sehingga variabel baru yang di hasilkan akan saling bebas [23].

Meskipun pada PCA terjadi pengurangan dimensi tetapi informasi yang diberikan mengenai permasalahannya tidak akan berbeda atau sama. Dalam penerapannya, PCA tidak mutlak sebagai ukuran kepentingan suatu komponen karena mungkin diperoleh suatu komponen utama yang memberikan keragaman yang tidak terlalu besar tetapi penaksirannya mudah, jelas dan bermanfaat. Metode ini pula dapat digunakan untuk mereduksi sejumlah patch total variasi dalam training set yang dimasukkan, kemudian akan berusaha menjelaskan variasi tersebut kedalam suatu nilai karakteristik. Walaupun dari sejumlah X variabel yang diamati maka dapat diturunkan menjadi beberapa buah Y komponen utama tetapi tidak semua nilai dari Y digunakan untuk menjelaskan keragaman seluruh sistem, cukup beberapa Y saja. Ini sudah dapat menjelaskan secara memuaskan. Metode PCA dapat juga digunakan sebagai tahap awal dari sistem pemrosesan data yang besar misalnya digunakan untuk membangun masukan data membentuk analisa regresi demikian juga dalam analisa

clustering dimana PCA digunakan sebagai input untuk menjelaskan pengelompokan.

Jika dilakukan penelitian terhadap N individu, dan setiap individu diselidiki p buah variabel karakteristik maka organisasi data pengamatan dapat ditulis dalam notasi vektor sebagai berikut:

X’ = ( X1 , X2……….., Xp) ... (2.22)

Sistem karakteristik (eigen sistem) adalah inti dari metode PCA yang berusaha merepresentasikan kemungkinan sebuah solusi yang dapat digunakan dalam sistem pengenalan (sample matching) pada sistem eigen akan dihitung nilai karakteristik (eigenvalue) yang bersesuaian dengan vektor karakteristik (eigenvector).

2.5.4. Nilai karakteristik dan vektor karakteristik Teorema:

Misalkan A adalah sebuah matrik nxn, sebuah matrik bukan nol (P) yang berukuran nx1 sedemikian rupa sehingga AP = P dinamakan vektor karakteristik bagi A, sedangkan skalar  dinamakan nilai karakteristik bagi A yang bersesuaian dengan Persamaan (2.23) pendefinisian yaitu:

AP = P ekivalen dengan IP = AP atau (I – A)P = 0 ... (2.23) Persamaan (2.24) terakhir akan mempunyai solusi bukan nol jika dan hanya jika det (I - A) = 0 ... (2.24) Hal ini memberi petunjuk tentang bagaimana cara memperoleh nilai karakteristik dan vektor karakteristik.

2.5.5 Penentuan nilai karakteristik dan vektor karakteristik

Untuk mendapatkan nilai karakteristik dan vektor karakteristik sekaligus digunakan metode reduksi Householder. Metode ini hanya bisa dikerjakan untuk matrik simetris. Untuk memudahkan pencarian vektor karaktritik P yang bersesuaian

dengan nilai karakteristik  pada matriks berukuran besar, maka diperlukan pemahaman mengenai metode reduksi Householder, dan perlu mengetahui defenisi– definisi matematika dasar dan aljabar linier. Sebab tanpa dasar ini maka kita akan kesulitan untuk mendapatkan pengertian vektor karakteristik yang bersesuaian dengan nilai karakteristik dalam metode reduksi Householder.

2.5.6. Transformasi kemiripan

Transformasi kemiripan (Similarity Transform) adalah untuk mentransformasikan matrik A ke matrik B yang similar dengan matrik A yang telah dinormalisasi, dimana B adalah matrik diagonal yang dikomposisikan dari nilai karakteristik 1 , 2 , 3 ….  n. Tujuannya adalah untuk menunjukkan bahwa nilai karakteristik dari matrik diagonal B adalah nilai karakteristik dari A, dimana A dan B adalah dua matriks n x n dikatakan similar bila B = P-1AP. Dalam implementasi program untuk mendapatkan nilai karakteristik dan vektor karakteristik dengan menggunakan matriks P invers, P-1 akan mendapatkan kesulitan sebab nilai karakteristik di sini harus tidak boleh nol sehingga harus diusahakan agar p adalah matrik orthogonal. Agar P orthogonal maka A harus simetris. Oleh karena A matrik nxn adalah matrik simetris maka matriks AT = A. Dari uraian diatas maka terbukti bahwa P adalah matrik yang dapat didiagonalkan secara orthogonal. Oleh karena P adalah matrik orthogonal, maka matriks P-1 = PT. Akibatnya, matrik diagonal B pada uraian sebelumnya yang semula ditulis B = P-1AP ekivalen dengan B = PTAP

persamaan yang ditulis terakhir ini adalah persamaan untuk mendapatkan kemudahan dalam menentukan nilai karakteristik dan vektor karakteristik dengan menggunakan reduksi matrik householder [24].

2.5.7. Standarisasi hasil PCA

a. Memperoleh matrik dari semua koefisien korelasi–korelasi matrik. Dimulai dengan n kolom data kemudian mengambil [n x n] matrik yang menginformasikan mengenai hubungan antara setiap pasangan dari kolom.

b. Mendapatkan eigenvector dan eigenvalue dari matrik yang diperoleh dengan teknik multivariabel mencakup analisa eigenvector.

Contoh: Analisa eigenvector serta dapat juga terlihat pada Gambar 2.18.[21] a. Menghubungkan dengan baik perkalian matrik.

b. Ambil [n x n] matrik m dan digunakan untuk mengalikan sebuah vektor [1 x n] pada baris 1.

c. Vektor [1 x n] baru yang dihasilkan dari angka berbeda disebut V1. d. Kalikan V1 dengan m untuk mendapatkan V2.

e. Kalikan V2 dengan m untuk mendapatka V3 dan seterusnya.

f. Setelah pengulangan dari elemen V dengan pola menurun yang tetap maka diperoleh dominan eigenvector dari matrik m yaitu 1.

g. Setiap waktu 1 dikalikan dengan m (a constant multiple) untuk memperoleh harga eigenvalue pertama dari m.e1.

*

1 1 1 V1

*

V2 V3

*

V1 V2

After a while, each successive multiplication

preserves the shape (the eigenvector) while increasing values by a constant amount (the eigenvalue

Secara umum standart deviasi, matrik kovarian dan matrik karakeristik dapat dijelaskan sebagai berikut:

1. Persamaan linier (2.25) secara umum dapat dituliskan sebagai berikut:

2. Standar deviasi (variance)

Y = Ax

Y1 = a11x1 + a21x2 +……ap1xp Y2 = a12x1 + a22x2 +……ap2xp .. . . . ) 1 ( ) ( 1 2 2   

n X X s n i i ………..…… (2.26) Gambar.2.18. Skema mendapatkan eigenvector dan

Eigenvalue [21]

3. Matrik kovarian (covariance)

Untuk menentukan matrik-matrik antara 2 variabel maka:

Dimana:

cov(X,Y)>0: Dimensi naik bersama cov(X,Y)<0: Satu Naik,Satu turun cov(X,Y)=0: Dimensi bebas

Harga covariance antara semua kemungkinan dimensi:

4. Matrik karakteristik

Perhitungan nilai karakteristik (eigenvalues) dilakukan pada matrik karakteristik yang bersesuaian dengan vektor karakteristik (eigenvector):

Vektor x dituliskan sebagai A x disebut eigenvectors dari A (A = n x n matrik).

Persamaan Ax = x, adalah eigenvalue dari A. Ax = x  (A-I) x = 0

Bagaimana menghitung x dan :

1. Hitung det (A- Ibidang polynomial (derajat n).

2. Determinan rata-rata det (A- Iakar adalah eigenvalues 

3. (A- Isetiap  terdiri dari eigenvector x. ) 1 ( ) )( ( ) , cov(1    

n Y Y X X Y X n i i i )) , cov( | (ijij i j nxn Dim Dim c c C ... (2.27) ...…... (2.28)

Dokumen terkait