• Tidak ada hasil yang ditemukan

BAB II TINJAUAN PUSTAKA

2.5 Ekstraksi Ciri Principal Component Analysis (PCA)

Principal Component Analysis (PCA) adalah salah satu teknik yang

digunakan pada pengolahan sinyal digital untuk pengurangan dimensi data dengan cara mengambil ciri-ciri penting dari sekumpulan data atau untuk dekolerasi variabel data. Pertama kali diperkenalkan oleh Pearson pada tahun 1901 dan Hotelling pada tahun 1933. PCA dikenal dengan nama Transformasi Kaurheun-Loeve atau Transformasi Hotelling atau teknik Eigenfaces. PCA merupakan metode yang penting dalam teori deteksi, pengenalan pola dan image coding. Dengan PCA, pola data yang sulit bahkan tidak ada representatif data secara grafik maka PCA dapat dilakukan untuk menganalisis data. Keunggulan PCA ini adalah PCA dapat dapat menemukan pola pada data dan melakukan kompresi data dengan mengurangi jumlah dimensinya tanpa harus kehilangan banyak informasi. Dengan dimensi data yang rendah ini, waktu komputasi dapat dikurangi.

PCA menghasilkan menghasilkan vektor Eigen atau vektor-vektor karakteristik yang kemudian akan digunakan untuk membentuk

ruang Eigen. Penentuan vektor eigen diperlukan dalam mereduksi dimensi data. Vektor eigen diurutkan dari yang nilai eigennya terbesar sampai terkecil. Vektor Eigen yang dapat direduksi adalah vektor yang memiliki nilai terkecil karena ini mengindikasikan bahwa informasi yang dibawa dianggap tidak terlalu penting sehingga dapat direduksi tanpa mempengaruhi informasi yang penting. Algoritma PCA terdiri dari kolerasi dan kovariansi. Metode kolerasi biasanya digunakan pada data yang memiliki satuan ukuran yang tidak sama, sedangkan metode kovariansi digunakan pada data yang memiliki satuan ukuran yang sama. 2.5.1 Normalisasi Input

Proses ekstraksi citra dengan PCA menggunakan kumpulan citra yang memiliki dimensi yang sama. Selanjutnya untuk melakukan normalisasi data dapat dilakukan dengan dua tahap yaitu:

a. Rata-rata (mean)

Melakukan pencarian komponen rata-rata ū dari setiap baris matriks tersebut dengan menggunakan persamaan berikut:


A = CB C AB, D

EFB (2.5)

dimana : ū = vektor rata-rata

m = jumlah matriks sehingga diperoleh : A = AB AG ABIIII (2.6)

b. Data Normal (normalisasi matriks)

Setelah didapatkan mean dari setiap citra training, langkah selanjutnya adalah mencari data normal dengan cara mengurang matriks awal dengan mean dengan menggunakan persamaan berikut:

Vektor data normal ini memiliki ukuran sebesar jumlah citra latih * jumlah pixel citra latih. Untuk mendapatkan vektor data normal ini, tiap vektor yang diperoleh dimasukkan ke dalam suatu matriks, dimana matriks tersebut pada tiap kolomnya berisi semua vektor citra training yang sudah dikurangi dengan mean [7].

2.5.2 Covariance Matrix

Covariance matrix atau biasa disebut matriks kovarian merupakan

suatu alat ukur penyebaran data yang bekerja pada dimensi yang lebih dari satu. Dalam PCA, kovarian berfungsi untuk mengukur penyebaran dari pola kumpulan gambar yang nantinya akan diteruskan untuk mencari ciri pola tersebut. Secara umum, kovariance dapat dirumuskan sebagai berikut: [9]

NLO @. 0 = TQUV(PQRP)(SQRS)

(WRB) (2.8)

Jika diketahui terdapat sebuah citra berdimensi m sejumlah n buah, kemudian digabungkan membentuk sebuah matrik Y berukuran (m x n) yang sudah ternormalisasi, maka pencarian kovarian C dapat dilakukan dengan menggunkan persamaan berikut: [9]

N = X ∗ XZ (2.9) Dengan menggunakan persamaan (2.9) tersebut, kumpulan perhitungan kovarian tersebut menghasilkan sebuah matriks baru yang berukuran (m x m) dimana m merupakan jumlah dimensi data. Namun, pencarian kovarian dengan menggunakan persamaan (2.9) kurang efisien bila ukuran dimensi lebih kecil dari jumlah citra. Misal, jika terdapat citra berukuran 10x10 sejumlah 700 buah, maka persamaan (2.9) cocok digunakan untuk mencari variansi data, karena matriks kovarian yang dihasilkan berukuran 100x100. Namun, jika terdapat citra berukuran 50 sejumlah 700 buah, maka matriks kovarian yang dihasilkan berukuran 2500x2500, dan hal tersebut kurang efisien. Solusi yang dapat digunakan

ialah dengan menggunakan persamaan (2.10), dimana matriks kovarian L dihasilkan cukup berukuran 700x700. [9]

[ = X ∗ XZ (2.10) Misal, untuk data 3 buah citra berdimensi sama (x, y dan z), maka matriks kovariannya adalah sebagai berikut: [9]

N =

2LO(@, @) 2LO(@, 0) 2LO(@, \) 2LO(0, @) 2LO(0, 0) 2LO(0, \)

2LO(\, @) 2LO(\, 0) 2LO(\, \) (2.11) Bila dilihat dari persamaan (2.12), nilai kovarian yang didapatkan merupakan nilai perhitungan antara satu citra dengan masing-masing keseluruhan citra lainnya. Hal ini menunjukkan berbagai variasi dalam dimensi tersebut. Karena cov(a,b) = cov(b,a), maka, pada persamaan (2.12) dapat dilihat bahwa bentuk dari matriks kovarian yang dihasilkan berbentuk simetris.

Adapun untuk mencari kovarian dilakukan dengan mengalikan

transpose data normal dengan matriks data normal itu sendiri dengan

persamaan sehingga diperoleh persamaan berikut:

NLO = J/K/*L.M/3Z∗ J/K/*L.M/3 (2.12) Bila dicontohkan, terdapat sekumpulan 4 buah matriks (a, b, c, d) yang masing masing merupakan vektor kolom yang terdiri dari 5 baris yang kemudian digabungkan, seperti pada tabel 2.3. [9]

Tabel 2.3 Matriks X yang terdiri dari 4 dimensi [9]

A B C D 10 30 22 26 20 24 19 21 15 14 8 13 17 19 16 15 18 15 16 10

2.5.3 Vektor Eigen dan Nilai Eigen

Terdapat konsep transformasi linear yang bekerja pada sebuah vektor dengan panjang dan arah tertentu. Jika terdapat sebuah matriks transformasi A yang berukuran (n x n), maka vektor tak nol x dinamakan vektor eigen dari A jika Ax adalah kelipatan scalar dari x yaitu: [9]

]@ = @ (2.13) λ disebut nilai eigen dari A, dan x merupakan vektor eigen yang bersesuaian dengan λ. Adapun contoh implementasi dari persamaan (2.12) dapat dilihat persamaan (2.14). [9]

4 64 2 @ 32 = 2416 = 8 x 32 (2.14) Pada persamaan 2.14 terlihat bahwa vektor 32 merupakan representasi dari x, yaitu vektor eigen dari matriks 4 6

4 2 . Adapun untuk mencari nilai eigen dari matriks A yang berukuran (n x n), maka persamaan (2.12) dapat ditulis sebagai berikut: [9] ]@ = `@ ⟺ ` − ] @ = 0 (2.15) sehingga dihasilkan persamaan :

det ` − ] = 0 (2.16)

dimana I merupakan matriks identitas dari A.


Persamaan (2.16) merupakan persamaan karakteristik dari λ. Seterlah nilai λ diketahui, maka vektor yang bersesuaian dengan λ merupakan vektor tak nol dalam ruang fiksi persamaan (A – λI) dimana ruang fiksi ini akan menjadi vektor eigen dari A. Vektor eigen sendiri hanya dapat diperoleh dari matriks yang berukuran (n x n), namun tidak setiap matriks berukuran (n x n) memiliki vektor eigen. [9] 22 21 12.5 16.75 14.75 −12 8 0 4 −1 3 −2 0 2.5 1.5 −4.5 0.5 0.25 2.25 −0.75 −1.75 3.25 0.25 1.25 −4.75

161.875 −93.875 −5.375 −62.625 −93.875 80.375 −14.125 27.625 −5.375 −14.125 26.375 −6.875 −62.625 27.625 −6.875 41.875 l c)Matriks kovarian

Vektor eigen untuk matriks kovarian pada gambar (2.9) yang dihasilkan oleh persamaan (2.12) dapat dicari dengan menggunakan persamaan (2.17) dan (2.18). Dengan menggunakan persamaan (2.17), didapatkan vektor eigen V dan nilai eigen S dari matriks kovarian L. Selanjutnya, vektor eigen V dikorelasikan terhadap dataNormal, sehingga dihasilkan vektor eigen U. [9]

eZ[e = f (2.17)

g = he , gi = jQ

jQ (2.18)

Dimana :

V = Vektor eigen dari matriks kovarian L D = Data normal S = Nilai eigen dari matriks kovarian L
 U = Vektor eigen

berkolerasi

L = Matriks kovarian


Adapun nilai eigen dan vektor eigen hasil yang dapat diperoleh dari kovarian pada matriks mean, matriks data normal dan matriks kovarian dengan persamaan (2.17) dan (2.18) dapat dilihat pada matriks berikut. [9] 0.6065 −0.1722 0.0112 0.9526 0.4549 −0.0785 0.4639 0.1513 0.2274 0.3796 0.7972 −0.0624 0.5307 −0.3817 0.3525 0.0261 0.3032 −0.8212 0.1579 −0.2552 a) Vektor eigen (0 26.3651 38.1497 245.9852) b) Nilai eigen

Dokumen terkait