• Tidak ada hasil yang ditemukan

BAB II TINJAUAN PUSTAKA

2.2 Landasan Teori

2.2.9 Principal Component Analysis (PCA)

Principal Component Analysis (PCA) adalah suatu analisis yang menjelaskan struktur varian kovarian dari suatu himpunan variable yang melalui beberapa kombinasi linier dari variable-variabel tersebut. Analisis komponen utama ini merupakan prosedur pengurangan variabel, dimana PCA merupakan kombinasi linier dari p variabel asli. Principal Component Analysis atau komponen utama suatu teknik statistik untuk mengubah darisebagian besar variabel asli yang digunakan dan saling berkorelasi satu dengan yang lainnya menjadi satu set variabel baru yang lebih kecil dan tidak berkorelasi[18]. Tujuan dari komponen utama adalah mengurangi suatu dimensi perubah yang saling berhubungan dan mempunyai variabel yang banyak sehingga memudahkan untuk menginterpretasikan data-data tersebut. Algoritma PCA dalam perhitungan zeromean adalah untuk mencari nilai mean dari citra dengan cara menurangkan ngan tujuan mencari mean dari semua citra kemudian mengurangkanyadan mencari nilai kovarian untuk citra latihnya. Setelah mendapatkan matrik kovarian melakukan reduksi, selanjutnya citra latih ditransformasikan ke dalam dimensi yang lebih rendah. Selanjutnya masuk ke tahap otentikasi, pada tahap otentikasi akan terjadi proses perhitungan dan mendapatkan hasil yang berupa tingkat akurasi[17].

2.2.9.1 Reduksi Dimensi PCA

Satu pendekatan terkait dengan dimensi yang tinggi adalah mengurangi dimensi data. Memproyeksikan data dimensi tinggi ke dimensi yang rendah menggunakan transformasi linier dan non-linier.

18

Misalkan ada data dengan menggunakan dua dimensi apabila diplot akan terlihat seperti gambar

dibawah ini:

Bahwasanya dalam PCA memakai dekomposisi Eigen vectors. Dimana dekomposisi tersebut merupakan Eigen vectors dan Eigen values. Eigen vector yang memiliki nilai Eigen value paling besar termasuk vektor yang searah dengan nilai yang memiliki korelasi tertinggi. contoh Eigen vector dengan eigen value terbesar adalah sebagai berikut:

Jika pada data yang diproyeksikan pada bidang eigen vector dengan eigen value terbesar, maka data tersebut akan menjadi data satu dimensi.

Logikanya dengan menggunakan data dimensi satu akan memiliki variance yang besar. Dalam kasus pattern classification, sistem yang memproses data pada dimensi satu dapat memiliki performa yang lebih

19

baik daripada sistemt memproses data mentah secara langsung. Sebagai contoh, ada dua kelas dalam data di atas. Kelas 1 direpresentasikan dengan warna merah, dan kelas 2 direpresentasikan dengan warna hijau.

Seperti yang diketahui, bahwa dengan menggunakan PCA, decision boundary dapat dibuat dengan mudah tanpa mengurangi nilai asli.

2.2.9.2 Mean and Mean-Corrected Data

Nilai Mean merupakan rata-rata dari sebuah data yang telah di ringkas. Untuk mendapatkan nilai mean yaitu dengan semua data dibagi dengan banyaknya data observasi[4]. Mean dari suatu variabel x dapat dirumuskan :

(3)

Dinama n = data observasi = nilai ke i dari variable x

Nilai mean dari data yang dikoreksi biasanya disebut dengan mean-corrected data[20]. Untuk nilai selisih dari observasi dengan nilai mean. Dalam cara matematisdapat dituliskan dengan persamaan :

20

No Data X Mean-corrected data

1 12 3,2 2 11 2,2 3 7 -1,8 4 5 -3,8 5 9 0,2 Mean= 8,8

Tabel 2.2. Contoh mean-corrected

2.2.9.3 Variansi

Variansi merupakan besaran statistika untuk menunjukkan suatu ukuran penyebaran data. Makin menyebar suatu data makin besar nilai variansinya dan bila tidak menyebar suatu data makin kecil nilai variansinya. Pada data seragam atau data yang tidak menyebar, nilai variansi adalah nol[20]. Variabel random merupakan variansi ukuran penyimpangan data, yang dimana data menyebar disekitar nilai rata-ratanya[18].

Untuk menghitung variansi suatu populasi berhingga ukuran N dapat menggunakan persamaan sebagai berikut:

( ) ( )

(4)

𝜇 = nilai mean dari sebuah populasi

= nilai observasi ke i

21 ( ̈)

( )

(5)

2.2.9.4 Kovarian

Kovarian menyatakan hubungan penyebaran data dari dua variabel yang berbeda atau lebih. Jadi, jika memiliki kumpulan data tiga dimensi (x,y,z) maka Kita bisa mengukur kovarian antara dimensi x dan y, dimensi x dan z, dan dimensi y dan z. Mengukur kovarian antara x dan x, atau y dan y, atau z dan z akan memberikan variansi dari dimensi masing-masing x, y dan z[20]. Apabila variable tersebut cenderung menyimapang searah maka kovarian antara dua variable tersebut bernilai positif, sedangkan jika ke dua variable tersebut cenderung menyimpang berlawanan arah maka kovarian dua variable tersebut bernilai negatif, jika ke dua variable tersebut saling bebas, maka nilai kovarian dari dua variable tersebut adalah nol[18].

Persamaan yang digunakan untuk menghitung kovarian suatu populasi berhingga ukuran N adalah sebagai berikut:

( ) ( )( ) (6)

xi dan yi = nilai obeservasi ke i

μ dan v = mean dari dari populasi x dan y berturut-turut

Sedangkan persamaan untuk menghitung kovarian untuk suatu sampel berukuran n yang diambil dari suatu populasi berukuran n adalah:

( ) ( ̈)( ̈) ( )

(7)

Analisis Komponen Utama dapat mengubah data dari berukuran besar menjadi data dengan ukuran yang lebih kecil. Vector eigen

22

dihasilkan dari matrik kovarian yang dimana sebelumnya dilakukan transformasi PCA basis ortonormal dalam menyajikan distribusi data secara optimal. Tugas dari PCA itu sendir untuk menhasilkan atau menangkap variasi total dari sebuah citra latih yang ada pada basis data. setelah itu dilakukan reduksiuntuk mendapatkan variabel-variabel yang lebih sedikit. Dengan reduksi dapat mengurangi waktu komputasi dan kompleksititas dari sebuah citra yang tidak dapat dihilangkan.

2.2.9.5 Matrik Kovarian

2.2.9.6 Eigen vector dan Eigen value

Eigen berasal dari bahasa jerman yang memiliki arti karakteristik. Eigen value didefinisikan sebagai nilai karakteristik suatu matrik. Sedangkan vector karakteristik dari matrik yang selalu bersesuaian dengan nilai eigen disebut vector eigen.

Eigen vector dari matrik persegi adalah vektor yang tidak bernilai nol dan apabila di kalikan dengan matrik, nilainya tetap sebanding dengan vektor asli. Nilai eigen yang sesuai untuk sebuah vektor eigen adalah factor yang mengalami perubahan vector eigen ketika dikalikan dengan matrik[20].

Misalkan A adalah sebuah matrik n x n. Vektor tak nol x pada Rn disebut suatu vektor eigen dari A jika Ax adalah suatu perkalian scalar dari x, yaitu :

Ax = λx

Untuk scalar λ ,Skalar λ disebut nilai eigen dari A dan x disebut vektor eigen dari A yang bersesuaian dangan λ. Untuk menghitung

[ ( ) ( ) ( ) ( ) ( ) ( ) ] (8)

Dokumen terkait