• Tidak ada hasil yang ditemukan

PENGENALAN WAJAH BERBASIS METODE TWO-DIMENSIONAL LINEAR DISCRIMINANT ANALYSIS

N/A
N/A
Protected

Academic year: 2021

Membagikan "PENGENALAN WAJAH BERBASIS METODE TWO-DIMENSIONAL LINEAR DISCRIMINANT ANALYSIS"

Copied!
14
0
0

Teks penuh

(1)

PENGENALAN WAJAH BERBASIS

METODE TWO-DIMENSIONAL LINEAR DISCRIMINANT ANALYSIS

Fitri Damayanti, Agus Zainal Arifin, Rully Soelaiman

Program Magister Teknik Informatika,

Institut Teknologi Sepuluh Nopember (ITS) - Surabaya Kampus ITS, Jl Raya ITS, Sukolilo, Surabaya,60111

email: [email protected]

Abstract

Linear Discriminant Analysis (LDA) has been widely used in linear pattern recognition for feature extraction and dimension reduction. It aims to find a set of projection vector that separate the different as far as possible while compressing the same class as compact as possible. It works by calculated the within class Swand between class Sbscatter matrices. In face

recognition application, generally the dimension of data larger than the number of samples, this causes the within class scatter matrix Swis singular, that can make the face features’s not well

extracted.

Two Dimensional Linear Discriminant Analysis (TDLDA) is used on this research for feature extraction, that evalutes directly the within class scatter matrix from the image matrix without image to vector transformation, and hence dilutes the singular problem of within class scatter matrix. This research will develops a face recognition application that combined Two Dimensional Linear Discriminant Analysis and Support Vector Machine. The combination of two methods give optimal results that have high accuracy of recognition between 84,18% until 100% with the ORL, YALE, and BERN database.

Key words : Linear Discriminant Analysis, Two Dimensional Linear Discriminant Analysis, Support Vector Machine

PENDAHULUAN

Pengenalan wajah dewasa ini telah menjadi salah satu bidang yang banyak diteliti dan

juga dikembangkan oleh para pakar pattern recognition, hal ini disebabkan karena semakin

luasnya penggunaan teknik identifikasi wajah dalam aplikasi yang digunakan oleh masyarakat. Para peneliti telah melakukan penelitian terhadap teknik yang sudah ada dan mengajukan teknik baru yang lebih baik dari yang lama, sampai saat ini banyak teknik baru yang telah diajukan akan tetapi teknik-teknik tersebut masih belum bisa memberikan akurasi yang optimal. Dua hal yang menjadi masalah utama pada identifikasi wajah adalah proses ekstraksi fitur dari sampel wajah yang ada dan juga teknik klasifikasi yang digunakan untuk mengklasifikasikan wajah yang ingin dikenali berdasarkan fitur-fitur yang telah dipilih.

(2)

Ekstraksi fitur adalah proses untuk mendapatkan ciri-ciri pembeda yang membedakan

suatu sampel wajah dari sampel wajah yang lain, bagi sebagian besar aplikasi pattern

recognition, teknik ekstraksi fitur yang handal merupakan kunci utama dalam penyelesaian

masalah pattern recognition. Metode Analisa Komponen Utama (PCA) untuk pengenalan wajah

dikenalkan oleh M Turk & Pentland, 1991. Metode tersebut bertujuan untuk memproyeksikan data pada arah yang memiliki variasi terbesar, yang ditunjukkan oleh vektor eigen yang bersesuaian dengan nilai eigen terbesar dari matriks kovarian. Kelemahan dari metode PCA adalah kurang optimal dalam pemisahan antar kelas. Pada tahun 1991, Cheng dkk memperkenalkan metode Analisa Diskriminan Linier (LDA) untuk pengenalan wajah. Metode ini mencoba menemukan subruang linear yang memaksimalkan perpisahan dua kelas pola menurut Fisher Criterion JF. Hal ini dapat diperoleh dengan meminimalkan jarak matriks sebaran

within-class Sw dan memaksimalkan jarak matriks sebaran between-class Sb secara simultan sehingga

menghasilkan Fisher Criterion JFyang maksimal. Diskriminan Fisher Linier akan menemukan

subruang dimana kelas-kelas saling terpisah linier dengan memaksimalkan Fisher Criterion JF.

Jika dimensi data jauh lebih tinggi daripada jumlah sample training akan menyebabkan Sw

menjadisingular. Hal tersebut merupakan kelemahan dari metode LDA [5].

Untuk mengatasi kovarian within class yang selalu singular karena small sample size

problem telah banyak metode yang ditawarkan. Pada tahun 1997, P.N. Belheumeur

memperkenalkan metode fisherface untuk pengenalan wajah. Metode ini merupakan

penggabungan antara metode PCA dan LDA. Proses reduksi dimensi dilakukan oleh PCA sebelum melakukan proses LDA. Hal ini bisa mengatasisingular problem. Tetapi kelemahan dari metode ini adalah pada saat proses reduksi dimensi PCA akan menyebabkan kehilangan beberapa

informasi diskriminan yang berguna dalam proses LDA [5]. Metode – metode lainnya yang bisa

mengatasi singular problem yaitu Direct-LDA, Null-space based LDA, Pseudo-inverse LDA,

Two-stage LDA, Regularized LDA [2]. Bagaimanapun, semua teknik LDA tersebut memakai model representasi data berdasarkan vektor. Menghasilkan vektor-vektor yang biasanya memiliki

dimensi tinggi. MetodeTwo Dimensional Linear Discriminant Analysis (TDLDA) menilai secara

langsung matrikwithin-class scatter dari matrik citra tanpa transformasi citra ke vektor, dan hal

itu mengatasi singular problem dalam matrik within-class scatter [6]. TDLDA memakai fisher

(3)

Dalam pengenalan wajah, proses klasifikasi sama pentingnya dengan proses ekstraksi fitur. Setelah fitur penting data atau citra wajah dihasilkan pada proses ekstraksi fitur, fitur-fitur tersebut nantinya akan digunakan untuk proses klasifikasi. Metode klasifikasi yang

digunakan adalah pengklasifikasi Support Vector Machine (SVM). Pengklasifikasi SVM

menggunakan sebuah fungsi atau hyperplane untuk memisahkan dua buah kelas pola. SVM akan

berusaha mencari hyperplane yang optimal dimana dua kelas pola dapat dipisahkan dengan

maksimal.

Penelitian ini mengintegrasikan TDLDA dan SVM untuk pengenalan wajah. TDLDA

sebagai metode ekstraksi fitur yang bisa mengatasi singular problem dan SVM sebagai metode

klasifikasi yang mempunyai kemampuan generalisasi yang tinggi dibanding metode klasifikasi KNN.

Two-Dimensonal Linear Discriminant Analysis (TDLDA)

TDLDA adalah pengembangan dari metode LDA. Didalam LDA pada pengenalan wajah dengan matrik 2D terlebih dahulu ditransformasikan kedalam bentuk citra vektor satu dimensi. Sedangkan pada TDLDA atau disebut teknik proyeksi citra secara langsung, matriks citra wajah 2D tidak perlu ditransformasikan kedalam bentuk citra vektor namun secara langsung matriks scatter citranya dapat dibentuk langsung dengan menggunakan matriks citra aslinya.

{A1,….,An} adalahn matriks citra, dimana Ai(i=1,…,k) adalah r x c matriks. Mi(i=1,…,k)

adalah rata-rata citra pelatihan dari kelas ke i dan M adalah rata-rata citra dari semua data

pelatihan. Menganggap l x1 l ruang dimensi (dimensional space) L2R, dimana

menunjukkan tensor product, L menjangkau {u1,…,u l1

} dan R menjangkau {v1,..,vl }. Sehingga didefinisikan dua matriks L = [u2 1,…,ul ] dan R =1

[v1,..,vl ] [3].2

Metode ekstraksi fitur adalah untuk menemukan L dan R sehingga ruang citra asli

(original image space) Ai dirubah kedalam ruang citra dimensi rendah (low-dimensional image)

menjadi Bi=LTAiR. Ruang dimensi rendah (low-dimensional space) diperoleh dengan

transformasi linier L dan R, jarak between-class Db dan jarak within-class Dw didefinisikan

sebagai berikut : Db= k n L M M R i i T i ( ) 1 −

= 2 F , (1)

(4)

Dw= 2 1 ) ( i F k i x T X M R L i

∑ ∑

= Π , (2)

dimana FmerupakanFrobenius norm.

Meninjau bahwa 2

F

A = Ptrace(ATA) = trace(AAT) untuk matriks A. Sedemikian

sehingga persamaan (5) dan (6) dapat direpresentasikan lebih lanjut sebagai :

Db= trace( ( ) ( ) ) 1 L M M RR M M L n T i T k i i T i − −

= , (3) Dw= trace( ( ) ( ) ). 1 L M X RR M X L T i T i k i x T i − −

∑ ∑

= ∈Π (4)

Sama halnya dengan LDA, metode TDLDA adalah untuk menemukan matriksL dan R,

sedemikian hingga struktur kelas dari ruang orisinil tetap didalam ruang proyeksi. Sehingga patokan (criterion) dapat didefinisikan sebagai :

J1(L,R) = max

W b

D

D . (5)

Hal tersebut jelas bahwa persamaan (9) terdiri dari matriks transformasiL dan R. Matriks

transformasi optimal L dan R dapat diperoleh dengan memaksimalkan Db dan meminimumkan

Dw. Bagaimanapun, sangat sulit untuk menghitung L dan R yang optimal secara simultan. Dua

fungsi optimasi dapat didefinisikan untuk memperoleh L dan R. Untuk sebuah R yang pasti, L

dapat diperoleh dengan menyelesaikan fungsi optimasi sebagai berikut :

J2(L) = maxtrace((LTSWRL)-1(LTSbRL)), (6) dimana SR b = T i T k i ni Mi M RR M M ) ( ) ( 1 − −

= , (7) SR W = ( ) ( ) . 1 T i T i k i x M X RR M X i − −

∑ ∑

= Π (8)

Dengan catatan bahwa ukuran matriks S dan SWR Rb adalah r x r yang lebih kecil daripada ukuran matriksSwdanSbpadaLDA klasik.

Untuk sebuah L yang pasti, R dapat diperoleh dengan menyelesaikan fungsi optimasi

sebagai berikut :

J3(R) = maxtrace((RTSWLR)-1(RTSLbR)), (9)

(5)

SL b = ( ) ( ) 1 M M LL M M n T T i k i i i − −

= , (10) SL W = ( ) ( ), 1 i T T i k i x i X M LL X M − −

∑ ∑

= ∈Π (11)

Ukuran matriksSwLdanSLbadalahc x c yang lebih kecil daripada ukuran matriks SwdanSb

padaLDA klasik.

Secara khusus, untuk sebuah R yang pasti, L yang optimal dapat diperoleh dengan

menyelesaikan generalized eigenvalue problem dari persamaan (6). Demikian pula, R dapat

diperoleh dengan menyelesaikangeneralized eigenvalue problem dari persamaan (9) pada L yang pasti.

Support Vector Machine (SVM)

SVM berusaha menemukanhyperplane yang terbaik pada input space. Prinsip dasar SVM

adalah linear classifier, dan selanjutnya dikembangkan agar dapat bekerja pada problem

non-linear. dengan memasukkan konsep kernel trick pada ruang kerja berdimensi tinggi. [4]

SVM dapat melakukan klasifikasi data yang terpisah secara linier (linearly separable) dan

nonlinier (nonlinear separable) [1]. Linearly separable data merupakan data yang dapat

dipisahkan secara linier. Misalkan {x1,..., xn} adalah dataset danxi∈ℜd dan yi ∈{+1, 1} adalah

label kelas dari dataxi.. Anggap ada beberapa hyperplane yang memisahkan sampel positif dan

negatif, maka x yang berada pada hyperplane akan memenuhi persamaan w.x + b= 0. Untuk

permasalahan data linier, algoritma support vector hanya mencari hyperplane dengan margin

yang terbesar (jarak antara dua kelas pola). Hard margin hyperplane ditunjukkan pada Gambar

1. Hyperplane terbaik tidak hanya dapat memisahkan data dengan baik tetapi juga yang

memiliki margin paling besar. Data yang berada pada bidang pembatas ini disebutsupport vector. Untuk menyelesaikan permasalahan data nonlinier dalam SVM adalah dengan cara memetakan data ke ruang dimensi lebih tinggi( ruang fitur atau feature space) [1], dimana data pada ruang tersebut dapat dipisahkan secara linier, dengan menggunakan transformasi Ô.

Η ℜ Φ d a

(6)

Gambar 1. Hard margin hyperplane.

Dengan demikian algoritma pelatihan tergantung dari data melaluidot product dalam H. Sebagai contoh Ô(xi). Ô(xj). Jika terdapat fungsi kernel K, sedemikian hingga K(xi,xj) = Ô(xi).

Ô(xj), dengan demikian dalam algoritma pelatihan hanya memerlukan fungsi kernel K, tanpa

harus mengetahui transformasi Ô secara pasti.

SVM pertama kali dikembangkan oleh Vapniks untuk klasifikasi biner, namun

selanjutnya dikembangkan untuk klasifikasi multiclass (banyak kelas). Pendekatannya adalah

dengan membangun multiclass classifier, yaitu dengan cara menggabungkan beberapa SVM

biner. Pendekatan ini terdiri dari metode satu lawan semua (One Against All) dan metode satu lawan satu (One Against One) [1].

PERANCANGAN SISTEM

Secara garis besar sistem terdiri dari dua bagian, yaitu proses pelatihan citra dan proses pengujian. Pada Gambar 2 merupakan gambaran garis besar sistem pengenalan wajah. Pada proses pelatihan terdapat proses TDLDA yang digunakan untuk mengekstraksi fitur, fitur-fitur yang terpilih pada saat proses pelatihan digunakan dalam proses klasifikasi dan juga digunakan untuk mendapatkan fitur-fitur yang terpilih pada data uji coba. Masing-masing basis data wajah yang digunakan dibagi menjadi dua, sebagian digunakan untuk proses pelatihan (training) dan sisanya digunakan untuk proses pengujian (testing).

hyperplane xi.w+b = 0 S u p p o r t v e c to r Kelas 2 Kelas 1 xi.w+b = -1 xi.w+b = +1 -b/w m

(7)

Proses Pelatihan Proses Pengujian

Gambar 2. Sistem Pengenalan Wajah.

Desain Algoritma TDLDA

Berikut ini adalah langkah-langkah dalam proses TDLDA terhadap suatu basis data citra pelatihan :

1. Jika dalam suatu basis data citra wajah terdapat himpunan sebanyak n citra pelatihan Ai = [A1,A2,…,An] (i = 1,2,…,n) dengan dimensi citra (r x c), maka himpunan total matriks dari semua citra tersebut adalah :

An=               rc n r n r n c n n n c n n n A A A A A A A A A ) ( 2 ) ( 1 ) ( 2 ) ( 22 ) ( 21 ) ( 1 ) ( 12 ) ( 11 ) ( ... ... ... ... ... ... ...

2. Menentukan nilai l (dimensi proyeksi baris) dan1 l (dimensi proyeksi kolom). Nilai2 l r1 dan l c.2

3. Tahapan berikutnya adalah perhitungan rata-rata citra pelatihan dari kelas kei :

∈Π = i X i i n X M 1

Memasukkan basis data pelatihan

Ekstraksi fitur TDLDA

Pengklasifikasi SVM

Memasukkan data pengujian

Ekstraksi fitur data pengujian

Pengklasifikasi SVM

Data hyperplane

(8)

4. Menghitung rata-rata semua citra pelatihan : M = n 1

∑ ∑

= ∈Π k i 1 X iX

5. Menetapkan matriks transformasi R ukuran (c, l ) yang diperoleh dari gabungan antara2

matriks identitas ukuran (l ,2 l ) dengan matriks nol ukuran (c-2 l ,2 l ).2 6. Menghitung matriksbetween class scatter R

SR b = T i T k i i i M M RR M M n( ) ( ) 1 − −

= , ukuran matriksnya (r x r). 7. Menghitung matriks within class scatter R

SR W = ( ) ( ) , 1 T i T i k i x M X RR M X i − −

∑ ∑

= ∈Π ukuran matriksnya (r x r).

8. Hitunggeneralized eigenvalue (λi) dariSRb danSWR menggunakan SVD J4(L) = maxtrace((LTSWRL)-1(LTSbRL)), ukuran matriksnya (r x r).

9. Ambil sebanyak l eigenvector dari langkah 8 sebagai matriks transformasi baris (L). L =1 [

φ

1L, ...,

φ

lL1], ukuran matriksnya (r x l ).1

10. Menghitung matriksbetween class scatter L SL b= ( ) ( ) 1 M M LL M M n T T i k i i i − −

= , ukuran matriksnya (c x c). 11. Menghitung matrikswithin class scatter L

SL W= ( ) ( ), 1 i T T i k i x i X M LL X M − −

∑ ∑

= Π ukuran matriksnya (c x c).

12. Hitunggeneralized eigenvalue (λi) dariSLb danSWL menggunakan SVD J5(R)=maxtrace((RTSWLR)-1(RTSbLR)), ukuran matriksnya (c x c).

13. Ambil sebanyak l eigenvector dari langkah 12 sebagai matriks transformasi kolom (R). R =2 [

φ

1R, ...,

φ

lR2], ukuran matriksnya (c x l ).2

(9)

15. Output : matriks fitur ektraksi Bi, matriks transformasi baris L, dan matriks transformasi

kolomR.

Desain Algoritma SVM

Blok diagram proses pelatihan dan pengujian SVM dapat ditunjukkan pada Gambar 3.

Gambar 3. Blok diagram proses pelatihan dan klasifikasi menggunakan SVM.

Pengklasifikasian dengan SVM dibagi menjadi dua proses, yaitu proses pelatihan dan proses pengujian. Pada proses pelatihan SVM menggunakan matriks fitur yang dihasilkan pada

Proses pengujian pada setiap SVM biner

Membangun sejumlahk SVM biner (k adalah jumlah kelas)

Memetakaninput space ke feature space menggunakan kernel Gaussian

K(x,y) = exp ) ) 2 ( | | ( 2 2 σ y x− −

Menentukan sejumlahsupport vector dengan cara menghitung nilai alpha

á1, ..., áN(N = sejumlah data pelatihan) menggunakan quadratic

programming

= = − = l i i i j i j i j l i i x x y y Q 1 , 1 2 1 ) (α α αα rr Subject to : 0( 1,2,..., ) 0 1 = = ≥

= i l i i i i l α y α

Data xri yang berkorelasi denganái > 0 inilah yang disebut sebagai

support vector

Solusi bidang pemisah didapatkan dengan rumus w =Óáiyixi ; b = yk

-wTx

kuntuk setiapxk, dengan ák≠0.

Memetakaninput space ke feature space menggunakan kernel Gaussian

K(x,y) = exp ) ) 2 ( | | ( 2 2 σ y x− −

Menghitung fungsi keputusan :

i i d i i K x x w b f = ( , ) +

Dimana :i = 1 sampai k; xi= support vector; xd= data pengujian

Menentukan nilaifiyang paling maksimal. Kelasi dengan fi terbesar adalah kelas dari data pengujian

(10)

proses ekstraksi fitur sebagai input. Sedangkan pada pengujian SVM memanfaatkan matriks proyeksi yang dihasilkan pada proses ekstraksi fitur yang kemudian dikalikan dengan data uji (sampel pengujian) sebagai input.

Pengklasifikasian SVM untuk multiclass One Against All akan membangun sejumlah k

SVM biner ( k adalah jumlah kelas). Fungsi keputusan yang mempunyai nilai maksimal, menunjukkan bahwa dataxdmerupakan angggota dari kelas fungsi keputusan tersebut.

Data pelatihan yang sudah diproyeksikan oleh TDLDA, selanjutnya menjadi data pelatihan SVM. Jika sebaran data yang dihasilkan pada proses TDLDA mempunyai distribusi yang tidak linier, maka salah satu metode yang digunakan SVM untuk mengklasifikasikan data tersebut adalah dengan mentransformasikan data ke dalam dimensi ruang fitur (feature space),

sehingga dapat dipisahkan secara linier pada feature space. Karena feature space dalam

prakteknya biasanya memiliki dimensi yang lebih tinggi dari vektor input (input space). Hal ini

mengakibatkan komputasi pada feature space mungkin sangat besar, karena ada kemungkinan

feature space dapat memiliki jumlah feature yang tidak terhingga.

Maka pada SVM digunakan ”kernel trick”. Fungsi kernel yang digunakan pada

penelitian ini adalah Gaussian

K(x,y) = exp ) ) 2 ( | | ( 2 2 σ y x− − . (13)

Sejumlah support vector pada setiap data pelatihan harus dicari untuk mendapatkan solusi bidang pemisah terbaik. Persoalan solusi bidang pemisah terbaik dapat dirumuskan :

= = − = l i i i j i j i j l i i x x y y Q 1 , 1 2 1 ) (α α αα rr , (14) dimana: 0( 1,2,..., ) 0 1 = = ≥

= i l i i i i l α y α .

Data xr yang berkorelasi dengan ái i > 0 inilah yang disebut sebagai support vector.

Dengan demikian, dapat diperoleh nilai yang nantinya digunakan untuk menemukan w. Solusi

bidang pemisah didapatkan dengan rumus w =Óáiyixi ; b = yk- wTxkuntuk setiapxk, dengan

ák≠0.

Proses pengujian atau klasifikasi dilakukan juga pada setiap SVM biner menggunakan

nilai w, b, dan xi yang dihasilkan pada proses pelatihan di setiap SVM biner. Fungsi yang

(11)

, ) , ( i d i i i K x x w b f = + (15)

dimana : i = 1 sampai k; xi = support vector; xd = data pengujian. Outputnya adalah berupa

indeksi dengan fiterbesar yang merupakan kelas dari data pengujian.

HASIL DAN PEMBAHASAN

Uji coba terhadap sistem pengenalan wajah yang dikembangkan pada penelitian ini dilakukan pada tiga jenis basis data wajah baku yaitu,Olivetti Research Laboratorium atau Basis

Data ORL, dan The Yale Face Database atau Basis Data Yale, dan The University of Bern atau

Basis Data Bern. Untuk masing-masing basis data wajah, pelatihan menggunakan 3 wajah (uji 3), 4 wajah (uji 4), 5 wajah (uji 5). Sisa wajah yang tidak ditraining digunakan sebagai data pengenalan.

Metode yang digunakan dalam pengujian ini ada dua kelompok. Kelompok pertama menggunakan metode TDLDA untuk ekstraksi fitur dan metode SVM untuk klasifikasi. Kelompok yang kedua menggunakan metode TDLDA sebagai ekstraksi fitur dan metode K-Nearest Neighbor (KNN) menggunakan Euclidean Distance sebagai klasifikasi.

Tabel 1 Hasil Uji Coba menggunakan TDLDA-KNN.

Prosentase Pengenalan Database

Uji 3 Uji 4 Uji 5

ORL 92,14 % 94,58 % 97,00 %

Yale 91,67 % 97,14 % 98,89 %

Bern 82,65 % 92,26 % 95,71 %

Tabel 2 Hasil Uji Coba menggunakan TDLDA-KNN.

Prosentase Pengenalan Database

Uji 3 Uji 4 Uji 5

ORL 92,86 % 96,67 % 97,50 %

Yale 95,00 % 99,05 % 100 %

Bern 84,18 % 94,05 % 97,14 %

Berdasarkan Tabel 1 dan Tabel 2 menunjukkan bahwa prosentase pengenalan TDLDA-SVM lebih tinggi dibandingkan dengan TDLDA-KNN.

(12)

Untuk melihat kelebihan dari algoritma TDLDA-SVM, selain dibandingkan dengan metode TDLDA-KNN, juga dibandingkan dengan metode 2DPCA dan Fisherface. Perbandingan hasil uji coba antara metode TDLDA-SVM dengan TDLDA-KNN, 2DPCA, dan Fisherface menggunakan database ORL dapat dilihat pada Tabel 3.

Tabel 3 Perbandingan Hasil Uji Coba Dengan Basis Data ORL.

Variasi Prosentase Pengenalan

Pengujian TDLDA-SVM TDLDA-KNN 2DPCA* Fisherface**

Uji ORL 3 92,86 % 92,14 % 91,80 % 84,50 %

Uji ORL 4 96,67 % 94,58 % 95,00 % 91,46 %

Uji ORL 5 97,50 % 97,00 % 96,00 % 95,15 %

Ket : * diperoleh dari sumber [7] ** diperoleh dari sumber [3]

Pada Tabel 3 menunjukkan bahwa prosentase pengenalan TDLDA-SVM lebih tinggi dibanding dengan metode lainnya (TDLDA-KNN, 2DPCA, Fisherface).

Untuk lebih memudahkan melihat perbedaan hasil uji coba antara metode TDLDA-SVM dengan metode lainnya akan digunakan diagram batang. Gambar 4 menunjukkan hasil uji coba terhadap Basis Data ORL untuk metode TDLDA-SVM dengan metode lainnya.

7 5 , 0 0 8 0 , 0 0 8 5 , 0 0 9 0 , 0 0 9 5 , 0 0 10 0 , 0 0 O R L 3 O R L 4 O R L 5 Jum la h D a ta P e la tih a n P e r K e la s P ro se nt as e P en ge na la n 2 D LD A + S V M 2 D LD A + K -N N 2 D P C A F is h e rfa c e

Gambar 4. Grafik tingkat keberhasilan pengenalan untuk tiap variasi pengujian pada Basis Data ORL menggunakan metode TDLDA-SVM dan metode lainnya.

Keunggulan metode TDLDA - SVM dibanding metode lainnya, adalah sebagai berikut : 1. TDLDA - SVM dibanding dengan TDLDA - KNN.

(13)

Pada KNN tidak memperhatikan distribusi dari data hanya berdasarkan jarak data baru itu ke beberapa data / tetangga terdekat. Bisa saja data / tetangga terdekat ternyata bukan kelompoknya, sehingga klasifikasi yang dihasilkan salah.

Pada SVM memperhatikan distribusi data sehingga berusaha untuk menemukan fungsi pemisah (klasifier) yang optimal yang bisa memisahkan dua set data dari dua kelas yang berbeda. Setiap kelas memiliki pola yang berbeda dan dipisahkan oleh fungsi pemisah, sehingga jika ada data baru yang akan diklasifikasikan akan diketahui kelas yang sesuai dengan data baru tersebut. Dengan demikian klasifikasi yang dihasilkan lebih sempurna dibanding dengan metode klasifikasi lainnya.

2. TDLDA - SVM dibandingkan dengan 2DPCA.

Pada 2DPCA lebih pada pengoptimalan representasi data daripada pengoptimalan diskriminan data, sehingga data-data tidak terpisah dengan sempurna.

Pada TDLDA kemampuan pengoptimalan diskriminan data sangat lebih dibanding dengan 2DPCA, sehingga dapat mengelompokkan vektor data dari kelas yang sama dan memisahkan kelas yang berbeda.

3. TDLDA - SVM dibandingkan dengan Fisherface.

Pada Fisherface prosedurpre-processing untuk mereduksi dimensi menggunakan PCA dapat

menyebabkan kehilangan beberapa informasi diskriminan yang penting untuk algoritma LDA yang diterapkan setelah PCA.

Pada TDLDA mengambil keuntungan penuh dari informasi yang diskriminatif dari ruang

lingkup wajah (face space), dan tidak membuang beberapa subruang (subspace) yang

mungkin berguna untuk pengenalan.

SIMPULAN

Dari uji coba yang sudah dilakukan dapat diambil simpulan sebagai berikut :

1. Metode TDLDA - SVM mampu menunjukkan akurasi pengenalan yang optimal

dibandingkan dengan metode lainnya (TDLDA - KNN, 2DPCA, Fisherface). Hal ini

dikarenakan TDLDA mampu mengatasi singular problem, mampu mempertahankan

keberadaan informasi diskriminatif, serta mampu memaksimalkan jarak antar kelas dan meminimalkan jarak inter kelas. Sedangkan SVM mempunyai kemampuan menemukan fungsi pemisah (klasifier) yang optimal.

(14)

2. Terdapat tiga variabel penting yang mempengaruhi tingkat keberhasilan pengenalan, yaitu variasi urutan dari sampel pelatihan per kelas yang digunakan, jumlah sampel pelatihan per kelas yang digunakan, dan jumlah dimensi proyeksi.

DAFTAR PUSTAKA

[1] Burges JC. A Toturial on Support Vector Machines for Pattern Recognition, Data Mining

and Knowledge Discovery. 2 (2) : 955-974. 1998.

[2] Kong H, Wang L, Teoh EK, Wang JG and Venkateswarlu R. A framework of 2D Fisher discriminant analysis : application to face recognition with small number of training samples. IEEE Conf. CVPR. 2005.

[3] Liang Z, Li Y and Shi P. A note on two-dimensional linear discriminant analysis. Pattern Recogn. 2122-2128. 2008.

[4] Nugroho AS., Witarto BA, Handoko D. Support Vector Machine – Teori dan Aplikasinya

Dalam Bioinformatika. Kuliah Umum Ilmu Komputer.com. 2003. URL:

http://www.ilmukomputer.com/anto-SVM.pdf, diakses tanggal 16 Maret 2008.

[5] Belhumeur PN, Hespanha JP and Kriegman DJ. Eigenfaces vs Fisherfaces Recognition Using

Class Specific Linear Projection. IEEE Transactions on Pattern Analysis and Machine

Intelligence. 19 (7) : 711 – 720. 1997.

[6] Quan XG, Lei Z and David Z. Face Recognition Using FLDA With Single Training Image Per Person.Applied Mathematics and Computation. 205 : 726-734. 2008.

[7] Yang J, Zhang D, Frangi AF and Yang JY. Two-dimensional pca : a new approach to

appearance-based face representation and recognition. IEEE Transactions on Pattern

Gambar

Gambar 1. Hard margin hyperplane.
Gambar 2. Sistem Pengenalan Wajah.
Gambar 3. Blok diagram proses pelatihan dan klasifikasi menggunakan SVM.
Tabel 3 Perbandingan Hasil Uji Coba Dengan Basis Data ORL.

Referensi

Dokumen terkait

Artinya konsumen yang loyal terhadap suatu produk, mereka akan selalu setia membeli produk yang dihasilkan oleh perusahaan tersebut selama produk yang mereka beli

Berdasarkan uraian yang telah dipaparkan oleh penulis, untuk itu penulis tertarik mengadakan penelitian tentang PENGARUH PROFITABILITAS, STRUKTUR ASET, & CURRENT RATIO

sanksi dalam hukum pidana dijatuhkan semata-mata karena orang telah melakukan kejahatan yang merupakan akibat mutlak yang harus ada sebagai suatu pembalasan kepada orang

Berdasarkan latar belakang di atas penulis merasa tertarik melakukan penelitian tentang proses PILKADA yang telah di laksanakan pada tanggal 9 Desember 2015 oleh

Paragdima tersebut disebut relationship marketing dasar pemikiran dalam praktek pemasaran ini adalah, membina hubungan yang lebih dekat dengan menciptakan

Tidak terpenuhinya hak atas kesehatan yang menjadi kewajiban negara dapat dikategorikan sebagai bentuk pelanggaran hak asasi manusia baik pada tingkat pelaksana

Puji syukur kepada Allah SWT yang telah melimpahkan hidayah dan inayah-Nya, sehingga penulis dapat menyelesaikan karya tulis ilmiah pada bidang politik, hukum dan

Penelitian ini bertujuan untuk meningkatkan minat belajar matematika siswa dengan pemanfaatan media pembelajaran berbasis Teknologi Informasi dan Komunikasi melalui program