ANALISIS TERHADAP FUNGSI KERNEL POLINOMIAL PADA METODE KDDA UNTUK PENGENALAN WAJAH
ANALYSIS OF KERNEL POLYNOMIAL FUNCTION ON KDDA METHOD FOR FACE RECOGNITION
Rustam Efendi¹, Fazmah Arief Yulianto², Eddy Muntina Dharma³
¹Teknik Informatika, Fakultas Teknik Informatika, Universitas Telkom
Abstrak
nonlinier, sehingga tidaklah mengherankan apabila teknik linier ekstraksi feature wajah seperti principle component analysis (PCA) atau linier discriminant
analysis (LDA) tidak dapat memberikan solusi yang cukup baik dan handal dalam mengatasi permasalahan nonlinier. Salah satu solusi dari kegagalan teknik linier ekstraksi feature wajah dalam masalah nonlinier adalah gagasan penggunaan fungsi kernel. Beberapa algoritma yang menggunakan fungsi kernel telah terbukti dapat mengatasi permasalahan nonlinier yang dihadapi teknik linier ekstraksi feature wajah, salah satunya adalah algoritma kernel direct discriminant analysis (KDDA) yang merupakan pengembangan dari algoritma direct linier discriminant analysis (DLDA) dan generalized discriminant analysis (GDA).
Tugas akhir ini menganalisa performansi dari metode KDDA yang
menggunakan kernel polinomial dengan melakukan pengujian dan perbandingan dengan metode direct fractional linear discriminant analysis (DF-LDA). Hasil dari pengujian menunjukkan bahwa performansi dari metode KDDA yang diukur dengan tingkat akurasinya adalah 49%-60% (2 sampel), 69%-75% (3 sampel), 82%-88% (4 sampel), 90%-94% (5 sampel), dan 98%-99% (6 sampel), sedangkan performansi dari metode DF-LDA adalah 56% (2 sampel), 70% (3 sampel), 84%
(4 sampel), 94% (5 sampel), dan 98% (6 sampel).
Kata Kunci : pengenalan wajah, metode kernel, KDDA, DF-LDA.
Abstract
Feature extraction is the fundamental problem in pattern recognition. It is well known that the feature distribution of face images under a perceivable variation in viewpoint, illumination and facial expression is highly nonlinear, so it is not suprising that linear techniques, such those based on principle component analysis (PCA) or linear discriminant analysis (LDA), cannot provide reliable and robust solution to those problems. One of solution to failure of linear techniques on feature extraction to those nonlinear problem is the idea of using kernel function. Some algorithm that utilize kernel function have been proved to overcome those problems faced by linear techniques on feature extraction, one of those algorithm is kernel direct discriminant analysis (KDDA) algorithm which generalized from linear direct discriminat analysis (DLDA) and generalized discriminant analysis (GDA).
This final task analyze the performance of KDDA method with kernel polynomial by experiment and compared it with direct fractional linear discriminant analysis (DF-LDA) method. The result of experiments on KDDA method performance are 49%-60% (2 sample), 69%-75% (3 sample), 82%-88%
(4 sample), 90%-94% (5 sample), and 98%-99% (6 sample), otherwise DF-LDA performance are 56% (2 sample), 70% (3 sample), 84% (4 sample), 94% (5 sample), and 98% (6 sample).
Keywords : face recognition, kernel method, KDDA, DF-LDA.
Tugas Akhir - 2007
Analisis Terhadap Fungsi Kernel Polinomial Pada Metode KDDA untuk Pengenalan Wajah
2. Landasan Teori
2.1 Kernel Trick
Kernel trick seperti yang dijelakan pada referensi [6] adalah metode untuk mengubah algoritma klasifikasi linier ke bentuk nonlinier-nya, dengan cara memetakan data pada real space, vektor ruang dari citra asli ke high-dimensional space, vektor ruang hasil transformasi citra asli, sehingga klasifikasi linier pada high-dimensional space akan ekivalen dengan klasifikasi nonlinier pada real space. Kernel trick akan mengganti dot product pada algoritma linier yang terdapat pada high-dimensional space dari fungsi transformasi x dengan fungsi kernel K x, y sehingga
y x y x
K , (2.1)
dan fungsi transformasi tidak perlu dikomputasi secara eksplisit. Fungsi yang dapat dikatakan sebagai fungsi kernel adalah fungsi yang memenuhi teorema Mercer’s :” setiap fungsi K x, y yang symetric non-negative definite dapat diekspresikan sebagai dot product pada high-dimensional space.”, secara formal, jika
0 ,
1 1
n
i n
j
j i j i x cc x
K (2.2)
Persamaan diatas menyatakan untuk setiap finite subset xi, ,xj dari X dan setiap subset ci, ,cj dari bilangan real, akan terdapat sebuah fungsi seperti pada persamaan (2.1).
2.2 Metode KDDA
Permasalahan pengenalan wajah seperti yang disebutkan pada referensi [5]
biasanya dinyatakan secara formal sebagai berikut : sejumlah L citra wajah training zi Li 1 telah tersedia dan setiap citra wajah didefinisikan sebagai vektor dengan ukuran N Iw Ih dan zi N, dimana Iw Ih adalah ukuran citra wajah dan N merupakan real space berdimensi N, dan setiap citra wajah merupakan anggota dari salah satu C kelas, Wi Ci 1. Tujuan yang ingin dicapai adalah menemukan fungsi transformasi f , berdasarkan optimasi dari kriteria pembeda tertentu yang menghasilkan fungsi pemetaan yi zi , dengan
M
yi yang merupakan nilai pemisah antar objek wajah.
Tugas Akhir - 2007
Analisis Terhadap Fungsi Kernel Polinomial Pada Metode KDDA untuk Pengenalan Wajah
Penyelesaian masalah pengenalan wajah diatas menggunakan metode KDDA akan dijabarkan sebagai berikut [5]. Pertama kita misalkan : z N z H merupakan pemetaan non-linier dari real space ke high-dimensional feature space H, dimana kelas-kelas yang berbeda akan terpisahkan secara linier [5]. Matrik between-class scatter S , matrik within-class scatter b S , mean populasi w , dan vektor mean dari kelas ke-i i pada feature space bisa didapatkan dari citra wajah training. dan i dinyatakan sebagai
L
j
zj
L 1 1
(2.3)
Si
j j i
i z
S 1 1
(2.4)
dengan S adalah jumlah sampel citra untuk kelas ke-i. i
Metode KDDA menggunakan dua buah matrik sebaran pada feature space yaitu S dan b S , berikut adalah tahapan-tahapan dalam algoritma KDDA. w
2.2.1 Analisa Eigen Matrik Sebaran S pada Feature Space b
Tahap pertama dalam metode KDDA adalah analisa eigen dari matrik sebaran S pada feature space untuk mendapatkan eigenvector dan eigenvalue-nya. b
Persamaan dari matrik sebaran S adalah sebagai berikut : b
C
i
T b b C
i T i i T
i i i
i
b L
S L
S S
1 1
~
~
(2.5)
dengan i i i
L
~ S
dan b ~ ~C
1 , karena dimensi dari feature space H memiliki ukuran yang sangat besar maka tidak mungkin untuk melakukan komputasi eigenvector secara langsung dari matrik S b dengan dimensi sebenarnya, akan tetapi t C 1 eigenvector pertama yang paling signifikan dari S , yang memiliki eigenvalue tak nol bisa didapatkan secara tidak langsung dari b
matrik Tb b (dengan ukuran C C) [7]. Komputasi Tb b memerlukan perhitungan dot product pada H, hal ini dapat dilakukan dengan menggunakan pendekatan kernel, yaitu untuk setiap zi , zj H , terdapat sebuah fungsi kernel k seperti k zi,zj zi zj . Penggunaan fungsi kernel
Tugas Akhir - 2007
Analisis Terhadap Fungsi Kernel Polinomial Pada Metode KDDA untuk Pengenalan Wajah
memungkinkan kita menghindari perhitungan fungsi pemetaan ke high- dimensional space secara langsung. misal, untuk dua kelas W dan l W dapat h didefinisikan sebuah Cl Ch matrik dot product K sebagai lh
h
l j C
C ij i
lh k
K 1, , ; 1, ,
(2.6)
dengan kij k zli,zhj li hj, kemudian untuk semua C kelas Wi Ci 1, kita definisikan matrik kernel Kr berukuran L L.
C h C lh l
r K
K 1, , ; 1,
(2.7)
Matrik kernel K memungkinkan kita untuk menuliskan r Tb b sebagai berikut :
C j C j i T i C T
C b
T
b 1 1 1, , ; 1, ,
~
~
~
~
~
~
(2.8)
dengan
T j T T
i j T i j i j T
i N
S
~ S
~
(2.9)
Selanjutnya tiap term pada persamaan (2.9) diatas ditulis ulang menggunakan matrik kernel K r
C
l S
k C
h S
m km lh C
h S
m hm C T
l S
k lk
T l h l h
L k L
L 1 1 1 1 2 1 1 1 1
1 1
1
(2.10)
LC r T LC C
j C i
T K
L1 1 1
, 2 , 1
; , , 1
(2.11)
C
l S
k S
m km lj j
S
m jm j C T
l S
k lk j
T l
j l j
LS k S
L 1 1 1 1 1 1
1 1
1
(2.12)
LC r T C LC j C j i
T K A
L 1 1
, , 1
; , , 1
(2.13)
i l
l
i S
m C
l S
k mk il i
C
l S
k lk S T
m im i T
i k
LS L
S 1 1 1 1 1 1
1 1
1
(2.14)
LC r T C LC
j C i T
i A K
L1 1
, , 1
; , , 1
(2.15)
Tugas Akhir - 2007
Analisis Terhadap Fungsi Kernel Polinomial Pada Metode KDDA untuk Pengenalan Wajah
i j
i j S
m S
n mn ij j
i S
n jn j S T
m im i j T
i k
S S S
S 1 1 1 1
1 1
1
(2.16)
LC r T C LC j C j i T
i A K A
, , 1
; , , 1
(2.17)
sehingga
B L K
A L K
K L A A K A
LB r LC
T LC LC
r T LC LC
r T LC LC
r T LC b
T
b 1 1 1
11 1 1
1
: 2 (2.18)
dengan B diag S1 SC , 1 LC adalah matrik berukuran L C dengan semua nilai term sama dengan 1,
CC
c
LC diag a a
A 1 adalah sebuah matrik diagonal berukuran L C, dan
Ci
a adalah sebuah vector S i 1 dengan semua nilai term sama dengan 1 Si , misalkan i dan e i i 1 C adalah eigenvalue ke-i dan eigenvector yang bersesuaian dari Tb b yang terurut dalam urutan decreasing berdasarkan eigenvalue-nya, karena b Tb bei i bei , maka vi bei adalah eigenvector dari S . Eigenvectors yang digunakan hanya b t C 1 eigenvectors yang pertama, V v1 vt bE, yang memiliki eigenvalue lebih besar dari 0, dengan E e1 et , hal ini dilakukan untuk menghilangkan null space pada S . Kesimpulan yang didapatkan dari penjabaran diatas adalah b
b b TSV
V , dengan b diag 12 t2 merupakan sebuah matrik diagonal berukuran t t.
2.2.2 Analisa Eigen Matrik Sebaran S pada Feature Space w
Analisa eigen S w dimulai dengan mendefinisikan matrik U V b12, selanjutnya S dan b S diproyeksikan ke subspace yang direntangkan oleh U w yang menghasilkan UTSbU I dan UTSwU dapat dijabarkan sebagai
12 12
b b w T b T b w
TS U E S E
U (2.19)
dengan memamfaatkan matrik kernel Kr, TbSw b dapat diuraikan sebagai
C j C j i w T i C w
T C b
w T
bS S S
, , 1
; , , 1 1
1
~
~
~
~
~
~
(2.20)
dengan
Tugas Akhir - 2007
Analisis Terhadap Fungsi Kernel Polinomial Pada Metode KDDA untuk Pengenalan Wajah
j
C
l S
k
T l lk l lk T
i j w T i
l
S ~ L1 ~ ~
~
1 1
j
C
l
C
l
T l l l T
l S
k lk C
l S
k
C
l S
k T lk l T
lk lk T
i S
L
l
l l ~
1 ~
1 1 1
1 1 1 1
C
l S
k
C
l
j T l l T i l j
T lk lk T i
l
L 1 1 1S
~
~
~ 1 ~
(2.21)
selanjutnya, term C
l S
k j
T lk lk T i
l
1 1
~
~ diuraikan menjadi
C
l S
k
T lk lk T j T lk lk T T lk lk T i j T lk lk T i j
C i
l S
k
j T lk lk T i
l l
L S S
1 1
1 1
~
~
(2.22) kemudian matrik kernel digunakan untuk menguraikan setiap term pada persamaan (2.22) sebagai berikut :
C
l S
k
C
l S
k S
m S
n
kn lj mk il j
i S
n jn T lk S
m lk T im j
i C
l S
k
j T lk lk T i
l i j l i j
l
k S k
S S
S 1 1 1 1 1 1 1 1
1 1
1
~ 1
~
(2.23)
LC r r T LC C j C i C
l S
k
j T lk lk T
i A K K A
l
, , 1
; , , 1 1 1
(2.24)
C
l S
k
C
l
C
l S
k S
n C
h S
m
km lh nk il i
S
k
C
h S
m
hm T lk S
n lk T in i
T lk lk T i
l l i h l i h
k LS k
1 1 LS 1 1 1 1 1 1 1 1 1 1
1 1
(2.25)
LC r r T LC C
j C i C
l S
k
T lk lk T
i A K K
L
l
1 1
, , 1
; , , 1 1 1
(2.26)
C
l S
k C
h S
m S
n
kn lj mk hl j
S
n jn T lk C
l S
k
C
l S
k C
h
lk S
m T hm j
j T lk lk
T l h
j
l l h j
k LS k
LS 1 1 1 1 1 1
1 1 1 1 1 1
1 1
(2.27)
LC r r T LC C
j C i C
l S
k
j T lk lk
T K K A
L
l
1 1
, , 1
; , , 1 1 1
(2.28)
Tugas Akhir - 2007
Analisis Terhadap Fungsi Kernel Polinomial Pada Metode KDDA untuk Pengenalan Wajah
C
l
C
p S
q
pq T lk S
k C
h S
m
lk T hm C
l S
k
T lk lk T
l h p
l
L 1 1 1 1 1 1
2
1 1
1
C
l S
k C
h S
m C
p S
q
kq lp mk hl
l h p
k L 1 1 1 1 1 1 k
2
1 (2.29)
LC r r T LC C
j C i T lk lk C
l S
k
T K K
L
l
1 1 1
2 , , 1
; , , 1 1 1
(2.30)
dengan mendefinisikan
C j C i C
l S
k j
T lk lk T i
J l
, , 1
; , ,
1 1 1
~
1 ~ , didapatkan
TLC r r LC ATN Kr Kr LC
A L K K A LB
J 1 1 C 1
1
K K B
A L K
L K r r LC
T LC LC
r r T
LC 1 1 1
1 1
2 (2.31)
dan dengan memperluas term C iT l lT j
l Sl~ ~
1 pada persamaan (2.21), didapatkan
T l l T j T l l T T l l T i j T l l T i C
l l j C i
l S
k
j T l l T
i S
L S S
l
1
1 1
~
~ (2.32)
menggunakan matrik Kernel Kr, persamaan (2.32) diatas dapat diubah menjadi
LC r r r T LC C j C i C
l
j T l l T i
l A K W K A
S
, , 1
; , , 1 1
(2.33)
LC r r r T LC C
j C i C
l
T l l T i
l A K W K
S L1 1
, , 1
; , , 1 1
(2.34)
LC r r r T LC C
j C i C
l
j T l l T
l K W K A
S L1 1
, , 1
; , , 1 1
(2.35)
LC r r r T LC C
j C i C
l
T l l T
l K W K
S L1 1 1
2 , , 1
; , , 1 1
(2.36)
dengan Wr diag w1 wC merupakan matrik diagonal berukuran L L, dan w i adalah matrik berukuran Si Si dengan semua term sama dengan 1 Si, selanjutnya di definisikan
C j C i C
l S
k j
T l l T i
J l
, , 1
; , ,
1 1 1
~
2 ~ , dengan
Tugas Akhir - 2007
Analisis Terhadap Fungsi Kernel Polinomial Pada Metode KDDA untuk Pengenalan Wajah
menggunakan persamaan-persamaan (2.33 – 2.36) diatas, persamaan J 2 dapat diubah menjadi
LCT r r r LC ALCT Kr Wr Kr LC A L
K W K A LB
J 1 1 1
2
K W K B
A L K W
L K r r r LC
T LC LC
r r r T
LC 1 1 1
1 1
2 (2.37)
sehingga
2 1 1
~
~
, , 1
; , ,
1 J J
S L
S w j i C j C T
i b w T b
(2.38)
12 12
2 1 1
b T
b w
T J J E
E L U S
U (2.39)
Proses selanjutnya adalah diagonalisasi UTSwU, yang akan menghasilkan matrik berukuran t t. Eigenvector ke-i dari UT SwU kita misalkan g , dengan i
t
i 1, , , terurut increasing berdasarkan eigenvalue-nya yang dilambangkan i. Eigenvector dengan eigenvalue terkecil akan memaksimalkan ratio Fisher’s criterion dan merupakan feature paling diskriminatif.
w T
b T
S max S
arg (2.40)
untuk UT SwU 0 atau untuk UTSwU 0 digunakan
w T b
T
b T
S S
S max
arg (2.41)
Eigenvector dengan eigenvalue terbesar akan diabaikan, sedangkan eigenvector yang akan digunakan hanya sebanyak X t yang dilambangkan dengan G g1 gX , dengan mendefinisikan sebuah matrik Q UG, akan didapatkan QTSwQ w, dengan w diag g1 gX yang merupakan matrik diagonal berukuran X X . Berdasarkan kalkulasi diatas, himpunan vektor feature diskriminan optimal dapat diperoleh melalui Q w12. Vektor feature akan membentuk low-dimensional subspace, subruang vektor berdimensi lebih kecil pada H, dimana ratio fisher’s criterion maksimal.
Tugas Akhir - 2007
Analisis Terhadap Fungsi Kernel Polinomial Pada Metode KDDA untuk Pengenalan Wajah
2.2.3 Reduksi Dimensi dan Ekstraksi Feature
Tahap selanjutnya adalah reduksi dimensi dan ekstraksi feature, untuk setiap input pattern z, proyeksinya kedalam vektor feature ? , dapat dikalkulasi sebagai berikut
z P
E z
y T b1 2 w12 T Tb (2.42)
dengan z z
T C T
b
~
~
1 , karena
C
p S
q T pq S
m T im i i T
i T i
i
i p
L z S z
L z S L
z S
1 1
1
1
~ 1
(2.43)
didapatkan
L z z A
L B
z LCT TLC
T
b 1 11
(2.44)
dimana z T z T z CCT z T
12 C
11 adalah vektor kernel berukuran L 1, dengan menggabungkan (2.42) dan (2.43) kita dapatkan
z y
(2.45) dengan
T LC T
LC T
w
b P B A L
E
L 1 1
1 12 12
(2.46) adalah matrik berukuran M L yang dapat dihitung secara offline. Persamaan (12.45) bisa kita gunakan untuk mendapatkan representasi low-dimensional y pada z.
2.3
Ilustrasi Metode KDDAIlustrasi dari metode KDDA dapat digambarkan sebagai berikut :
Tugas Akhir - 2007
Analisis Terhadap Fungsi Kernel Polinomial Pada Metode KDDA untuk Pengenalan Wajah
Gambar 2-1 : Ilustrasi Analisa Eigen matrik Sb
Proses pertama pada metode KDDA adalah analisa eigen matrik S untuk b mendapatkan vektor eigen dan nilai eigen dari matrik S b seperti yang digambarkan pada gambar 2-1, hal ini dilakukan dengan langkah-langkah berikut : - Pembuatan vektor wajah dari citra sampel, yaitu setiap citra dijadikan sebuah vektor 1 dimensi, dengan meletakkan setiap baris dari citra disamping baris yang lain yang disebut lexicographical ordering, seperti gambar dibawah ini :
Gambar 2-2 : Ilustrasi Pembuatan Vektor Wajah
Selanjutnya matrik vektor wajah yang dihasilkan di-transpose.
- Pembuatan matrik kernel dengan menggunakan fungsi polinomial sebelumnya terhadap matrik transpose dari vektor wajah dan vektor wajah itu sendiri, sebagai contoh akan digunakan nilai a=b=d=1.
Tugas Akhir - 2007
Analisis Terhadap Fungsi Kernel Polinomial Pada Metode KDDA untuk Pengenalan Wajah
Gambar 2-3 : Ilustrasi pembuatan matrik kernel
- Pembuatan matrik 1 berukuran 6 x 3 (jumlah sampel x jumlah kelas) dengan semua nilai term-nya adalah 1.
- Pembuatan matrik diagonal A berukuran 6 x 3 (jumlah sampel x jumlah kelas) dengan bagian diagonal adalah sebuah matrik berukuran 2 x 2 (jumlah sampel tiap kelas x jumlah sampel tiap kelas) dan nilai term = 0,5 (1/jumlah sampel tiap kelas).
- Pembuatan matrik diagonal B berukuran 3 x 3 (jumlah kelas x jumlah kelas) dengan nilai term = 2 (2 = jumlah sampel tiap kelas).
- Kalkulasi vektor eigen dan nilai eigen dengan menggunakan persamaan (2.18) yang akan menghasilkan matrik vektor eigen berukuran 3 x 3 (jumlah kelas x jumlah kelas) dan matrik nilai eigen berukuran 1 x 3 (1 x jumlah kelas).
- Kemudian diambil d(jumlah kelas -1) nilai eigen terbesar dan juga vektor eigen yang bersesuaian dengan nilai eigen tersebut.
Gambar 2-4 : Ilustrasi Analisa Eigen matrik Sw
Tugas Akhir - 2007
Analisis Terhadap Fungsi Kernel Polinomial Pada Metode KDDA untuk Pengenalan Wajah
Proses kedua dari metode KDDA adalah analisa eigen matrik S untuk w mendapatkan vektor eigen dan nilai eigen dari matrik S w seperti yang digambarkan pada gambar 2-4, yang dilakukan dengan langkah-langkah berikut :
- Pembuatan matrik W berukuran 6 x 6 (jumlah sampel x jumlah sampel) dengan bagian diagonal merupakan sebuah matrik berukuran 2 x 2 (jumlah sampel tiap kelas x jumlah sampel tiap kelas) dan nilai term = 0,5 (1/jumlah sampel tiap kelas).
- Kalkulasi vektor eigen dan nilai eigen menggunakan persamaan (2.39) yang akan menghasilkan matrik vektor eigen berukuran 2 x 2 ((jumlah kelas-1) x (jumlah kelas-1)) dan matrik nilai eigen yang berukuran 1 x 2 (1 x (jumlah kelas-1)).
Gambar 2-5 : Ilustrasi Ekstraksi Feature
Proses ketiga pada metode KDDA adalah ekstraksi feature dan reduksi dimensi, yang dilakukan dengan langkah-langkah berikut :
- Ekstraksi feature dari citra training dengan menggunakan persamaan (2.46) seperti yang digambarkan pada gambar 2-5.
- Reduksi dimensi dari citra asli berdasarkan feature yang telah dipilih sebelumnya, seperti pada gambar dibawah ini.
Gambar 2-6 : Ilustrasi Reduksi Dimensi
Tugas Akhir - 2007
Analisis Terhadap Fungsi Kernel Polinomial Pada Metode KDDA untuk Pengenalan Wajah
6. Kesimpulan dan Saran
6.1 Kesimpulan
Kesimpulan yang dapat diambil dari hasil penelitian adalah sebagai berikut : 1. Performansi algoritma KDDA dengan menggunakan fungsi kernel
polinomial sangat bagus dengan tingkat akurasi pengenalan terbaik sebesar 99%.
2. Performansi algoritma KDDA dengan fungsi kernel polinomial linier (a=b=d=1) hampir sama dengan performansi algoritma DF-LDA.
3. Performansi algoritma KDDA dipengaruhi oleh parameter jumlah sampel tiap kelas dan konstanta d dari fungsi kernel polinomial yang digunakan, semakin besar jumlah sampel dan konstanta d maka performansi metode KDDA akan semakin baik, sedangkan parameter konstanta a dan b tidak mempengaruhi tingkat akurasi.
4. Hubungan antara tingkat akurasi pengenalan dari algoritma KDDA terhadap fungsi kernel polinomial yang digunakan dapat direpresentasikan dengan persamaan regresi:
016 , 36 296
. 0 808 ,
10 X1 X2
Y (6.1)
dengan Y merupakan tingkat akurasi pengenalan, sedangkan X 1 adalah jumlah sampel training untuk tiap kelas dan X adalah konstanta d pada 2 fungsi kernel polinomial.
5. Penggunaan fungsi kernel polinomial meningkatkan performansi dari metode KDDA sebesar 0,629 %.
6.2 Saran
Saran yang dapat penulis berikan untuk pengembangan metode KDDA adalah sebagai berikut :
1. Penggunaan nilai threshold dalam kelas perlu dipertimbangkan untuk meningkatkan akurasi pengenalan untuk kasus citra wajah tes belum memiliki sampel training.
2. Penelitian lebih lanjut terhadap metode KDDA dengan menggunakan fungsi kernel yang berbeda untuk mengetahui pengaruh dari variasi fungsi kernel yang digunakan terhadap tingkat akurasi pengenalan.
3. Penelitian lebih lanjut harus dilakukan untuk menentukan pose-pose yang ideal dari citra sampel training yang dapat meningkatkan tingkat akurasi pengenalan.
Tugas Akhir - 2007
Analisis Terhadap Fungsi Kernel Polinomial Pada Metode KDDA untuk Pengenalan Wajah
Daftar Pustaka
[1] A. Ruiz. P.E. L´opez de Teruel, 2001, “Nonlinear kernel-based statistical pattern analysis”, IEEE Transactions on Neural Networks, vol. 12, no. 1, pp. 16–32, January 2001.
[2] Bernhard Sch¨olkopf, Chris Burges, Alex J. Smola, 1999, “Advances in Kernel Methods - Support Vector Learning”, MIT Press-Cambridge- MA.
[3] G. Baudat, F. Anouar, 2000, “Generalized discriminant analysis using a kernel approach”, Neural Computation, vol. 12, pp. 2385–2404.
[4] Hua Yu, Jie Yang, 2001, “A direct lda algorithm for high-dimensional data with application to face recognition”, Pattern Recognition, vol. 34, pp. 2067–2070.
[5] Juewei Lu, K.N.Plataniotis, A.N. Venetsanopoulos, 2003, ”Face recognition using kernel direct discriminant analysis algorithms”, IEEE Trans. NN, vol.14, No.1, pp.117-126.
[6] Kernel Trick, http://en.wikipedia.org/wiki/Kernel_trick , didownload pada 6 Agustus 2006.
[7] K.R. M¨uller, S. Mika, G. R¨atsch, K. Tsuda, B. Sch¨olkopf, 2001, “An introduction to kernel-based learning algorithms”, IEEE Transactions on Neural Networks, vol. 12, no. 2, pp. 181–201, March 2001.
[8] Li-Fen Chen, Hong-Yuan Mark Liao, Ming-Tat Ko, Ja-Chen Lin, Gwo- Jong Yu, 2000, “A new LDA-based face recognition system which can solve the small sample size problem”, Pattern Recognition, vol. 33, pp.1713–1726, 2000.
[9] Matthew A. Turk, Alex P. Pentland, 1991, “Eigenfaces for recognition”, Journal of Cognitive Neuroscience,vol. 3, no. 1, pp. 71–86, 1991.
[10] M. Bichsel, A. P. Pentland, 1994, “Human face recognition and the face image set’s topology”, CVGIP: Image Understanding, vol. 59, pp. 254–
261, 1994.
[11] P. N. Belhumeur, J. P. Hespanha, D. J. Kriegman, 1997, “Eigenfaces vs.
Fisherfaces: recognition using class specific linear projection”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 19, no.
7, pp. 711–720, 1997.
[12] R.Chellappa, C. L. Wilson, S.Sirohey S, 1995, “Human and machine recognition of faces: a survey”, Proceedings of the IEEE, 83(5): 705-740, 1995.
[13] Santoso Singgih, 2003, “Mengatasi Berbagai Masalah Statistik dengan SPSS versi 11.5”, Elex Media Komputindo.
[14] Yuefei Guo, Shijin Li, Jingyu Yang, et al, 2003, ”A generalized Foley- Sammon transform based on generalized fisher discriminant criterion and its application to face recognition”, Pattern Recognition Letters, 2003, vol.24, Issues 1-3, pp147-158.
Tugas Akhir - 2007