KLASIFIKASI DATA DENGAN DATA ASAL DAN DATA
TEREDUKSI
SIFA LUSIANA
DEPARTEMEN MATEMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM INSTITUT PERTANIAN BOGOR
PERNYATAAN MENGENAI SKRIPSI DAN
SUMBER INFORMASI SERTA PELIMPAHAN HAK CIPTA
Dengan ini saya menyatakan bahwa skripsi berjudul Klasifikasi Data dengan Data Asal dan Data Tereduksi adalah benar karya saya dengan arahan dari komisi pembimbing dan belum diajukan dalam bentuk apa pun kepada perguruan tinggi manapun. Sumber informasi yang berasal atau dikutip dari karya yang diterbitkan maupun tidak diterbitkan dari penulis lain telah disebutkan dalam teks dan dicantumkan dalam Daftar Pustaka di bagian akhir skripsi ini.
Dengan ini saya melimpahkan hak cipta dari karya tulis saya kepada Institut Pertanian Bogor.
Bogor, Agustus 2015
ABSTRAK
SIFA LUSIANA. Klasifikasi Data dengan Data Asal dan Data Tereduksi. Dibimbing oleh SISWADI dan TONI BAKHTIAR.
Analisis Komponen Utama Kernel (AKUK) merupakan perluasan dari Analisis Komponen Utama (AKU) biasa yang dapat digunakan untuk menyelesaikan permasalahan data yang takterpisah secara linear. Dua kelompok data, yaitu data pengenalan anggur dan data breast tissue digunakan dalam studi ini. Pengklasifikasian pada data asal dan data terstandardisasi dilakukan dengan jarak Euclid dan Mahalanobis. Salah klasifikasi yang diperoleh dengan jarak Mahalanobis lebih besar dibandingkan dengan jarak Euclid. Fungsi kernel Gauss dengan parameter � digunakan dalam AKUK. Salah klasifikasi yang diperoleh dengan AKUK dari kedua kelompok data lebih kecil dibandingkan dengan AKU, pengklasifikasian langsung pada data asal, dan data terstandardisasi dengan menggunakan jarak Euclid. Salah klasifikasi yang diperoleh dari data pengenalan anggur langsung dengan data asal, data terstandardisasi, AKU, dan AKUK pada
� = masing-masing ialah 27.53%, 2.25%, 2.81%, dan 1.12%. Sedangkan, salah klasifikasi yang diperoleh dari data breast tissue langsung dengan data asal, data terstandardisasi, AKU, dan AKUK pada � = masing-masing ialah 31.37%, 13.73%, 13.73%, dan 3.92%.
Kata kunci: salah klasifikasi, jarak Euclid, jarak Mahalanobis, analisis komponen utama, analisis komponen utama kernel
ABSTRACT
SIFA LUSIANA. Data Classification with Original Data and Reduced Data. Supervised by SISWADI and TONI BAKHTIAR.
Kernel Principal Component Analysis (KPCA) is an extension of ordinary Principal Component Analysis (PCA) which can be used to resolve the problem of linearly unseparated data. Two groups of data, namely wine recognition data and breast tissue data are used in this study. The classification on original data and standardized data is performed by using Euclidean and Mahalanobis distances. Misclassification obtained by using Mahalanobis distance is greater compared to that of Euclidean distance. Gaussian kernel function with parameter � is used in KPCA. Misclassification obtained by KPCA from the two data groups is smaller than those of PCA, direct classification with original data, and standardized data using Euclidean distance. Misclassification obtained from wine recognition data on direct classification with original data, standardized data, PCA, and KPCA on � =
respectively are 27.53%, 2.25%, 2.81%, and 1.12%. Meanwhile, misclassification obtained from breast tissue data on direct classification with original data, standardized data, PCA, and KPCA on � = respectively are 31.37%, 13.73%, 13.73% and 3.92%.
Skripsi
sebagai salah satu syarat untuk memperoleh gelar Sarjana Sains
pada
Departemen Matematika
KLASIFIKASI DATA DENGAN DATA ASAL DAN DATA
TEREDUKSI
DEPARTEMEN MATEMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM INSTITUT PERTANIAN BOGOR
BOGOR 2015
Judul Skripsi : Klasifikasi Data dengan Data Asal dan Data Tereduksi Nama : Sifa Lusiana
NIM : G54110006
Disetujui oleh
Prof Dr Ir Siswadi, MSc Pembimbing I
Dr Toni Bakhtiar, MSc Pembimbing II
Diketahui oleh
Dr Toni Bakhtiar, MSc Ketua Departemen
PRAKATA
Puji dan syukur penulis panjatkan kepada Allah SWT atas segala rahmat dan karunia-Nya serta sholawat dan salam kepada Nabi Muhammad SAW sehingga karya ilmiah ini berhasil diselesaikan. Tema yang dipilih dalam penelitian yang dilaksanakan sejak bulan Januari 2015 ini ialah analisis data, dengan judul Klasifikasi Data dengan Data Asal dan Data Tereduksi. Penyusunan karya ilmiah ini juga tidak lepas dari bantuan beberapa pihak. Untuk itu, penulis mengucapkan terima kasih yang sebesar-besarnya kepada :
1. Prof Dr Ir Siswadi, MSc selaku dosen Pembimbing I yang telah memberikan ilmu, motivasi, bimbingan, kesabaran, saran, dan bantuannya selama penulisan skripsi ini.
2. Dr Toni Bakhtiar, MSc selaku dosen Pembimbing II yang telah memberikan ilmu, motivasi, bimbingan, kesabaran, dan saran selama penulisan skripsi ini.
3. Ir Ngakan Komang Kutha Ardana, MSc selaku dosen penguji yang telah memberikan ilmu dan sarannya.
4. Keluarga tercinta Ayah, Mama, Nabillah, dan keluarga besar yang selalu memberikan doa, dukungan, semangat, bimbingan, dan motivasi yang tak henti-hentinya.
5. Aditya Darmawan yang selalu memberikan semangat, dukungan, doa, motivasi, dan senantiasa mendengarkan curahan hati selama penulisan skripsi ini.
6. Habibah, Elvira, Menisa, Chrysta, Vini, Ronny selaku sahabat SMA yang selalu memberikan semangat dan doanya.
7. Ayu Kharisma, Intan, Kio, Riefdah, Atikah, Alfi, Resty, Putri, Lidya, Febiyana, Andini, Hanna selaku sahabat yang menemani penulis selama masa kuliah, yang telah mendengarkan curahan hati selama penulisan skripsi ini, dan sahabat seperjuangan di tingkat akhir yang selalu memberikan motivasi, semangat, doa, serta dukungannya.
8. Teman-teman Matematika Angkatan 48 yang selalu memberikan dukungan, doa, bantuan, dan keceriaannya.
9. Kakak-kakak Matematika Angkatan 47, adik-adik Matematika Angkatan 49, dan semua teman-teman saya IPB Angkatan 48 yang telah memberikan doa, semangat, dan dukungannya.
Semoga karya ilmiah ini dapat bermanfaat bagi dunia ilmu pengetahuan khususnya Matematika dan menjadi inspirasi bagi penelitian-penelitian selanjutnya.
DAFTAR ISI
DAFTAR TABEL vii
DAFTAR GAMBAR vii
DAFTAR LAMPIRAN viii
PENDAHULUAN 1
Latar Belakang 1
Tujuan Penelitian 1
TINJAUAN PUSTAKA 2
Jarak Euclid dan Jarak Mahalanobis 2
Analisis Komponen Utama 2
Analisis Komponen Utama Kernel 6
Fungsi Kernel Gauss 10
Studi Lain 10
METODE PENELITIAN 11
Sumber Data 11
Prosedur Analisis Data 12
HASIL DAN PEMBAHASAN 14
KESIMPULAN 26
DAFTAR PUSTAKA 27
LAMPIRAN 28
DAFTAR TABEL
1 Klasifikasi kelompok 13
2 Deskripsi data pengenalan anggur 15
3 Matriks kovarians data pengenalan anggur 15
4 Matriks korelasi data pengenalan anggur 16
5 Hasil salah klasifikasi (SK) data asal, data terstandardisasi, dan hasil AKU
pada data pengenalan anggur 19
6 Hasil salah klasifikasi (SK) fungsi Gauss pada data pengenalan anggur 19
7 Deskripsi data pengenalan breast tissue 21
8 Matriks kovarians data pengenalan breast tissue 21 9 Matriks korelasi data pengenalan breast tissue 22 10 Hasil salah klasifikasi (SK) data asal, data terstandardisasi, dan hasil AKU
pada data pengenalan breast tissue 24
11 Hasil salah klasifikasi (SK) fungsi Gauss pada data pengenalan breast
tissue 24
DAFTAR GAMBAR
1 Ide dasar AKUK (Sugiyama 2013) 6
2 Ide utama metode kernel: pemetaan data asal ke ruang fitur 7 3 Fungsi kernel Gauss untuk nilai parameter σ= , , , dan 10
4 Alkohol dengan Asam Malat 14
5 Alkohol dengan Proanthosianin 14
6 Alkali pada Abu dengan Magnesium 14
7 Abu dengan Flavonoid 14
8 Magnesium dengan OD 14
9 Total Fenol dengan Intensitas Warna 14
10 Plot pencar dua komponen utama AKU 16
11 AKUK fungsi Gauss dengan parameter σ = 1 16
12 AKUK fungsi Gauss dengan parameter σ = 2 17
13 AKUK fungsi Gauss dengan parameter σ = 3 17
14 AKUK fungsi Gauss dengan parameter σ = 4 17
15 AKUK fungsi Gauss dengan parameter σ = 5 17
16 AKUK fungsi Gauss dengan parameter σ = 6 17
17 AKUK fungsi Gauss dengan parameter σ = 7 17
18 AKUK fungsi Gauss dengan parameter σ = 8 17
19 AKUK fungsi Gauss dengan parameter σ = 9 17
20 AKUK fungsi Gauss dengan parameter σ = 10 18
21 AKUK fungsi Gauss dengan parameter σ = 11 18
22 AKUK fungsi Gauss dengan parameter σ = 12 18
23 AKUK fungsi Gauss dengan parameter σ = 13 18
24 AKUK fungsi Gauss dengan parameter σ = 14 18
25 AKUK fungsi Gauss dengan parameter σ = 15 18
26 AKUK fungsi Gauss dengan parameter σ = 16 18
28 HFS dengan DA 20
29 A/DA dengan MAX IP 20
30 DA dengan AREA 20
31 DR dengan P 20
32 PA500 dengan A/DA 20
33 PA500 dengan HFS 20
34 Plot pencar dua komponen utama AKU 22
35 AKUK fungsi Gauss dengan parameter σ = 1 22
36 AKUK fungsi Gauss dengan parameter σ = 2 22
37 AKUK fungsi Gauss dengan parameter σ = 3 22
38 AKUK fungsi Gauss dengan parameter σ = 4 23
39 AKUK fungsi Gauss dengan parameter σ = 5 23
40 AKUK fungsi Gauss dengan parameter σ = 6 23
41 AKUK fungsi Gauss dengan parameter σ = 7 23
42 AKUK fungsi Gauss dengan parameter σ = 8 23
43 AKUK fungsi Gauss dengan parameter σ = 9 23
44 AKUK fungsi Gauss dengan parameter σ = 10 23
45 AKUK fungsi Gauss dengan parameter � = 11 23
46 AKUK fungsi Gauss dengan parameter � = 12 24
DAFTAR LAMPIRAN
1 Data pengenalan anggur 28
2 Data pengenalan breast tissue 32
3 Fungsi yang digunakan untuk mendapatkan matriks komponen utama menggunakan metode AKU Kernel pada data pengenalan anggur dengan
software Matlab 2010 34
4 Fungsi yang digunakan untuk mendapatkan matriks komponen utama menggunakan metode AKU Kernel pada data pengenalan breast tissue
dengan software Matlab 2010 35
PENDAHULUAN
Latar Belakang
Pengamatan lebih dari satu peubah pada suatu objek diharapkan dapat memberikan informasi yang lebih daripada dilakukan oleh masing-masing peubah secara terpisah. Namun dalam kenyataannya, sulit untuk merepresentasikan amatan atau data dengan banyak peubah dan objek. Dalam statistika, analisis peubah ganda dapat digunakan untuk menganalisis data dengan lebih dari satu peubah. Analisis peubah ganda mampu menganalisis peubah-peubah yang diamati pada satu objek secara bersamaan. Salah satu analisis peubah ganda yang dapat diterapkan untuk mengatasi hal tersebut adalah Analisis Komponen Utama (AKU). AKU pertama kali diperkenalkan oleh Karl Pearson pada tahun 1901. AKU sering digunakan untuk mereduksi dimensi dari suatu matriks data yang terdiri atas sejumlah besar peubah yang saling berkorelasi dengan tetap mempertahankan sebanyak mungkin informasi yang terkandung dalam matriks data asalnya menjadi sejumlah kecil peubah dan tidak saling berkorelasi yang merupakan kombinasi linear dari peubah-peubah asalnya dan beragam terurut (Jolliffe 2002). Peubah baru ini disebut komponen utama. Namun, pada kenyataannya AKU tidak dapat mengatasi data yang taklinear. Oleh karena itu diperlukan suatu metode untuk mengatasi masalah tersebut yaitu dengan menggunakan AKU Kernel (AKUK).
Fungsi kernel memetakan data ke dimensi yang lebih tinggi dan membangun fungsi pemisah dalam ruang yang terpisahkan. Hal ini dilakukan dengan menghitung fungsi kernel yang memberikan nilai hasil kali dalam pada ruang fitur tanpa menunjukkan pemetaan secara eksplisit (Nielsen dan Canty 2008). Fungsi kernel yang dapat memetakan hasil yang jelas di ruang fitur adalah fungsi kernel polinom. Bila peubah asal memiliki ragam yang jauh berbeda, maka akan mengakibatkan adanya peubah yang akan memberikan kontribusi varians yang dominan dalam menentukan komponen utama. Oleh karena itu, data asal harus distandardisasi atau dibakukan. Data yang digunakan pada karya ilmiah ini adalah data yang objeknya telah dikelompokkan. Akan tetapi setelah divisualisasikan, objek-objeknya bercampur membentuk suatu gerombol. Oleh karena itu, dalam karya ilmiah ini akan dilakukan pengklasifikasian objek ke dalam suatu kelompok dengan menggunakan AKU dan AKUK yang diharapkan dapat memberikan salah klasifikasi yang lebih kecil dibandingkan dengan pengklasifikasian langsung pada data asal dan data asal yang distandardisasi.
Tujuan Penelitian Tujuan dari penelitian ini adalah
1. Membandingkan hasil salah klasifikasi dengan jarak Euclid dan jarak Mahalanobis pada data asal dan data yang telah distandardisasi.
2. Menyelesaikan permasalahan data yang takterpisah secara linear dan mengklasifikasikan objek ke dalam suatu kelompok dengan menggunakan AKU dan AKUK dengan fungsi Kernel Gauss.
2
TINJAUAN PUSTAKA
Jarak Euclid dan Jarak Mahalanobis
Misalkan matriks �×�= [� , � , … , ��] merupakan matriks data amatan n objek dari p peubah acak dengan matriks kovarians �. Jarak Euclid antara dua objek
� , � dari matriks �×� adalah �� � , � = √(� − � � − � . Sedangkan jarak Mahalanobis antara dua objek � , � dari matriks �×� adalah �� � , � =
√(� − � �− � − � . Jarak Mahalanobis merupakan jarak Euclid yang diboboti oleh invers dari matriks kovarians (Rencher 2002).
Misalkan adalah rata-rata objek kelompok ke-k dan � adalah matriks kovarians kelompok ke-k. Jarak Euclid antara objek � dengan rataan setiap kelompok adalah �� � , = √ � − � − . Sedangkan jarak Mahalanobis antara objek � dengan rataan setiap kelompok adalah
�� � , = √ � − �− � − (Wölfel dan Ekenel 2005).
Analisis Komponen Utama
AKU merupakan teknik statistika tertua yang dikembangkan untuk mereduksi dimensi data. AKU tidak hanya memungkinkan untuk reduksi data saja, tetapi hasil yang diperoleh dari AKU juga dapat digunakan untuk menyelesaikan teknik-teknik lain dalam metode statistika peubah ganda, misalnya Analisis Varians dan Analisis Regresi (Raykov dan Marcoulides 2008). AKU pertama kali dikenalkan oleh Karl Pearson pada awal tahun 1900-an kemudian oleh Hotelling pada tahun 1933 dan Rao tahun 1964. Dalam AKU, data berdimensi besar dengan p peubah yang saling berkorelasi ditransformasikan menjadi data baru dengan sejumlah peubah yang lebih sedikit dan tidak saling berkorelasi yang disebut dengan komponen utama (Timm 2002).
Misalkan diberikan vektor peubah acak × �= [X1,X2,. . . , Xp] dengan
rata-rata � dan matriks kovarians � yang memunyai pangkat �i� �, . Tujuan dasar AKU yaitu membentuk sejumlah peubah baru yang disebut komponen utama atau varians utama. Komponen utama ini merupakan kombinasi linear dari peubah-peubah vektor X yang tidak berkorelasi dan memiliki varians terbesar (Timm 2002). Meskipun dibutuhkan p komponen untuk menunjukkan keseluruhan variasi data, seringkali variasi ini dapat diwakili oleh k komponen utama, dengan (Jollife 2002). Misalkan matriks kovarians � memunyai nilai eigen � >
�+ = = � = . Kombinasi linear dari vektor X merupakan kombinasi linear yang memiliki varians terbesar pertama, dengan merupakan vektor eigen yang bersesuaian dengan dan vektor konstanta � , � , … , � �, sehingga kombinasi linearnya adalah
3 Selanjutnya, adalah kombinasi linear kedua yang tidak berkorelasi dengan kombinasi linear pertama yang memiliki varians terbesar, dan seterusnya, sehingga kombinasi linear ke-k yaitu memiliki varians terbesar ke-k yang tidake-k berke-korelasi dengan , , . . . , − . Kombinasi linear ke-k,
merupakan komponen utama ke-k.
Matriks kovarians � dari matriks X yang berelemen � merupakan varians elemen ke-j saat i=j, sedangkan saat i ≠ disebut dengan kovarians elemen ke-i dan elemen ke-j. Untuk kasus yang lebih realistis, jika � tidak diketahui, maka
� digantikan dengan matriks kovarians contoh S. Untuk menentukan komponen utama, lihat kombinasi linear dan merupakan vektor eigen yang memaksimumkan var[ ] = � i.
Berikut akan ditunjukkan bahwa var[ ] = � i. Misalkan nilai harapan X adalah E[X] maka kovarians dari X adalah
cov[X] = E [(X – E [X]) − �[ ] ] sehingga var[ ] adalah sebagai berikut
var[ ] = �[ − �[ ] − �[ ] ]
= �[ − �[ ] − �[ ] ]
= cov[ ]
= � .
Skor komponen utama pertama merupakan kombinasi linear dan merupakan vektor eigen yang memaksimumkan var[ ] sehi�gga var[ ] =
� . Var[ ] = � akan maksimum ketika diberikan kendala = . Kondisi ketika = diperlukan untuk memastikan keunikan komponen utamanya (Timm 2002). Kendala = berarti bahwa jumlah kuadrat elemen sama dengan satu. Untuk memaksimumkan var[ ] = � dengan kendala
= dapat diselesaikan menggunakan persamaan Lagrange berikut
max ℒ , = � − � − ,
dengan merupakan pengganda Lagrange. Turunan pertama persamaan pengganda Lagrange ℒ , terhadap dilakukan untuk menemukan titik kritis. Turunan pertamanya diberikan sebagai berikut
�ℒ
� = � − =
⇔ � − = ⇔ (� − � = ,
sehingga dan adalah nilai eigen dan vektor eigen yang bersesuaian dengan nilai eigen dari matriks kovarians � dengan � merupakan matriks identitas berukuran p × p. Untuk menentukan p vektor eigen yang membuat kombinasi linear pertama memiliki varians yang maksimum, maka bobot yang harus dimaksimumkan adalah
� = = = ,
akibatnya merupakan nilai eigen terbesar pertama untuk dapat memaksimumkan var[ ]. Dengan demikian, merupakan vektor eigen yang berpadanan dengan nilai eigen terbesar pertama dari matriks kovarians �.
4
komponen utama pertama, yaitu = dan cov( , = atau dengan kata lain tidak ada korelasi antara dan . Cov( , menyatakan kovarians antara peubah acak a dan peubah acak b. Sehingga diperoleh
cov[ , ] = � = � = = = (1) karena haruslah cov( , = dan pasti nilai eigen ≠ , maka = 0,
= , � = , atau � = dapat digunakan untuk spesifikasi bahwa tidak ada korelasi antara dan .
Persamaan Lagrange digunakan kembali untuk memaksimumkan � . Fungsi Lagrange untuk memaksimumkan � adalah sebagai berikut
max ℒ∗ , , � = � − − − � − , dengan dan � adalah konstanta pengganda Lagrange. Turunan pertama terhadap
dilakukan untuk mencari titik kritis sehingga diperoleh
��ℒ∗ = � − − � = . (2) Persamaan (2) dikalikan dengan di sebelah kiri, maka persamaan menjadi
� − − � = . (3) Persamaan (1) membuat = 0, � = , dan karena terdapat kendala
= maka pada persamaan (3) haruslah nilai � = . Oleh karena itu, persamaan (2) dapat dituliskan sebagai berikut
� − =
atau ekuivalen dengan
(� − � = .
Persamaan di atas merupakan persamaan eigen untuk matriks kovarians � dengan dan berturut-turut adalah nilai eigen dan vektor eigen yang bersesuaian dengan . Untuk menentukan p vektor eigen yang membuat kombinasi linear memiliki varians yang maksimum, maka bobot yang harus dimaksimumkan adalah
� = = = .
Asumsikan bahwa � tidak memiliki nilai eigen yang berulang, sehingga ≠ . Jika hal itu terjadi, maka = , hal ini melanggar kendala yang dihasilkan oleh persamaan (1), yaitu = .
Berdasarkan penjelasan di atas, dapat ditunjukkan komponen utama ketiga, keempat, hingga ke-p, dengan vektor koefisien , , … , � merupakan vektor eigen yang berpadanan dengan nilai eigen , , … , �, ketiga dan keempat terbesar, ... , dan terkecil, berturut-turut. Secara umum dapat disimpulkan bahwa komponen utama ke-k dari X adalah kombinasi linear dan
var[ ] = untuk k = 1, 2, 3, ... , p,
dengan adalah nilai eigen terbesar ke-k dan adalah vektor eigen yang berpadanan dengan dari matriks kovarians � (Jolliffe 2002).
5 bersesuaian dengan matriks korelasi � dari matriks data yang telah dibakukan. Apabila peubah telah dibakukan sebagai berikut
= � −�[ ] √� ,
= � −�[ ] √� ,
� =(��√���−�[ ] ,
dengan ��� merupakan ragam peubah ke-p, maka komponen utama dari =
[ , , … , �] adalah kombinasi linear dari p peubah baku
i = � + � + + �� � dengan = , , … , .
Dalam kasus ini , , , , … , ( �, � adalah pasangan nilai eigen dan vektor eigen untuk matriks korelasi � = �− ⁄ ��− ⁄ , dengan �− ⁄ =
diag √σ ,√σ , … ,√σpp dan � > �+ = = � = .
Apabila matriks kovarians populasi � dan matriks korelasi dari populasi � tidak diketahui, maka keduanya dapat diduga dengan matriks kovarians contoh =
� −
⁄ dan matriks korelasi contoh = − ⁄ − ⁄ dengan − ⁄ =
diag (√s ,√s , … ,√s��) yang berukuran × dengan s�� adalah ragam contoh peubah p. Matriks X yang digunakan dalam kasus ini merupakan matriks data yang sudah terkoreksi nilai tengahnya.
Proporsi varians yang dijelaskan oleh komponen utama pertama adalah = �
� +� + …+ ��× %.
Secara umum proporsi varians yang dijelaskan oleh k komponen utama pertama adalah
= � +� + …+�
� +� + …+ ��× %, dengan k (Raykov dan Marcoulides 2008).
Formulasi primal dari permasalahan nilai eigen dapat dianalisis menggunakan matriks varians dan kovarians S = ���
�− = �− ∑�= � � yang berukuran × . Jika memiliki pangkat r min(n, p), ini akan menghasilkan sebanyak r nilai eigen taknol dan memiliki vektor eigen yang ortogonal dari permasalahan nilai eigen sebagai berikut
�
�− = ,
dengan merupakan nilai eigen dan merupakan vektor eigen yang berpadanan dengan . Formulasi primal baik digunakan ketika ukuran matriks � . Selain formulasi primal, permasalahan nilai eigen juga dapat diselesaikan dengan formulasi dualnya. Formulasi dual baik digunakan ketika � . Formulasi dual dapat dianalisis menggunakan / � − dengan ukuran matriks � × �. Formulasi dual dari permasalahan nilai eigen adalah
�
�− = ,
Jika persamaan di atas dikalikan dengan di sisi kiri, maka persamaan di atas menjadi
6
⇔ �
�− = , (4)
dengan proporsional dengan , atau dapat dilambangkan dengan ∝ . Kemudian persamaan (4) dikalikan dengan dari sisi kiri, sehingga persamaan (4) menjadi
�
�− = .
Untuk menunjukkan bahwa ∝ yang merupakan vektor eigen dari matriks S dengan nilai eigen . Dalam hal ini, formulasi primal dan formulasi dual dari permasalahan nilai eigen, nilai eigen taknol yang diperoleh untuk kedua formulasi tersebut adalah sama dan diasumsikan (1= ∝ = � −
) = 1) sehingga diperoleh
= √ �− � .
Jika memunyai pangkat �i� �, , � �− dan
�
�− memunyai r nilai eigen taknol dan vektor eigennya saling berelasi yaitu = ⁄√ � − dan = ⁄√ � − (Nielsen dan Canty 2008).
Analisis Komponen Utama Kernel
AKU sebagai teknik statistika linear, tidak dapat mendeskripsikan dengan akurat untuk semua jenis struktur suatu data, khususnya pada struktur data yang taklinear. Analisis Komponen Utama Kernel (AKUK) dapat digunakan untuk mengatasi kelemahan AKU tersebut atau dengan kata lain AKUK dapat menunjukkan bentuk taklinear dari AKU. AKUK memetakan data dari ruang asal ke ruang fitur melalui transformasi taklinearnya. Bukannya mereduksi dimensi data secara langsung di ruang asal, AKUK bekerja di dimensi yang lebih tinggi di ruang fitur dengan membentuk hasil kali dalam yang berasal dari transformasi fungsi Φ (Shen 2007). Gambar 1 mengilustrasikan transformasi dari data taklinear di ruang asal menjadi data linear di ruang fitur.
Gambar 1 Ide dasar AKUK (Sugiyama 2013)
Kernel merupakan suatu fungsi yang didefinisikan sebagai hasil kali dalam vektor-vektor hasil pemetaan data taklinear secara implisit pada ruang fitur. Secara matematis fungsi kernel merupakan fungsi k yang untuk setiap x, z ϵ� memenuhi
�, � = Φ x ,Φ z . (Shen 2007)
7 Kemudian akan diformulasikan metode kernel. Misalkan ruang Hilbert ℋ merupakan ruang fitur, pemetaan data taklinear dari ruang asal ke ruang fitur ℋ (Schölkopf dan Smola 2002), yaitu
Φ: � → ℋ � → Φ x ϵ ℋ.
Fungsi kernel memetakan data yang taklinear dari ruang asal ke ruang fitur yang berdimensi tinggi. Gambar 2 menjelaskan transformasi dari data takterpisah dan taklinear di ruang asal � menjadi data linear terpisah di ruang fitur ℋ.
Gambar 2 Ide utama metode kernel: pemetaan data asal ke ruang fitur Misalkan diberikan ilustrasi pemetaan ke ruang fitur sebagai berikut
Φ ∶ � = � , � → Φ � = (� , � , √ � � , √ � , √ � , ′.
Pemetaan Φ mengambil data dari ruang asal berdimensi dua kemudian memetakannya ke ruang fitur berdimensi enam. Misalkan diberikan dua titik �i=
� , � ′ dan �j= � , � ′, maka hasil kali dalam dari pemetaan pada ruang fitur
adalah sebagai berikut
(� , � = Φ � , Φ(�
= (� , � , √ � � , √ � , √ � , (� , � , √ � � , √ � , √ � , = � � + � � + � � � � + � � + � � + = ( + � � + � �
= ( + � ′� .
sehingga fungsi kernel (� , � adalah
(� , � = ( + � ′� .
Hasil pemetaan fungsi kernel di atas merupakan sebuah fungsi kernel polinom pangkat dua dengan ℋ sebagai ruang fitur yang bersesuaian. Ini artinya dapat menghitung hasil kali dalam antara proyeksi dari dua titik ke dalam ruang fitur tanpa mengevaluasi ruang fitur � secara eksplisit.
Secara umum pemetaan data ke ruang fitur dengan menggunakan fungsi kernel polinom �, �∗ = � �∗+ � dengan vektor 2 dimensi � = [� � ] dan
�∗ = [� ∗ � ∗]. Diperoleh sebagai berikut
�, �∗ = � �∗+ �
= � � ∗+ � � ∗+ �
= � � ∗ + � � ∗ + � + � � ∗� � ∗+ � � ∗� + � � ∗�
= [� √ �� √ �� � � √ � � ] ×
[� √ �� ∗ √ �� ∗ � ∗ � ∗ √ � ∗� ∗ ]
8
= � � � �∗ .
Terlihat bahwa secara umum fungsi kernel polinom di atas memetakan vektor dua dimensi ke vektor enam dimensi (Nielsen dan Canty 2008). Fungsi kernel polinom merupakan fungsi kernel yang dapat diketahui pemetaannya di ruang fitur, sedangkan untuk fungsi kernel yang lain, sulit untuk mengetahui bagaimana bentuk pemetaannya di ruang fitur. Oleh karena itu, dalam metode kernel terdapat ‘kernel trick’, yaitu suatu cara yang memberikan kemudahan karena hanya dengan mengetahui fungsi kernel yang digunakan tanpa harus mengetahui bentuk pemetaannya di ruang fitur.
Berikut merupakan fungsi kernel populer yang sering digunakan: 1. Polinom: (� , � = � � + �
2. Eksponensial: (� , � = exp(−β‖� − � ‖ 3. Gauss: (� , � = exp − ‖� −� ‖
σ
4. Eksponensial berpangkat: (� , � =exp (− ‖� −� ‖ σ
β
)
5. Sigmoid: (� , � = ta�h β� � ,
dengan σ, β merupakan parameter dan , adalah bilangan bulat (Liu et al. 2005). Misalkan diberikan sebuah kernel dan suatu matriks data =
[� , � , … , ��] dengan � = (� , � , … , �� , yang dapat membentuk matriks Gram (G), yang berisi evaluasi dari fungsi kernel pada semua pasang titik data. Matriks Gram G didefinisikan sebagai matriks berukuran � × � yang berelemen
� . Sehingga digunakan fungsi kernel k untuk mengevaluasi hasil kali dalam pada ruang fitur dengan pemetaan fitur Φ, dihubungkan dengan matriks Gram G yang berelemen
� = Φ � , Φ(� = (� , � .
Dalam kasus ini matriks G disebut juga sebagai matriks kernel K. Lambang standar untuk menggambarkan matriks kernel K adalah sebagai berikut
= � , � � , � � , �� , � � , �� , ��� ��, � ��, � ⋱ ��, �� ).
Pemetaan X oleh fungsi Φ mungkin taklinear dan tidak dapat dijelaskan secara eksplisit, sehingga fungsi Φ memetakan X yang terdiri atas n objek dan p peubah menjadi Φ yang berisi n objek dan q peubah dengan menghasilkan matriks data seperti berikut:
Φ = [ � � � � � �� ] .
9
Φ Φ � −⁄ = ⁄ � − ∑�= � � � � dan untuk AKU di ruang fitur,
formulasi primal dari permasalahan nilai eigen adalah sebagai berikut: Φ�Φ
�− = ,
dengan simbol dan digunakan kembali sebagai nilai eigen dan vektor eigen secara berturut-turut dalam ruang fitur ℋ. Sedangkan untuk formulasi dual dari permasalahan nilai eigennya adalah
ΦΦ�
�− = ,
dan menggunakan kembali simbol dan sebagai nilai eigen dan vektor eigen secara berturut-turut. Kemudian nilai eigen taknol yang diperoleh dari formulasi primal dan dual memberikan nilai yang sama dan vektor eigen dari kedua formulasi tersebut dapat dihubungkan oleh =
√ �− � Φ dan =√ �− � Φ .
Formulasi dual ΦΦ diketahui bersesuaian dengan matriks Gram dan memiliki ukuran yang sama atau matriks kernel yang berisi elemen dari fungsi kernel.
Untuk nilai eigen taknol dan vektor eigen yang bersesuaian pada formulasi dual, produk hasil kali dalam � � �(� dalam ΦΦ diganti dengan sebuah fungsi kernel (� , � = yang berasal dari beberapa pemetaan Φ yang tidak ditentukan, sehingga diperoleh
= � − , (5) dengan = ΦΦ merupakan matriks berukuran � × � dengan elemen-elemen
(� , � . Untuk memastikan bahwa fungsi (� , � valid di beberapa ruang fitur, maka perlu diketahui bahwa fungsi kernel harus simetrik, memenuhi ketaksamaan Cauchy-Schwarz, dan semi-definit positif.
1. Fungsi kernel harus simetrik
(� , � = Φ � , Φ(� = Φ(� , Φ � = (� , � .
2. Memenuhi ketaksamaan Cauchy-Schwarz �, � = Φ � , Φ �
‖Φ � ‖ ‖Φ � ‖
= Φ � , Φ � Φ � , Φ � = �, � �, � .
Permasalahan nilai eigen pada persamaan (5), pada umumnya diformulasikan tanpa faktor � − sehingga menjadi = , akibatnya dapat memberikan semua solusi dari vektor eigen dan � − dari nilai eigen. Sehingga dalam kasus ini = Φ /√ dan = Φ /√ .
Skor komponen utama pada AKUK juga diperoleh dari permasalahan nilai eigen, proyeksikan pemetaan x atas vektor eigen primal sebagai berikut
� � = � � Φ /√
= � � [� � � � … � �� ] /√
= [� � � � � � � � … � � � �� ] /√
10
H = � −
� � , � = � � , � adalah matriks identitas berukuran � × �, dan � vektor satu yang berukuran n (Shen 2007).
Fungsi Kernel Gauss
Fungsi kernel Gauss yang bergantung pada jarak � dan � (Genton 2001), yaitu (� , � = exp − ‖� −� ‖
� . Visualisasi fungsi Gauss untuk beberapa nilai parameter � akan diberikan pada gambar di bawah ini.
Gambar 3 Fungsi kernel Gauss untuk nilai parameter � = , , , dan
Fungsi Gauss mewakili fungsi isotropik lainnya dengan grafik fungsi yang ujung-ujung sumbunya relatif landai. Dapat dilihat pada Gambar 3 bahwa semakin besar nilai parameter yang digunakan, grafik fungsi kernel Gauss akan semakin membesar. Kemudian, pemilihan parameter � pada fungsi kernel didasarkan dengan mencoba-coba beberapa nilai yang berbeda dan dipilih parameter dengan hasil yang lebih baik. Karena pada dasarnya belum ada ketentuan nilai parameter untuk setiap fungsi kernel.
Studi Lain
Ustaza (2014) telah melakukan pengklasifikasian data populasi tanaman iris dan data pengenalan anggur. Pengklasifikasian data tersebut dilakukan menggunakan AKUK dengan fungsi linear dan Gauss. Parameter fungsi kernel Gauss yang digunakan untuk data pengenalan anggur, yaitu � = , . , . , … , . Sedangkan untuk data tanaman iris, yaitu � = . √ . Untuk data pengenalan anggur, fungsi kernel Gauss memberikan salah klasifikasi yang paling kecil pada
� = . dengan salah klasifikasi sebesar 17.42%. Karena pada penelitiannya didapatkan hasil salah klasifikasi yang masih cukup besar, oleh karena itu penelitian ini dilanjutkan oleh Kharismahadi (2014).
Keterangan
11 Kharismahadi (2014) melakukan analisis dan pengklasifikasian pada data yang sama, yaitu data pengenalan anggur dengan menggunakan AKUK dengan fungsi kernel linear dan isotropik. Fungsi kernel isotropik yang digunakan adalah fungsi kernel Gauss dan Gelombang. Fungsi kernel linear memberikan salah klasifikasi sebesar 6.74%. Untuk fungsi kernel Gauss, parameter yang digunakan adalah � = , , , … , . Salah klasifikasi paling kecil pada AKUK dengan fungsi kernel Gauss diberikan oleh parameter � = dengan salah klasifikasi sebesar 2.25%. Sedangkan untuk fungsi kernel Gelombang parameter yang digunakan adalah � = , , , … , dan parameter yang memberikan salah klasifikasi paling kecil, yaitu � = dengan salah klasifikasi sebesar 7.30%.
Data pengenalan anggur yang digunakan oleh Ustaza (2014) dan Kharismahadi (2014) terdapat perbedaan dengan data aslinya. Perbedaan data pengenalan anggur ini terletak pada objek ke-17 peubah kadar asam malat dan objek ke-128 peubah kadar fenol yang bukan flavonoid.
METODE PENELITIAN
Sumber Data
Data yang digunakan dalam penulisan karya ilmiah ini merupakan data sekunder yang diunduh melalui internet, yaitu data pengenalan anggur (Forina 1991) dan data pengenalan breast tissue (Marques 2010). Data pengenalan anggur adalah hasil analisis kimia terhadap anggur yang tumbuh di daerah yang sama di Italia dan berasal dari tiga budidaya/kultivar (kelompok) yang berbeda. Matriks data pengenalan anggur terdiri atas 178 objek dan 13 peubah, yaitu kadar alkohol, kadar asam malat, banyaknya abu, banyaknya alkali pada abu, kadar magnesium, kadar fenol, kadar flavonoid, kadar fenol yang bukan flavonoid, kadar proanthosianin, dan kadar prolina, intensitas warna dan warna berdasarkan tingkat kecerahannya, dan anggur yang diencerkan pada OD280/OD315 berdasarkan nilai serapannya. Sejumlah 178 objek tersebut terbagi ke dalam 3 kelompok anggur di mana setiap kelompok terdiri atas 59, 71, dan 48 objek untuk kelompok budidaya 1, 2, dan 3 secara berturut-turut.
12
Prosedur Analisis Data
Data asal yang digunakan pada karya ilmiah ini merupakan data sekunder yang berasal dari data pengenalan anggur dan data pengenalan breast tissue. Analisis data dilakukan melalui dua tahap berikut:
I. Mengamati plot pencar antarpeubah yang dihasilkan kemudian data asal distandardisasi. Pengklasifikasian kelompok pada data asal dan data yang telah distandardisasi dilakukan dengan menggunakan jarak Euclid dan jarak Mahalanobis untuk ruang dimensi dua dengan menghitung jarak terdekat antara objek dengan rataan dari setiap kelompok. Kemudian bandingkan hasil salah klasifikasi antara jarak Euclid dan jarak Mahalanobis.
II. Penyelesaian permasalahan data yang takterpisah secara linear dilakukan dengan menggunakan AKU dan AKUK. Matriks data yang telah distandardisasi dianalisis menggunakan AKU. Selanjutnya visualisasikan plot pencar dua komponen utama pertama. Kemudian AKUK diterapkan menggunakan satu fungsi kernel yaitu kernel Gauss, dengan matriks kernel fungsi Gauss (� , � =
exp − ‖� −� ‖� dengan parameter � = , , … , untuk data pengenalan anggur, dan parameter � = , , … , untuk data pengenalan breast tissue.
Berikut merupakan tiga langkah yang dilakukan untuk AKUK:
1. Menentukan fungsi kernel yang akan digunakan dalam hal ini adalah Gauss, kemudian menghitung hasil kali dalam matriks kernel = dengan = (� , � = � � , �(� .
2. Mengoreksi matriks kernel terhadap nilai tengah sehingga diperoleh ∗ = dengan H =
� −� � dan � = � � .
3. Menyelesaikan permasalahan nilai eigen dan vektor eigen dari matriks ∗ dengan persamaan ∗ = . Kemudian dipilih dua nilai eigen terbesar dan vektor eigen yang bersesuaian. Dua nilai eigen ini adalah varians maksimum dari komponen utama 1 dan komponen utama 2 secara berturut-turut.
4. Untuk menemukan skor komponen utama kernel dari permasalahan nilai eigen, proyeksikan pemetaan x atas vektor eigen primal .
� � = � � Φ ⁄√
= [ �, � �, � … �, �� ] ⁄√ .
Kemudian visualisasikan plot pencar dua komponen utama pertama dari setiap parameter �.
13
�� = � � , x̅ = [ � − x̅ � − x̅ ] / ,
�� = � � , x̅ = [ � − x̅ �− � − x̅ ] / ,
dengan � merupakan objek pada skor komponen utama, x̅ merupakan rata-rata skor komponen utama pada setiap kelompok dan �− merupakan invers dari matriks kovarians kelompok k. Objek � masuk ke dalam kelompok k jika ��
{��, ��, ��} dan �� {��, ��, ��}. Evaluasi hasil dapat diperoleh dengan menghitung jumlah salah klasifikasi dari semua kelompok seperti yang diberikan pada Tabel 1.
Tabel 1 Klasifikasi kelompok Kelompok
asal (k)
Kelompok prediksi (j)
Total
1 2 k
1 � � � � .
2 � � � � .
. . .
k � � � � .
Total �. �. �. n = n..
14
HASIL DAN PEMBAHASAN
Analisis pertama dilakukan terhadap data pengenalan anggur. Gambar 4 sampai 9 memvisualisasikan plot pencar dari beberapa pasang peubah pada data pengenalan anggur, diambil beberapa pasang peubah karena dimensi data yang cukup besar.
Pada gambar di atas dapat dilihat bahwa plot pencar beberapa peubah dari data asal yang berisi baik kelompok 1, 2, dan 3 bercampur membentuk satu gerombol yang tidak dapat dipisahkan dan bentuk yang taklinear. Hal ini tidak Gambar 4 Alkohol dengan Asam Malat Gambar 5 Alkohol dengan Proanthosianin
Gambar 6 Alkali pada Abu dengan
Magnesium Gambar 7 Abu dengan Flavonoid
15
No Peubah Minimum Rata-rata Maksimum SB
1 Alkohol (Al) 11.030 13.004 14.830 0.809
2 Asam malat (AM) 0.740 2.342 5.800 1.119
3 Abu (Ab) 1.360 2.366 3.230 0.274
4 Alkali pada abu (AA) 10.000 19.439 30.000 3.414
5 Magnesium (Mg) 70.000 99.714 162.000 14.279
6 Total fenol (Tf) 0.130 2.289 3.880 0.642
7 Flavonoid (FI) 0.090 2.024 5.080 1.007
8 Fenol yang bukan 0.130 0.363 0.660 0.124
flavonoid (FF)
9 Proanthosianin (Pa) 0.410 1.591 3.580 0.572
10 Intensitas warna (IW) 1.280 5.058 13.000 2.318
11 Warna (Wa) 0.480 0.958 1.710 0.229
12 Anggur yang diencerkan pada
OD280/OD315 (OD)
1.270 2.612 4.000 0.710
13 Prolina (Pr) 278.000 746.893 1680.000 314.908
Tabel 3 Matriks kovarians data pengenalan anggur
No Peubah Al AM Ab AA Mg TF Fl FF Pa IW Wa OD Pr
1 Al 0.656
2 AM 0.089 1.252
3 Ab 0.047 0.052 0.075
4 AA -0.852 1.052 0.406 11.657
5 Mg 3.180 -0.780 1.104 -5.209 203.900
6 TF 0.141 -0.246 0.023 -0.655 2.003 0.412
7 Fl 0.198 -0.455 0.029 -1.107 2.628 0.554 1.013
8 FF -0.015 0.040 0.006 0.141 -0.453 -0.036 -0.065 0.015
9 Pa 0.062 -0.143 0.001 -0.370 1.941 0.222 0.374 -0.026 0.328
10 IW 1.022 0.645 0.164 -0.095 6.675 -0.090 -0.385 0.037 -0.034 5.374
11 Wa -0.012 -0.143 -0.005 -0.189 0.176 0.063 0.124 -0.007 0.039 -0.276 0.052
12 OD 0.041 -0.287 0.001 -0.600 0.665 0.317 0.560 -0.044 0.211 -0.706 0.092 0.504
13 Pr 163.394 -64.452 19.193 -468.616 1775.845 99.648 156.148 -12.044 59.554 230.767 16.999 69.923 99166.717
cukup baik bila digunakan dalam menganalisis struktur pada data. Oleh karena itu, data distandardisasi kemudian dianalisis menggunakan AKU dan AKUK yang diharapkan dapat digunakan untuk menyelesaikan permasalahan ini sehingga menghasilkan salah klasifikasi yang lebih kecil.
Berikut ini merupakan tabel deskripsi data pengenalan anggur secara ringkas. Tabel ini menggambarkan nilai maksimum, nilai minimum, rata-rata dan simpangan baku (SB) dari masing-masing peubah. Nilai rata-rata dan simpangan baku setiap peubah digunakan untuk standardisasi data.
Tabel 2 Deskripsi data pengenalan anggur
16
Tabel 4 Matriks korelasi data pengenalan anggur
No Peubah Al AM Ab AA Mg TF Fl FF Pa IW Wa OD Pr
1 Al 1.000
2 AM 0.098 1.000
3 Ab 0.214 0.169 1.000
4 AA -0.308 0.275 0.433 1.000
5 Mg 0.275 -0.049 0.282 -0.107 1.000
6 TF 0.271 -0.342 0.128 -0.299 0.218 1.000
7 Fl 0.243 -0.404 0.106 -0.322 0.183 0.858 1.000
8 FF -0.153 0.291 0.190 0.332 -0.255 -0.447 -0.520 1.000
9 Pa 0.133 -0.223 0.008 -0.189 0.237 0.605 0.648 -0.359 1.000
10 IW 0.544 0.249 0.258 -0.012 0.202 -0.061 -0.165 0.130 -0.025 1.000
11 Wa -0.064 -0.558 -0.075 -0.242 0.054 0.430 0.539 -0.255 0.296 -0.522 1.000
12 OD 0.071 -0.361 0.003 -0.248 0.066 0.695 0.784 -0.498 0.519 -0.429 0.565 1.000
13 Pr 0.641 -0.183 0.222 -0.436 0.395 0.493 0.493 -0.308 0.330 0.316 0.236 0.313 1.000
Analisis data menggunakan AKU cukup baik memisahkan antarkelompok dengan menggunakan dua komponen utama pertama walaupun masih ada objek antarkelompok yang bercampur dan masih sedikit menunjukkan bentuk yang taklinear. Plot pencar dua komponen utama akan diberikan pada Gambar 10. Bila dilihat dari visualisasi dua komponen utama pertama dengan parameter tertentu, AKUK lebih baik dalam memisahkan objek dibandingkan dengan plot pencar beberapa pasang peubah dan visualisasi dua komponen utama AKU. Pada dasarnya belum ada ketentuan nilai parameter untuk setiap fungsi kernel, oleh karena pada karya ilmiah ini pemilihan parameter pada AKUK dilakukan dengan cara mencoba-coba dengan nilai yang berbeda-beda dan dipilih parameter dengan salah klasifikasi yang kecil. Dalam karya ilmiah ini menggunakan peranti lunak MATLAB untuk mendapatkan dua komponen utama dari AKUK dengan fungsi kernel Gauss. Pada data pengenalan anggur ini, fungsi kernel Gauss digunakan dengan parameter � =
, , … , . Gambar 11 sampai 27 memvisualisasikan plot pencar dua komponen utama pertama dari masing-masing parameter .
Gambar 10 Plot pencar dua komponen utama AKU
17
Gambar 12 AKUK fungsi Gauss dengan parameter � = 2
Gambar 13 AKUK fungsi Gauss dengan parameter � = 3
Gambar 15 AKUK fungsi Gauss dengan parameter � = 5
Gambar 14 AKUK fungsi Gauss dengan parameter �= 4
Gambar 16 AKUK fungsi Gauss dengan parameter � = 6
Gambar 17 AKUK fungsi Gauss dengan parameter � = 7
Gambar 18 AKUK fungsi Gauss dengan parameter �= 8
18
Gambar 20 AKUK fungsi Gauss dengan parameter �= 10
Gambar 21 AKUK fungsi Gauss dengan parameter �= 11
Gambar 22 AKUK fungsi Gauss dengan parameter �= 12
Gambar 23 AKUK fungsi Gauss dengan parameter �= 13
Gambar 24 AKUK fungsi Gauss dengan parameter �= 14
Gambar 25 AKUK fungsi Gauss dengan parameter �= 15
Gambar 26 AKUK fungsi Gauss dengan parameter �= 16
19 Terlihat dari gambar di atas, AKU dan AKUK dapat memisahkan antarkelompok dengan baik dibandingkan dengan plot pencar antarpeubah. Meskipun AKUK lebih baik dalam menyelesaikan permasalahan data yang tak terpisah dan taklinear, tetapi gambar di atas menunjukkan masih ada objek yang bercampur ke kelompok lain. Selanjutnya akan dibahas pengklasifikasian kelompok pada data asal dan data asal yang distandardisasi dengan jarak Euclid dan jarak Mahalanobis, serta pengklasifikasian kelompok menggunakan AKU dan AKUK. Tabel 5 akan menjelaskan jumlah salah klasifikasi (nSK) untuk
pengklasifikasian data asal, data asal yang distandardisasi, dan analisis menggunakan AKU. Sedangkan Tabel 6 menjelaskan jumlah salah klasifikasi (nSK)
menggunakan AKU Kernel dengan fungsi Gauss.
Hasil salah klasifikasi (SK) dari data asal dan data yang distandardisasi terlihat bahwa pengklasifikasian kelompok pada data yang distandardisasi memberikan salah klasifikasi yang lebih baik meskipun perbedaannya tidak terlalu banyak, yaitu 2.25% untuk jarak Euclid dan 30.34% untuk jarak Mahalanobis, dibandingkan dengan pengklasifikasian kelompok pada data asal dengan salah klasifikasi sebesar 27.53% untuk jarak Euclid dan 38.76% untuk jarak Mahalanobis. Kemudian jika dibandingkan pengklasifikasian data dengan jarak Euclid dan jarak Mahalanobis, maka berdasarkan hasil yang telah diperoleh, jarak Mahalanobis memberikan salah klasifikasi yang lebih besar dibandingkan dengan jarak Euclid. Karena pada dasarnya jarak Mahalanobis mempertimbangkan korelasi antarpeubah. Jadi mungkin saja untuk masalah ini dengan data pengenalan anggur jarak Mahalanobis memberikan salah klasifikasi yang lebih besar daripada jarak Euclid.
Tabel 5 Hasil salah klasifikasi (SK) data asal, data terstandardisasi, dan hasil AKU pada data pengenalan anggur
Data asal Data terstandardisasi AKU
Jarak Euclid
Jarak
Mahalanobis Jarak Euclid
Jarak
Mahalanobis Jarak Euclid
� K 49 69 4 54 5
SK 27.53% 38.76% 2.25% 30.34% 2.81%
Tabel 6 Hasil salah klasifikasi (SK) fungsi Gauss pada data pengenalan anggur
� 1 2 3 4 5 6 7 8 9
� K 68 15 12 8 5 4 4 4 4
SK 38.20% 8.43% 6.74% 4.49% 2.28% 2.25% 2.25% 2.25% 2.25%
� 10 11 12 13 14 15 16 17
� K 3 3 2 3 3 4 4 4
20
AKU memberikan salah klasifikasi yang cukup kecil dibandingkan dengan pengklasifikasian kelompok pada data asal dan data yang distandardisasi, yaitu sebesar 2.81%. Meskipun hasil salah klasifikasi pada data yang distandardisasi dengan jarak Euclid lebih kecil sedikit dibanding AKU, yaitu sebesar 2.25%, tetapi AKU cukup memberikan hasil yang baik untuk data pengenalan anggur ini. Begitupun dengan AKUK, AKUK dapat memisahkan antarkelompok dengan salah klasifikasi yang lebih kecil dibandingkan dengan pengklasifikasian pada data asal, data terstandardisasi, dan analisis menggunakan AKU. Pada AKUK, parameter � = 12 memperoleh SK yang minimum di antara parameter yang lain, yaitu sebesar 1.12%. AKUK dengan fungsi kernel Gauss memberikan hasil pemisahan antarkelompok yang lebih baik dibandingkan plot pencar antarpeubah dan plot dua komponen utama AKU.
Analisis kedua dilakukan pada data pengenalan breast tissue. Gambar di bawah ini merupakan plot pencar dari beberapa pasang peubah data pengenalan breast tissue.
Gambar 33 PA500 dengan HFS Gambar 32 PA500 dengan A/DA
Gambar 28 HFS dengan DA Gambar 29 A/DA dengan MAX IP
21
Tabel 8 Matriks kovarians data pengenalan breast tissue
No Peubah I0 PA500 HFS DA AREA A/DA MAX IP DR P
1 I0 210023.3
2 PA500 -15.823 0.006
3 HFS -18.249 0.005 0.010
4 DA 64369.44 -1.752 -2.515 26124.35
5 AREA 864377 124.053 58.511 436345 14306500
6 A/DA 55.401 0.787 0.519 387.248 38982.57 189.325
7 MAX IP 8653.924 0.500 0.157 3150.782 89546.27 263.443 853.350
8 DR 64710.86 -1.927 -2.707 26523.35 432905 332.103 3010.129 27023.13
9 P 169045.5 -10.051 -12.145 50073.36 824864.9 896.519 8020.407 49914.18 143323
Plot pencar di atas merupakan plot pencar beberapa pasang peubah dari data asal. Terlihat dari Gambar 28 sampai 33 hubungan antarpeubah tak terpisahkan untuk setiap kelompok. Hal ini juga tidak cukup baik untuk menganalisis struktur data dan sulit untuk pengklasifikasian objek ke suatu kelompok. Sama halnya dengan data pengenalan anggur, AKU dan AKUK dengan fungsi kernel Gauss diharapkan dapat menyelesaikan permasalahan ini. Berikut ini merupakan tabel deskripsi data pengenalan breast tissue secara ringkas. Tabel 7 ini juga menggambarkan nilai maksimum, nilai minimum, rata-rata dan simpangan baku (SB) dari masing-masing peubah. Nilai rata-rata dan simpangan baku setiap peubah digunakan untuk standardisasi data.
Tabel 7 Deskripsi data pengenalan breast tissue
Pada Tabel 7 terlihat bahwa ada beberapa peubah yang memiliki simpangan baku (SB) yang jauh lebih besar dibandingkan dengan peubah lainnya. Oleh karena itu, data asal harus distandardisasi. Tabel 8 dan Tabel 9 menjelaskan matriks kovarians dan matriks korelasi.
No Peubah Minimum Rata-rata Maksimum SB
1 I0 103.000 570.039 1724.090 458.283
2 PA500 0.026 0.146 0.358 0.076
3 HFS -0.021 0.120 0.468 0.102
4 DA 20.588 182.963 640.276 161.630
5 AREA 78.258 3947.376 11888.390 3782.393
6 A/DA 1.596 19.499 44.895 13.760
7 MAX IP 18.226 54.866 143.092 29.212
8 DR 5.721 169.901 632.165 164.387
22
Tabel 9 Matriks korelasi data pengenalan breast tissue
No Peubah I0 PA500 HFS DA AREA A/DA MAX IP DR P
1 I0 1.000
2 PA500 -0.456 1.000
3 HFS -0.391 0.632 1.000
4 DA 0.869 -0.143 -0.153 1.000
5 AREA 0.499 0.433 0.152 0.714 1.000
6 A/DA 0.009 0.755 0.369 0.174 0.749 1.000
7 MAX IP 0.646 0.226 0.0528 0.667 0.810 0.655 1.000
8 DR 0.859 -0.155 -0.162 0.998 0.696 0.147 0.627 1.000
9 P 0.974 -0.350 -0.315 0.818 0.576 0.172 0.725 0.802 1.000
Analisis data menggunakan AKU pada data pengenalan breast tissue ini juga cukup baik memisahkan antarkelompok dengan menggunakan dua komponen utama walaupun masih ada objek antarkelompok yang bercampur. Plot pencar dua komponen utama akan diberikan pada Gambar 34. Pada AKUK dengan fungsi kernel Gauss parameter yang digunakan, yaitu � = , , … , . Gambar 35 sampai 46 memvisualisasikan plot pencar dua komponen utama dari masing-masing parameter.
Gambar 34 Plot pencar dua komponen utama AKU
Gambar 35 AKUK fungsi Gauss dengan parameter �=
Gambar 36 AKUK fungsi Gauss dengan parameter �=
23
Gambar 38 AKUK fungsi Gauss dengan parameter �=
Gambar 39 AKUK fungsi Gauss dengan parameter � =
Gambar 40 AKUK fungsi Gauss dengan parameter � =
Gambar 41 AKUK fungsi Gauss dengan parameter �=
Gambar 42 AKUK fungsi Gauss dengan parameter � =
Gambar 43 AKUK fungsi Gauss dengan parameter � =
Gambar 44 AKUK fungsi Gauss dengan parameter � =
24
Terlihat dari gambar di atas, AKU dan AKUK mampu memisahkan antarkelompok dengan baik dibandingkan dengan plot pencar antarpeubah. Selanjutnya akan dibahas pengklasifikasian kelompok pada data asal dan data asal yang distandardisasi dengan jarak Euclid dan jarak Mahalanobis, serta pengklasifikasian kelompok menggunakan AKU dan AKUK. Tabel 10 akan menjelaskan jumlah salah klasifikasi (nSK) untuk pengklasifikasian data asal, data
asal yang distandardisasi, dan analisis menggunakan AKU. Sedangkan Tabel 11 menjelaskan jumlah salah klasifikasi (nSK) menggunakan AKU Kernel dengan
fungsi Gauss.
Tabel 10 Hasil salah klasifikasi (SK) data asal, data terstandardisasi, dan hasil AKU pada data pengenalan breast tissue
Data asal Data terstandardisasi AKU
Jarak Euclid Jarak
Mahalanobis Jarak Euclid
Jarak
Mahalanobis Jarak Euclid
� K 16 16 7 16 7
SK 31.37% 31.37% 13.73% 31.37% 13.73%
Tabel 11 Hasil salah klasifikasi (SK) fungsi Gauss pada data pengenalan breast tissue
� 1 2 3 4 5 6 7 8 9
� K 23 8 4 2 3 4 6 7 7
SK 45.10% 15.69% 7.84% 3.92% 5.88% 7.84% 11.76% 13.72% 13.72%
� 10 11 12
� K 8 8 8
SK 15.69% 15.69% 15.69%
25 Hasil salah klasifikasi (SK) dari data asal dan data yang distandardisasi terlihat bahwa pengklasifikasian kelompok pada data yang distandardisasi dengan jarak Euclid memberikan salah klasifikasi yang lebih sedikit, yaitu 13.73%, dibandingkan dengan pengklasifikasian kelompok dengan jarak Euclid pada data asal dengan salah klasifikasi sebesar 31.37%. Sedangkan pengklasifikasian dengan jarak Mahalanobis untuk data asal dan data yang distandardisasi memberikan hasil yang sama, yaitu sebesar 31.37%. Kemudian jika dibandingkan pengklasifikasian data dengan jarak Euclid dan jarak Mahalanobis, maka berdasarkan hasil yang telah diperoleh, jarak Mahalanobis memberikan salah klasifikasi yang sama dengan jarak Euclid pada data asal dan memberikan salah klasifikasi yang tidak lebih baik dibanding jarak Euclid pada data yang distandardisasi. Salah klasifikasi jarak Mahalanobis pada data yang distandardisasi yaitu 31.37%, sedangkan jarak Euclid memberikan salah klasifikasi sebesar 13.73%. Sehingga untuk kasus data pengenalan breast tissue ini jarak Mahalanobis yang mempertimbangkan korelasi pada peubah asal memberikan hasil salah klasifikasi yang sama atau lebih besar dibandingkan dengan jarak Euclid.
26
KESIMPULAN
Hasil salah klasifikasi pada data asal dan data asal yang distandardisasi dengan jarak Mahalanobis memberikan salah klasifikasi yang tidak lebih baik dibandingkan dengan jarak Euclid. Tetapi, hal ini bukan berarti jarak Mahalanobis lebih buruk daripada jarak Euclid. Hasil yang diperoleh dengan menggunakan kedua jarak ini bergantung pada data yang digunakan dan dalam konteks apa kedua jarak ini digunakan.
Analisis data menggunakan AKU dan AKUK mampu memberikan solusi untuk data dengan banyak peubah yang takterpisah dan taklinear. Berdasarkan hasil yang diperoleh pada kasus data yang digunakan dalam karya ilmiah ini, terlihat pada plot pencar dua komponen utama, AKUK dengan parameter tertentu memberikan hasil yang lebih baik daripada AKU. Pengklasifikasian data dengan menggunakan AKUK pada data pengenalan anggur dan breast tissue memberikan hasil salah klasifikasi yang lebih baik dibandingkan dengan hasil salah klasifikasi menggunakan AKU, pengklasifikasian langsung pada data asal dan data asal yang distandardisasi. Pada data pengenalan anggur, AKUK dengan fungsi Gauss pada
27
DAFTAR PUSTAKA
Forina M. 1991. Wine Recognition Data. [Internet]. [diunduh 2014 Okt 3]. Tersedia pada: http://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data.
Genton MG. 2001. Classes of Kernels for Machine Learning. Machine Learning Research. 2. Doi:10.1.1.62.7887.
Jolliffe IT. 2002. Principal Component Analysis. 2nd ed. New York (US): Springer-Verlag.
Kharismahadi H. 2014. Klasifikasi Data Menggunakan Analisis Komponen Utama Kernel dengan Fungsi Isotropik. [Skripsi]. Bogor (ID): Institut Pertanian Bogor.
Liu Z, Chen D, Bensmail H. 2005. Gene Expression Data Clasification with Kernel Principal Component Analysis. 2:155-159. Doi:10.1155/jbb.2005.155 Marques JP. 2010. Breast Tissue Recognition Data. [Internet]. [diunduh 2015 Apr
30]. Tersedia pada: https://archive.ics.uci.edu/ml/datasets/Breast+Tissue. Nielsen AA, Canty MJ. 2008. Kernel Principal Component Analysis for Change
Detection. Image and Signal for Remote Sensing XIV. 7109. Doi:10.1117/12.800141.
Raykov T, Marcoulides GA. 2008. An Introduction to Applied Multivariate Analysis. New York (US): Taylor & Francis Group, LLC.
Rencher AC. 2002. Methods of Multivariate Analysis. 2nd ed. New York (US): John Wiley & Sons, Inc.
Schölkopf B, Smola AJ. 2002. Learning with Kernels. London (UK): The MIT Press.
Shen Y. 2007. Outlier Detection Using the Smallest Kernel Principal Component. [Disertasi]. Philadelphia (US): Temple University Graduate Board.
Sugiyama M. 2013. Advanced Data Analysis: Kernel PCA. [Internet]. [diunduh 2014 Okt 3]. Tersedia pada: www.ocw.titech.ac.jp/index.php.
Timm NH. 2002. Applied Multivariate Analysis. New York (US): Springer-Verlag. Ustaza W. 2014. Klasifikasi Data Menggunakan Analisis Komponen Utama Kernel.
[Skripsi]. Bogor (ID): Institut Pertanian Bogor.
28
Lampiran 1 Data pengenalan anggur
No. Kelompok Al AM Ab AA Mg TF Fl FF Pa WI Wa OD Pr
1 1 14.23 1.71 2.43 15.6 127 2.8 3.06 0.28 2.29 5.64 1.04 3.92 1065
2 1 13.2 1.78 2.14 11.2 100 2.65 2.76 0.26 1.28 4.38 1.05 3.4 1050
3 1 13.16 2.36 2.67 18.6 101 2.8 3.24 0.3 2.81 5.68 1.03 3.17 1185
4 1 14.37 1.95 2.5 16.8 113 3.85 3.49 0.24 2.18 7.8 0.86 3.45 1480
5 1 13.24 2.59 2.87 21 118 2.8 2.69 0.39 1.82 4.32 1.04 2.93 735
6 1 14.2 1.76 2.45 15.2 112 3.27 3.39 0.34 1.97 6.75 1.05 2.85 1450
7 1 14.39 1.87 2.45 14.6 96 2.5 2.52 0.3 1.98 5.25 1.02 3.58 1290
8 1 14.06 3.15 2.61 17.6 121 2.6 2.51 0.31 1.25 5.05 1.06 3.58 1295
9 1 14.83 1.64 2.17 14 97 2.8 2.98 0.29 1.98 5.2 1.08 2.85 1045
10 1 13.86 1.35 2.27 16 98 2.98 3.15 0.22 1.85 7.22 1.01 3.55 1045
11 1 14.1 2.16 2.3 18 105 2.95 3.32 0.22 2.38 5.75 1.25 3.17 1510
12 1 14.12 1.48 2.32 16.8 95 2.2 2.43 0.26 1.57 5 1.17 2.82 1280
13 1 13.75 1.73 2.41 16 89 2.6 2.76 0.29 1.81 5.6 1.15 2.9 1320
14 1 14.75 1.73 2.39 11.4 91 3.1 3.69 0.43 2.81 5.4 1.25 2.73 1150
15 1 14.38 1.87 2.38 12 102 3.3 3.64 0.29 2.96 7.5 1.2 3 1547
16 1 13.63 1.81 2.7 17.2 112 2.85 2.91 0.3 1.46 7.3 1.28 2.88 1310
17 1 14.3 1.92 2.72 20 120 2.8 3.14 0.33 1.97 6.2 1.07 2.65 1280
18 1 13.83 1.57 2.62 20 115 2.95 3.4 0.4 1.72 6.6 1.13 2.57 1130
19 1 14.19 1.59 2.48 16.5 108 3.3 3.93 0.32 1.86 8.7 1.23 2.82 1680
20 1 13.64 3.1 2.56 15.2 116 2.7 3.03 0.17 1.66 5.1 0.96 3.36 845
21 1 14.06 1.63 2.28 16 126 3 3.17 0.24 2.1 5.65 1.09 3.71 780
22 1 12.93 3.8 2.65 18.6 102 2.41 2.41 0.25 1.98 4.5 1.03 3.52 770
23 1 13.71 1.86 2.36 16.6 101 2.61 2.88 0.27 1.69 3.8 1.11 4 1035
24 1 12.85 1.6 2.52 17.8 95 2.48 2.37 0.26 1.46 3.93 1.09 3.63 1015
25 1 13.5 1.81 2.61 20 96 2.53 2.61 0.28 1.66 3.52 1.12 3.82 845
26 1 13.05 2.05 3.22 25 124 2.63 2.68 0.47 1.92 3.58 1.13 3.2 830
27 1 13.39 1.77 2.62 16.1 93 2.85 2.94 0.34 1.45 4.8 0.92 3.22 1195
28 1 13.3 1.72 2.14 17 94 2.4 2.19 0.27 1.35 3.95 1.02 2.77 1285
29 1 13.87 1.9 2.8 19.4 107 2.95 2.97 0.37 1.76 4.5 1.25 3.4 915
30 1 14.02 1.68 2.21 16 96 2.65 2.33 0.26 1.98 4.7 1.04 3.59 1035
31 1 13.73 1.5 2.7 22.5 101 3 3.25 0.29 2.38 5.7 1.19 2.71 1285
32 1 13.58 1.66 2.36 19.1 106 2.86 3.19 0.22 1.95 6.9 1.09 2.88 1515
33 1 13.68 1.83 2.36 17.2 104 2.42 2.69 0.42 1.97 3.84 1.23 2.87 990
34 1 13.76 1.53 2.7 19.5 132 2.95 2.74 0.5 1.35 5.4 1.25 3 1235
35 1 13.51 1.8 2.65 19 110 2.35 2.53 0.29 1.54 4.2 1.1 2.87 1095
36 1 13.48 1.81 2.41 20.5 100 2.7 2.98 0.26 1.86 5.1 1.04 3.47 920
37 1 13.28 1.64 2.84 15.5 110 2.6 2.68 0.34 1.36 4.6 1.09 2.78 880
38 1 13.05 1.65 2.55 18 98 2.45 2.43 0.29 1.44 4.25 1.12 2.51 1105
29
40 1 14.22 3.99 2.51 13.2 128 3 3.04 0.2 2.08 5.1 0.89 3.53 760
41 1 13.56 1.71 2.31 16.2 117 3.15 3.29 0.34 2.34 6.13 0.95 3.38 795
42 1 13.41 3.84 2.12 18.8 90 2.45 2.68 0.27 1.48 4.28 0.91 3 1035
43 1 13.88 1.89 2.59 15 101 3.25 3.56 0.17 1.7 5.43 0.88 3.56 1095
44 1 13.24 3.98 2.29 17.5 103 2.64 2.63 0.32 1.66 4.36 0.82 3 680
45 1 13.05 1.77 2.1 17 107 3 3 0.28 2.03 5.04 0.88 3.35 885
46 1 14.21 4.04 2.44 18.9 111 2.85 2.65 0.3 1.25 5.24 0.87 3.33 1080
47 1 14.38 3.59 2.28 16 102 3.25 3.17 0.27 2.19 4.9 1.04 3.44 1065
48 1 13.9 1.68 2.12 16 101 3.1 3.39 0.21 2.14 6.1 0.91 3.33 985
49 1 14.1 2.02 2.4 18.8 103 2.75 2.95 0.32 2.38 6.2 1.07 2.75 1060
50 1 13.94 1.73 2.27 17.4 108 2.88 3.54 0.32 2.08 8.9 1.12 3.1 1260
51 1 13.05 1.73 2.04 12.4 92 2.72 3.27 0.17 2.91 7.2 1.12 2.91 1150
52 1 13.83 1.65 2.6 17.2 94 2.45 2.99 0.22 2.29 5.6 1.24 3.37 1265
53 1 13.82 1.75 2.42 14 111 3.88 3.74 0.32 1.87 7.05 1.01 3.26 1190
54 1 13.77 1.9 2.68 17.1 115 3 2.79 0.39 1.68 6.3 1.13 2.93 1375
55 1 13.74 1.67 2.25 16.4 118 2.6 2.9 0.21 1.62 5.85 0.92 3.2 1060
56 1 13.56 1.73 2.4 20.5 116 2.96 2.78 0.2 2.45 6.25 0.98 3.03 1120
57 1 14.22 1.7 2.3 16.3 118 3.2 3 0.26 2.03 6.38 0.94 3.31 970
58 1 13.29 1.97 2.68 16.8 102 3 3.23 0.31 1.66 6 1.07 2.84 1270
59 1 13.72 1.43 2.5 16.7 108 3.4 3.67 0.19 2.04 6.8 0.89 2.87 1285
60 2 12.37 0.94 1.36 10.6 88 1.98 0.57 0.28 0.42 1.95 1.05 1.82 520
61 2 12.33 1.1 2.28 16 101 2.05 1.09 0.63 0.41 3.27 1.25 1.67 680
62 2 12.64 1.36 2.02 16.8 100 2.02 1.41 0.53 0.62 5.75 0.98 1.59 450
63 2 13.67 1.25 1.92 18 94 2.1 1.79 0.32 0.73 3.8 1.23 2.46 630
64 2 12.37 1.13 2.16 19 87 3.5 3.1 0.19 1.87 4.45 1.22 2.87 420
65 2 12.7 1.45 2.53 19 104 1.89 1.75 0.45 1.03 2.95 1.45 2.23 355
66 2 12.37 1.21 2.56 18.1 98 2.42 2.65 0.37 2.08 4.6 1.19 2.3 678
67 2 13.11 1.01 1.7 15 78 2.98 3.18 0.26 2.28 5.3 1.12 3.18 502
68 2 12.37 1.17 1.92 19.6 78 2.11 2 0.27 1.04 4.68 1.12 3.48 510
69 2 13.34 0.94 2.36 17 110 2.53 1.3 0.55 0.42 3.17 1.02 1.93 750
70 2 12.21 1.19 1.75 16.8 151 1.85 1.28 0.14 2.5 2.85 1.28 3.07 718
71 2 12.29 1.61 2.21 20.4 103 1.1 1.02 0.375 1.46 3.05 0.906 1.82 870
72 2 13.86 1.51 2.67 25 86 2.95 2.86 0.21 1.87 3.38 1.36 3.16 410
73 2 13.49 1.66 2.24 24 87 1.88 1.84 0.27 1.03 3.74 0.98 2.78 472
74 2 12.99 1.67 2.6 30 139 3.3 2.89 0.21 1.96 3.35 1.31 3.5 985
75 2 11.96 1.09 2.3 21 101 3.38 2.14 0.13 1.65 3.21 0.99 3.13 886
76 2 11.66 1.88 1.92 16 97 1.61 1.57 0.34 1.15 3.8 1.23 2.14 428
77 2 13.03 0.9 1.71 16 86 1.95 2.03 0.24 1.46 4.6 1.19 2.48 392
78 2 11.84 2.89 2.23 18 112 1.72 1.32 0.43 0.95 2.65 0.96 2.52 500
79 2 12.33 0.99 1.95 14.8 136 1.9 1.85 0.35 2.76 3.4 1.06 2.31 750
80 2 12.7 3.87 2.4 23 101 2.83 2.55 0.43 1.95 2.57 1.19 3.13 463
81 2 12 0.92 2 19 86 2.42 2.26 0.3 1.43 2.5 1.38 3.12 278
30
83 2 12.08 1.13 2.51 24 78 2 1.58 0.4 1.4 2.2 1.31 2.72 630
84 2 13.05 3.86 2.32 22.5 85 1.65 1.59 0.61 1.62 4.8 0.84 2.01 515
85 2 11.84 0.89 2.58 18 94 2.2 2.21 0.22 2.35 3.05 0.79 3.08 520
86 2 12.67 0.98 2.24 18 99 2.2 1.94 0.3 1.46 2.62 1.23 3.16 450
87 2 12.16 1.61 2.31 22.8 90 1.78 1.69 0.43 1.56 2.45 1.33 2.26 495
88 2 11.65 1.67 2.62 26 88 1.92 1.61 0.4 1.34 2.6 1.36 3.21 562
89 2 11.64 2.06 2.46 21.6 84 1.95 1.6 0.48 1.35 2.8 1 2.75 680
90 2 12.08 1.33 2.3 23.6 70 2.2 1.59 0.42 1.38 1.74 1.07 3.21 625
91 2 12.08 1.83 2.32 18.5 81 1.6 1.5 0.52 1.64 2.4 1.08 2.27 480
92 2 12 1.51 2.42 22 86 1.45 1.25 0.5 1.63 3.6 1.05 2.65 450
93 2 12.69 1.53 2.26 20.7 80 1.38 1.46 0.58 1.62 3.05 0.96 2.06 495
94 2 12.29 2.83 2.22 18 88 2.45 2.25 0.25 1.99 2.15 1.15 3.3 290
95 2 11.62 1.99 2.28 18 98 3.02 2.26 0.17 1.35 3.25 1.16 2.96 345
96 2 12.47 1.52 2.2 19 162 2.5 2.27 0.32 3.28 2.6 1.16 2.63 937
97 2 11.81 2.12 2.74 21.5 134 1.6 0.099 0.14 1.56 2.5 0.95 2.26 625
98 2 12.29 1.41 1.98 16 85 2.55 2.5 0.29 1.77 2.9 1.23 2.74 428
99 2 12.37 1.07 2.1 18.5 88 3.52 3.75 0.24 1.95 4.5 1.04 2.77 660
100 2 12.29 3.17 2.21 18 88 2.85 2.99 0.45 2.81 2.3 1.42 2.83 406
101 2 12.08 2.08 1.7 17.5 97 2.23 2.17 0.26 1.4 3.3 1.27 2.96 710
102 2 12.6 1.34 1.9 18.5 88 1.45 1.36 0.29 1.35 2.45 1.04 2.77 562
103 2 12.34 2.45 2.46 21 98 2.56 2.11 0.34 1.31 2.8 0.8 3.38 438
104 2 11.82 1.72 1.88 19.5 86 2.5 1.64 0.37 1.42 2.06 0.94 2.44 415
105 2 12.51 1.73 1.98 20.5 85 2.2 1.92 0.32 1.48 2.94 1.04 3.57 672
106 2 12.42 2.55 2.27 22 90 1.68 1.84 0.66 1.42 2.7 0.86 3.3 315
107 2 12.25 1.73 2.12 19 80 1.65 2.03 0.37 1.63 3.4 1 3.17 510
108 2 12.72 1.75 2.28 22.5 84 1.38 1.76 0.48 1.63 3.3 0.88 2.42 488
109 2 12.22 1.29 1.94 19 92 2.36 2.04 0.39 2.08 2.7 0.86 3.02 312
110 2 11.61 1.35 2.7 20 94 2.74 2.92 0.29 2.49 2.65 0.96 3.26 680
111 2 11.46 3.74 1.82 19.5 107 3.18 2.58 0.24 3.58 2.9 0.75 2.81 562
112 2 12.52 2.43 2.17 21 88 2.55 2.27 0.26 1.22 2 0.9 2.78 325
113 2 11.76 2.68 2.92 20 100 1.75 2.03 0.6 1.05 3.8 1.23 2.5 607
114 2 11.41 0.74 2.5 21 88 2.48 2.01 0.42 1.44 3.08 1.1 2.31 434
115 2 12.08 1.39 2.5 22.5 84 2.56 2.29 0.43 1.04 2.9 0.93 3.19 385
116 2 11.03 1.51 2.2 21.5 85 2.46 2.17 0.52 2.01 1.9 1.71 2.87 407
117 2 11.82 1.47 1.99 20.8 86 1.98 1.6 0.3 1.53 1.95 0.95 3.33 495
118 2 12.42 1.61 2.19 22.5 108 2 2.09 0.34 1.61 2.06 1.06 2.96 345
119 2 12.77 3.43 1.98 16 80 1.63 1.25 0.43 0.83 3.4 0.7 2.12 372
120 2 12 3.43 2 19 87 2 1.64 0.37 1.87 1.28 0.93 3.05 564
121 2 11.45 2.4 2.42 20 96 2.9 2.79 0.32 1.83 3.25 0.8 3.39 625
122 2 11.56 2.05 3.23 28.5 119 3.18 5.08 0.47 1.87 6 0.93 3.69 465
123 2 12.42 4.43 2.73 26.5 100 2.2 2.13 0.43 1.71 2.08 0.92 3.12 365
31
125 2 11.87 4.31 2.39 21 82 2.86 3.03 0.21 2.91 2.8 0.75 3.64 380
126 2 12.07 2.16 2.17 21 85 2.6 2.65 0.37 1.35 2.76 0.86 3.28 378
127 2 12.43 1.53 2.29 21.5 86 2.74 3.15 0.39 1.77 3.94 0.69 2.84 352
128 2 11.79 2.13 2.78 28.5 92 2.13 2.24 0.58 1.76 3 0.97 2.44 466
129 2 12.37 1.63 2.3 24.5 88 2.22 2.45 0.4 1.9 2.12 0.89 2.78 342
130 2 12.04 4.3 2.38 22 80 2.1 1.75 0.42 1.35 2.6 0.79 2.57 580
131 3 12.86 1.35 2.32 18 122 1.51 1.25 0.21 0.94 4.1 0.76 1.29 630
132 3 12.88 2.99 2.4 20 104 1.3 1.22 0.24 0.83 5.4 0.74 1.42 530
133 3 12.81 2.31 2.4 24 98 1.15 1.09 0.27 0.83 5.7 0.66 1.36 560
134 3 12.7