• Tidak ada hasil yang ditemukan

Klasifikasi Data dengan Data Asal dan Data Tereduksi

N/A
N/A
Protected

Academic year: 2017

Membagikan "Klasifikasi Data dengan Data Asal dan Data Tereduksi"

Copied!
156
0
0

Teks penuh

(1)

KLASIFIKASI DATA DENGAN DATA ASAL DAN DATA

TEREDUKSI

SIFA LUSIANA

DEPARTEMEN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM INSTITUT PERTANIAN BOGOR

(2)
(3)

PERNYATAAN MENGENAI SKRIPSI DAN

SUMBER INFORMASI SERTA PELIMPAHAN HAK CIPTA

Dengan ini saya menyatakan bahwa skripsi berjudul Klasifikasi Data dengan Data Asal dan Data Tereduksi adalah benar karya saya dengan arahan dari komisi pembimbing dan belum diajukan dalam bentuk apa pun kepada perguruan tinggi manapun. Sumber informasi yang berasal atau dikutip dari karya yang diterbitkan maupun tidak diterbitkan dari penulis lain telah disebutkan dalam teks dan dicantumkan dalam Daftar Pustaka di bagian akhir skripsi ini.

Dengan ini saya melimpahkan hak cipta dari karya tulis saya kepada Institut Pertanian Bogor.

Bogor, Agustus 2015

(4)

ABSTRAK

SIFA LUSIANA. Klasifikasi Data dengan Data Asal dan Data Tereduksi. Dibimbing oleh SISWADI dan TONI BAKHTIAR.

Analisis Komponen Utama Kernel (AKUK) merupakan perluasan dari Analisis Komponen Utama (AKU) biasa yang dapat digunakan untuk menyelesaikan permasalahan data yang takterpisah secara linear. Dua kelompok data, yaitu data pengenalan anggur dan data breast tissue digunakan dalam studi ini. Pengklasifikasian pada data asal dan data terstandardisasi dilakukan dengan jarak Euclid dan Mahalanobis. Salah klasifikasi yang diperoleh dengan jarak Mahalanobis lebih besar dibandingkan dengan jarak Euclid. Fungsi kernel Gauss dengan parameter � digunakan dalam AKUK. Salah klasifikasi yang diperoleh dengan AKUK dari kedua kelompok data lebih kecil dibandingkan dengan AKU, pengklasifikasian langsung pada data asal, dan data terstandardisasi dengan menggunakan jarak Euclid. Salah klasifikasi yang diperoleh dari data pengenalan anggur langsung dengan data asal, data terstandardisasi, AKU, dan AKUK pada

� = masing-masing ialah 27.53%, 2.25%, 2.81%, dan 1.12%. Sedangkan, salah klasifikasi yang diperoleh dari data breast tissue langsung dengan data asal, data terstandardisasi, AKU, dan AKUK pada � = masing-masing ialah 31.37%, 13.73%, 13.73%, dan 3.92%.

Kata kunci: salah klasifikasi, jarak Euclid, jarak Mahalanobis, analisis komponen utama, analisis komponen utama kernel

ABSTRACT

SIFA LUSIANA. Data Classification with Original Data and Reduced Data. Supervised by SISWADI and TONI BAKHTIAR.

Kernel Principal Component Analysis (KPCA) is an extension of ordinary Principal Component Analysis (PCA) which can be used to resolve the problem of linearly unseparated data. Two groups of data, namely wine recognition data and breast tissue data are used in this study. The classification on original data and standardized data is performed by using Euclidean and Mahalanobis distances. Misclassification obtained by using Mahalanobis distance is greater compared to that of Euclidean distance. Gaussian kernel function with parameter � is used in KPCA. Misclassification obtained by KPCA from the two data groups is smaller than those of PCA, direct classification with original data, and standardized data using Euclidean distance. Misclassification obtained from wine recognition data on direct classification with original data, standardized data, PCA, and KPCA on � =

respectively are 27.53%, 2.25%, 2.81%, and 1.12%. Meanwhile, misclassification obtained from breast tissue data on direct classification with original data, standardized data, PCA, and KPCA on � = respectively are 31.37%, 13.73%, 13.73% and 3.92%.

(5)

Skripsi

sebagai salah satu syarat untuk memperoleh gelar Sarjana Sains

pada

Departemen Matematika

KLASIFIKASI DATA DENGAN DATA ASAL DAN DATA

TEREDUKSI

DEPARTEMEN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM INSTITUT PERTANIAN BOGOR

BOGOR 2015

(6)
(7)

Judul Skripsi : Klasifikasi Data dengan Data Asal dan Data Tereduksi Nama : Sifa Lusiana

NIM : G54110006

Disetujui oleh

Prof Dr Ir Siswadi, MSc Pembimbing I

Dr Toni Bakhtiar, MSc Pembimbing II

Diketahui oleh

Dr Toni Bakhtiar, MSc Ketua Departemen

(8)

PRAKATA

Puji dan syukur penulis panjatkan kepada Allah SWT atas segala rahmat dan karunia-Nya serta sholawat dan salam kepada Nabi Muhammad SAW sehingga karya ilmiah ini berhasil diselesaikan. Tema yang dipilih dalam penelitian yang dilaksanakan sejak bulan Januari 2015 ini ialah analisis data, dengan judul Klasifikasi Data dengan Data Asal dan Data Tereduksi. Penyusunan karya ilmiah ini juga tidak lepas dari bantuan beberapa pihak. Untuk itu, penulis mengucapkan terima kasih yang sebesar-besarnya kepada :

1. Prof Dr Ir Siswadi, MSc selaku dosen Pembimbing I yang telah memberikan ilmu, motivasi, bimbingan, kesabaran, saran, dan bantuannya selama penulisan skripsi ini.

2. Dr Toni Bakhtiar, MSc selaku dosen Pembimbing II yang telah memberikan ilmu, motivasi, bimbingan, kesabaran, dan saran selama penulisan skripsi ini.

3. Ir Ngakan Komang Kutha Ardana, MSc selaku dosen penguji yang telah memberikan ilmu dan sarannya.

4. Keluarga tercinta Ayah, Mama, Nabillah, dan keluarga besar yang selalu memberikan doa, dukungan, semangat, bimbingan, dan motivasi yang tak henti-hentinya.

5. Aditya Darmawan yang selalu memberikan semangat, dukungan, doa, motivasi, dan senantiasa mendengarkan curahan hati selama penulisan skripsi ini.

6. Habibah, Elvira, Menisa, Chrysta, Vini, Ronny selaku sahabat SMA yang selalu memberikan semangat dan doanya.

7. Ayu Kharisma, Intan, Kio, Riefdah, Atikah, Alfi, Resty, Putri, Lidya, Febiyana, Andini, Hanna selaku sahabat yang menemani penulis selama masa kuliah, yang telah mendengarkan curahan hati selama penulisan skripsi ini, dan sahabat seperjuangan di tingkat akhir yang selalu memberikan motivasi, semangat, doa, serta dukungannya.

8. Teman-teman Matematika Angkatan 48 yang selalu memberikan dukungan, doa, bantuan, dan keceriaannya.

9. Kakak-kakak Matematika Angkatan 47, adik-adik Matematika Angkatan 49, dan semua teman-teman saya IPB Angkatan 48 yang telah memberikan doa, semangat, dan dukungannya.

Semoga karya ilmiah ini dapat bermanfaat bagi dunia ilmu pengetahuan khususnya Matematika dan menjadi inspirasi bagi penelitian-penelitian selanjutnya.

(9)

DAFTAR ISI

DAFTAR TABEL vii

DAFTAR GAMBAR vii

DAFTAR LAMPIRAN viii

PENDAHULUAN 1

Latar Belakang 1

Tujuan Penelitian 1

TINJAUAN PUSTAKA 2

Jarak Euclid dan Jarak Mahalanobis 2

Analisis Komponen Utama 2

Analisis Komponen Utama Kernel 6

Fungsi Kernel Gauss 10

Studi Lain 10

METODE PENELITIAN 11

Sumber Data 11

Prosedur Analisis Data 12

HASIL DAN PEMBAHASAN 14

KESIMPULAN 26

DAFTAR PUSTAKA 27

LAMPIRAN 28

(10)

DAFTAR TABEL

1 Klasifikasi kelompok 13

2 Deskripsi data pengenalan anggur 15

3 Matriks kovarians data pengenalan anggur 15

4 Matriks korelasi data pengenalan anggur 16

5 Hasil salah klasifikasi (SK) data asal, data terstandardisasi, dan hasil AKU

pada data pengenalan anggur 19

6 Hasil salah klasifikasi (SK) fungsi Gauss pada data pengenalan anggur 19

7 Deskripsi data pengenalan breast tissue 21

8 Matriks kovarians data pengenalan breast tissue 21 9 Matriks korelasi data pengenalan breast tissue 22 10 Hasil salah klasifikasi (SK) data asal, data terstandardisasi, dan hasil AKU

pada data pengenalan breast tissue 24

11 Hasil salah klasifikasi (SK) fungsi Gauss pada data pengenalan breast

tissue 24

DAFTAR GAMBAR

1 Ide dasar AKUK (Sugiyama 2013) 6

2 Ide utama metode kernel: pemetaan data asal ke ruang fitur 7 3 Fungsi kernel Gauss untuk nilai parameter σ= , , , dan 10

4 Alkohol dengan Asam Malat 14

5 Alkohol dengan Proanthosianin 14

6 Alkali pada Abu dengan Magnesium 14

7 Abu dengan Flavonoid 14

8 Magnesium dengan OD 14

9 Total Fenol dengan Intensitas Warna 14

10 Plot pencar dua komponen utama AKU 16

11 AKUK fungsi Gauss dengan parameter σ = 1 16

12 AKUK fungsi Gauss dengan parameter σ = 2 17

13 AKUK fungsi Gauss dengan parameter σ = 3 17

14 AKUK fungsi Gauss dengan parameter σ = 4 17

15 AKUK fungsi Gauss dengan parameter σ = 5 17

16 AKUK fungsi Gauss dengan parameter σ = 6 17

17 AKUK fungsi Gauss dengan parameter σ = 7 17

18 AKUK fungsi Gauss dengan parameter σ = 8 17

19 AKUK fungsi Gauss dengan parameter σ = 9 17

20 AKUK fungsi Gauss dengan parameter σ = 10 18

21 AKUK fungsi Gauss dengan parameter σ = 11 18

22 AKUK fungsi Gauss dengan parameter σ = 12 18

23 AKUK fungsi Gauss dengan parameter σ = 13 18

24 AKUK fungsi Gauss dengan parameter σ = 14 18

25 AKUK fungsi Gauss dengan parameter σ = 15 18

26 AKUK fungsi Gauss dengan parameter σ = 16 18

(11)

28 HFS dengan DA 20

29 A/DA dengan MAX IP 20

30 DA dengan AREA 20

31 DR dengan P 20

32 PA500 dengan A/DA 20

33 PA500 dengan HFS 20

34 Plot pencar dua komponen utama AKU 22

35 AKUK fungsi Gauss dengan parameter σ = 1 22

36 AKUK fungsi Gauss dengan parameter σ = 2 22

37 AKUK fungsi Gauss dengan parameter σ = 3 22

38 AKUK fungsi Gauss dengan parameter σ = 4 23

39 AKUK fungsi Gauss dengan parameter σ = 5 23

40 AKUK fungsi Gauss dengan parameter σ = 6 23

41 AKUK fungsi Gauss dengan parameter σ = 7 23

42 AKUK fungsi Gauss dengan parameter σ = 8 23

43 AKUK fungsi Gauss dengan parameter σ = 9 23

44 AKUK fungsi Gauss dengan parameter σ = 10 23

45 AKUK fungsi Gauss dengan parameter � = 11 23

46 AKUK fungsi Gauss dengan parameter � = 12 24

DAFTAR LAMPIRAN

1 Data pengenalan anggur 28

2 Data pengenalan breast tissue 32

3 Fungsi yang digunakan untuk mendapatkan matriks komponen utama menggunakan metode AKU Kernel pada data pengenalan anggur dengan

software Matlab 2010 34

4 Fungsi yang digunakan untuk mendapatkan matriks komponen utama menggunakan metode AKU Kernel pada data pengenalan breast tissue

dengan software Matlab 2010 35

(12)
(13)

PENDAHULUAN

Latar Belakang

Pengamatan lebih dari satu peubah pada suatu objek diharapkan dapat memberikan informasi yang lebih daripada dilakukan oleh masing-masing peubah secara terpisah. Namun dalam kenyataannya, sulit untuk merepresentasikan amatan atau data dengan banyak peubah dan objek. Dalam statistika, analisis peubah ganda dapat digunakan untuk menganalisis data dengan lebih dari satu peubah. Analisis peubah ganda mampu menganalisis peubah-peubah yang diamati pada satu objek secara bersamaan. Salah satu analisis peubah ganda yang dapat diterapkan untuk mengatasi hal tersebut adalah Analisis Komponen Utama (AKU). AKU pertama kali diperkenalkan oleh Karl Pearson pada tahun 1901. AKU sering digunakan untuk mereduksi dimensi dari suatu matriks data yang terdiri atas sejumlah besar peubah yang saling berkorelasi dengan tetap mempertahankan sebanyak mungkin informasi yang terkandung dalam matriks data asalnya menjadi sejumlah kecil peubah dan tidak saling berkorelasi yang merupakan kombinasi linear dari peubah-peubah asalnya dan beragam terurut (Jolliffe 2002). Peubah baru ini disebut komponen utama. Namun, pada kenyataannya AKU tidak dapat mengatasi data yang taklinear. Oleh karena itu diperlukan suatu metode untuk mengatasi masalah tersebut yaitu dengan menggunakan AKU Kernel (AKUK).

Fungsi kernel memetakan data ke dimensi yang lebih tinggi dan membangun fungsi pemisah dalam ruang yang terpisahkan. Hal ini dilakukan dengan menghitung fungsi kernel yang memberikan nilai hasil kali dalam pada ruang fitur tanpa menunjukkan pemetaan secara eksplisit (Nielsen dan Canty 2008). Fungsi kernel yang dapat memetakan hasil yang jelas di ruang fitur adalah fungsi kernel polinom. Bila peubah asal memiliki ragam yang jauh berbeda, maka akan mengakibatkan adanya peubah yang akan memberikan kontribusi varians yang dominan dalam menentukan komponen utama. Oleh karena itu, data asal harus distandardisasi atau dibakukan. Data yang digunakan pada karya ilmiah ini adalah data yang objeknya telah dikelompokkan. Akan tetapi setelah divisualisasikan, objek-objeknya bercampur membentuk suatu gerombol. Oleh karena itu, dalam karya ilmiah ini akan dilakukan pengklasifikasian objek ke dalam suatu kelompok dengan menggunakan AKU dan AKUK yang diharapkan dapat memberikan salah klasifikasi yang lebih kecil dibandingkan dengan pengklasifikasian langsung pada data asal dan data asal yang distandardisasi.

Tujuan Penelitian Tujuan dari penelitian ini adalah

1. Membandingkan hasil salah klasifikasi dengan jarak Euclid dan jarak Mahalanobis pada data asal dan data yang telah distandardisasi.

2. Menyelesaikan permasalahan data yang takterpisah secara linear dan mengklasifikasikan objek ke dalam suatu kelompok dengan menggunakan AKU dan AKUK dengan fungsi Kernel Gauss.

(14)

2

TINJAUAN PUSTAKA

Jarak Euclid dan Jarak Mahalanobis

Misalkan matriks �×�= [� , � , … , �] merupakan matriks data amatan n objek dari p peubah acak dengan matriks kovarians �. Jarak Euclid antara dua objek

� , � dari matriks �×� adalah �� � , � = √(� − � � − � . Sedangkan jarak Mahalanobis antara dua objek � , � dari matriks �×� adalah �� � , � =

√(� − � �− � − � . Jarak Mahalanobis merupakan jarak Euclid yang diboboti oleh invers dari matriks kovarians (Rencher 2002).

Misalkan adalah rata-rata objek kelompok ke-k dan � adalah matriks kovarians kelompok ke-k. Jarak Euclid antara objek � dengan rataan setiap kelompok adalah �� � , = √ � − � − . Sedangkan jarak Mahalanobis antara objek � dengan rataan setiap kelompok adalah

�� � , = √ � − �− � − (Wölfel dan Ekenel 2005).

Analisis Komponen Utama

AKU merupakan teknik statistika tertua yang dikembangkan untuk mereduksi dimensi data. AKU tidak hanya memungkinkan untuk reduksi data saja, tetapi hasil yang diperoleh dari AKU juga dapat digunakan untuk menyelesaikan teknik-teknik lain dalam metode statistika peubah ganda, misalnya Analisis Varians dan Analisis Regresi (Raykov dan Marcoulides 2008). AKU pertama kali dikenalkan oleh Karl Pearson pada awal tahun 1900-an kemudian oleh Hotelling pada tahun 1933 dan Rao tahun 1964. Dalam AKU, data berdimensi besar dengan p peubah yang saling berkorelasi ditransformasikan menjadi data baru dengan sejumlah peubah yang lebih sedikit dan tidak saling berkorelasi yang disebut dengan komponen utama (Timm 2002).

Misalkan diberikan vektor peubah acak × �= [X1,X2,. . . , Xp] dengan

rata-rata � dan matriks kovarians yang memunyai pangkat �i� �, . Tujuan dasar AKU yaitu membentuk sejumlah peubah baru yang disebut komponen utama atau varians utama. Komponen utama ini merupakan kombinasi linear dari peubah-peubah vektor X yang tidak berkorelasi dan memiliki varians terbesar (Timm 2002). Meskipun dibutuhkan p komponen untuk menunjukkan keseluruhan variasi data, seringkali variasi ini dapat diwakili oleh k komponen utama, dengan (Jollife 2002). Misalkan matriks kovarians � memunyai nilai eigen >

�+ = = � = . Kombinasi linear dari vektor X merupakan kombinasi linear yang memiliki varians terbesar pertama, dengan merupakan vektor eigen yang bersesuaian dengan dan vektor konstanta � , � , … , � , sehingga kombinasi linearnya adalah

(15)

3 Selanjutnya, adalah kombinasi linear kedua yang tidak berkorelasi dengan kombinasi linear pertama yang memiliki varians terbesar, dan seterusnya, sehingga kombinasi linear ke-k yaitu memiliki varians terbesar ke-k yang tidake-k berke-korelasi dengan , , . . . , . Kombinasi linear ke-k,

merupakan komponen utama ke-k.

Matriks kovarians � dari matriks X yang berelemen � merupakan varians elemen ke-j saat i=j, sedangkan saat i disebut dengan kovarians elemen ke-i dan elemen ke-j. Untuk kasus yang lebih realistis, jika � tidak diketahui, maka

� digantikan dengan matriks kovarians contoh S. Untuk menentukan komponen utama, lihat kombinasi linear dan merupakan vektor eigen yang memaksimumkan var[ ] = � i.

Berikut akan ditunjukkan bahwa var[ ] = � i. Misalkan nilai harapan X adalah E[X] maka kovarians dari X adalah

cov[X] = E [(X – E [X]) − �[ ] ] sehingga var[ ] adalah sebagai berikut

var[ ] = �[ − �[ ] − �[ ] ]

= �[ − �[ ] − �[ ] ]

= cov[ ]

= � .

Skor komponen utama pertama merupakan kombinasi linear dan merupakan vektor eigen yang memaksimumkan var[ ] sehi�gga var[ ] =

� . Var[ ] = � akan maksimum ketika diberikan kendala = . Kondisi ketika = diperlukan untuk memastikan keunikan komponen utamanya (Timm 2002). Kendala = berarti bahwa jumlah kuadrat elemen sama dengan satu. Untuk memaksimumkan var[ ] = � dengan kendala

= dapat diselesaikan menggunakan persamaan Lagrange berikut

max ℒ , = � − � − ,

dengan merupakan pengganda Lagrange. Turunan pertama persamaan pengganda Lagrange ℒ , terhadap dilakukan untuk menemukan titik kritis. Turunan pertamanya diberikan sebagai berikut

�ℒ

� = � − =

⇔ � − = ⇔ (� − � = ,

sehingga dan adalah nilai eigen dan vektor eigen yang bersesuaian dengan nilai eigen dari matriks kovarians � dengan merupakan matriks identitas berukuran p × p. Untuk menentukan p vektor eigen yang membuat kombinasi linear pertama memiliki varians yang maksimum, maka bobot yang harus dimaksimumkan adalah

� = = = ,

akibatnya merupakan nilai eigen terbesar pertama untuk dapat memaksimumkan var[ ]. Dengan demikian, merupakan vektor eigen yang berpadanan dengan nilai eigen terbesar pertama dari matriks kovarians �.

(16)

4

komponen utama pertama, yaitu = dan cov( , = atau dengan kata lain tidak ada korelasi antara dan . Cov( , menyatakan kovarians antara peubah acak a dan peubah acak b. Sehingga diperoleh

cov[ , ] = � = � = = = (1) karena haruslah cov( , = dan pasti nilai eigen ≠ , maka = 0,

= , � = , atau � = dapat digunakan untuk spesifikasi bahwa tidak ada korelasi antara dan .

Persamaan Lagrange digunakan kembali untuk memaksimumkan � . Fungsi Lagrange untuk memaksimumkan � adalah sebagai berikut

max ℒ∗ , , � = � − − − � − , dengan dan � adalah konstanta pengganda Lagrange. Turunan pertama terhadap

dilakukan untuk mencari titik kritis sehingga diperoleh

�ℒ∗ = � − − � = . (2) Persamaan (2) dikalikan dengan di sebelah kiri, maka persamaan menjadi

� − − � = . (3) Persamaan (1) membuat = 0, � = , dan karena terdapat kendala

= maka pada persamaan (3) haruslah nilai � = . Oleh karena itu, persamaan (2) dapat dituliskan sebagai berikut

� − =

atau ekuivalen dengan

(� − � = .

Persamaan di atas merupakan persamaan eigen untuk matriks kovarians � dengan dan berturut-turut adalah nilai eigen dan vektor eigen yang bersesuaian dengan . Untuk menentukan p vektor eigen yang membuat kombinasi linear memiliki varians yang maksimum, maka bobot yang harus dimaksimumkan adalah

� = = = .

Asumsikan bahwa � tidak memiliki nilai eigen yang berulang, sehingga ≠ . Jika hal itu terjadi, maka = , hal ini melanggar kendala yang dihasilkan oleh persamaan (1), yaitu = .

Berdasarkan penjelasan di atas, dapat ditunjukkan komponen utama ketiga, keempat, hingga ke-p, dengan vektor koefisien , , … , merupakan vektor eigen yang berpadanan dengan nilai eigen , , … , , ketiga dan keempat terbesar, ... , dan terkecil, berturut-turut. Secara umum dapat disimpulkan bahwa komponen utama ke-k dari X adalah kombinasi linear dan

var[ ] = untuk k = 1, 2, 3, ... , p,

dengan adalah nilai eigen terbesar ke-k dan adalah vektor eigen yang berpadanan dengan dari matriks kovarians � (Jolliffe 2002).

(17)

5 bersesuaian dengan matriks korelasi � dari matriks data yang telah dibakukan. Apabila peubah telah dibakukan sebagai berikut

= � −�[ ] √� ,

= � −�[ ] √� ,

� =(��√���−�[ ] ,

dengan ��� merupakan ragam peubah ke-p, maka komponen utama dari =

[ , , … , �] adalah kombinasi linear dari p peubah baku

i = � + � + + �� � dengan = , , … , .

Dalam kasus ini , , , , … , ( , adalah pasangan nilai eigen dan vektor eigen untuk matriks korelasi � = �− ⁄ ��− ⁄ , dengan �− ⁄ =

diag √σ ,√σ , … ,√σpp dan > �+ = = = .

Apabila matriks kovarians populasi � dan matriks korelasi dari populasi � tidak diketahui, maka keduanya dapat diduga dengan matriks kovarians contoh =

� −

dan matriks korelasi contoh = − ⁄ − ⁄ dengan − ⁄ =

diag (√s ,√s , … ,√s��) yang berukuran × dengan s�� adalah ragam contoh peubah p. Matriks X yang digunakan dalam kasus ini merupakan matriks data yang sudah terkoreksi nilai tengahnya.

Proporsi varians yang dijelaskan oleh komponen utama pertama adalah =

� +� + …+ ��× %.

Secara umum proporsi varians yang dijelaskan oleh k komponen utama pertama adalah

= � +� + …+�

� +� + …+ ��× %, dengan k (Raykov dan Marcoulides 2008).

Formulasi primal dari permasalahan nilai eigen dapat dianalisis menggunakan matriks varians dan kovarians S = ���

�− = �− ∑�= � � yang berukuran × . Jika memiliki pangkat r min(n, p), ini akan menghasilkan sebanyak r nilai eigen taknol dan memiliki vektor eigen yang ortogonal dari permasalahan nilai eigen sebagai berikut

�− = ,

dengan merupakan nilai eigen dan merupakan vektor eigen yang berpadanan dengan . Formulasi primal baik digunakan ketika ukuran matriks � . Selain formulasi primal, permasalahan nilai eigen juga dapat diselesaikan dengan formulasi dualnya. Formulasi dual baik digunakan ketika � . Formulasi dual dapat dianalisis menggunakan / � − dengan ukuran matriks � × �. Formulasi dual dari permasalahan nilai eigen adalah

�− = ,

Jika persamaan di atas dikalikan dengan di sisi kiri, maka persamaan di atas menjadi

(18)

6

⇔ �

�− = , (4)

dengan proporsional dengan , atau dapat dilambangkan dengan ∝ . Kemudian persamaan (4) dikalikan dengan dari sisi kiri, sehingga persamaan (4) menjadi

�− = .

Untuk menunjukkan bahwa ∝ yang merupakan vektor eigen dari matriks S dengan nilai eigen . Dalam hal ini, formulasi primal dan formulasi dual dari permasalahan nilai eigen, nilai eigen taknol yang diperoleh untuk kedua formulasi tersebut adalah sama dan diasumsikan (1= ∝ = � −

) = 1) sehingga diperoleh

= √ �− � .

Jika memunyai pangkat �i� �, , � �− dan

�− memunyai r nilai eigen taknol dan vektor eigennya saling berelasi yaitu = ⁄√ � − dan = ⁄√ � − (Nielsen dan Canty 2008).

Analisis Komponen Utama Kernel

AKU sebagai teknik statistika linear, tidak dapat mendeskripsikan dengan akurat untuk semua jenis struktur suatu data, khususnya pada struktur data yang taklinear. Analisis Komponen Utama Kernel (AKUK) dapat digunakan untuk mengatasi kelemahan AKU tersebut atau dengan kata lain AKUK dapat menunjukkan bentuk taklinear dari AKU. AKUK memetakan data dari ruang asal ke ruang fitur melalui transformasi taklinearnya. Bukannya mereduksi dimensi data secara langsung di ruang asal, AKUK bekerja di dimensi yang lebih tinggi di ruang fitur dengan membentuk hasil kali dalam yang berasal dari transformasi fungsi Φ (Shen 2007). Gambar 1 mengilustrasikan transformasi dari data taklinear di ruang asal menjadi data linear di ruang fitur.

Gambar 1 Ide dasar AKUK (Sugiyama 2013)

Kernel merupakan suatu fungsi yang didefinisikan sebagai hasil kali dalam vektor-vektor hasil pemetaan data taklinear secara implisit pada ruang fitur. Secara matematis fungsi kernel merupakan fungsi k yang untuk setiap x, z ϵ� memenuhi

�, � = Φ x ,Φ z . (Shen 2007)

(19)

7 Kemudian akan diformulasikan metode kernel. Misalkan ruang Hilbert ℋ merupakan ruang fitur, pemetaan data taklinear dari ruang asal ke ruang fitur ℋ (Schölkopf dan Smola 2002), yaitu

Φ: � → ℋ � → Φ x ϵ ℋ.

Fungsi kernel memetakan data yang taklinear dari ruang asal ke ruang fitur yang berdimensi tinggi. Gambar 2 menjelaskan transformasi dari data takterpisah dan taklinear di ruang asal � menjadi data linear terpisah di ruang fitur ℋ.

Gambar 2 Ide utama metode kernel: pemetaan data asal ke ruang fitur Misalkan diberikan ilustrasi pemetaan ke ruang fitur sebagai berikut

Φ ∶ � = � , � → Φ � = (� , � , √ � � , √ � , √ � , ′.

Pemetaan Φ mengambil data dari ruang asal berdimensi dua kemudian memetakannya ke ruang fitur berdimensi enam. Misalkan diberikan dua titik �i=

� , � ′ dan �j= � , � ′, maka hasil kali dalam dari pemetaan pada ruang fitur

adalah sebagai berikut

(� , � = Φ � , Φ(�

= (� , � , √ � � , √ � , √ � , (� , � , √ � � , √ � , √ � , = � � + � � + � � � � + � � + � � + = ( + � � + � �

= ( + � ′� .

sehingga fungsi kernel (� , � adalah

(� , � = ( + � ′� .

Hasil pemetaan fungsi kernel di atas merupakan sebuah fungsi kernel polinom pangkat dua dengan ℋ sebagai ruang fitur yang bersesuaian. Ini artinya dapat menghitung hasil kali dalam antara proyeksi dari dua titik ke dalam ruang fitur tanpa mengevaluasi ruang fitur � secara eksplisit.

Secara umum pemetaan data ke ruang fitur dengan menggunakan fungsi kernel polinom �, �∗ = � �∗+ � dengan vektor 2 dimensi � = [� � ] dan

�∗ = [�]. Diperoleh sebagai berikut

�, �∗ = � �+ �

= � � ∗+ � �+ �

= � � ∗ + � �+ � + � �� �+ � �� + � �

= [� √ �� √ �� � � √ � � ] ×

[� √ �� ∗ √ �� ∗ � ∗ � ∗ √ � ∗� ∗ ]

(20)

8

= � � � �∗ .

Terlihat bahwa secara umum fungsi kernel polinom di atas memetakan vektor dua dimensi ke vektor enam dimensi (Nielsen dan Canty 2008). Fungsi kernel polinom merupakan fungsi kernel yang dapat diketahui pemetaannya di ruang fitur, sedangkan untuk fungsi kernel yang lain, sulit untuk mengetahui bagaimana bentuk pemetaannya di ruang fitur. Oleh karena itu, dalam metode kernel terdapat ‘kernel trick’, yaitu suatu cara yang memberikan kemudahan karena hanya dengan mengetahui fungsi kernel yang digunakan tanpa harus mengetahui bentuk pemetaannya di ruang fitur.

Berikut merupakan fungsi kernel populer yang sering digunakan: 1. Polinom: (� , � = � � + �

2. Eksponensial: (� , � = exp(−β‖� − � ‖ 3. Gauss: (� , � = exp − ‖� −� ‖

σ

4. Eksponensial berpangkat: (� , � =exp (− ‖� −� ‖ σ

β

)

5. Sigmoid: (� , � = ta�h β� � ,

dengan σ, β merupakan parameter dan , adalah bilangan bulat (Liu et al. 2005). Misalkan diberikan sebuah kernel dan suatu matriks data =

[� , � , … , ��] dengan � = (� , � , … , �� , yang dapat membentuk matriks Gram (G), yang berisi evaluasi dari fungsi kernel pada semua pasang titik data. Matriks Gram G didefinisikan sebagai matriks berukuran � × � yang berelemen

� . Sehingga digunakan fungsi kernel k untuk mengevaluasi hasil kali dalam pada ruang fitur dengan pemetaan fitur Φ, dihubungkan dengan matriks Gram G yang berelemen

� = Φ � , Φ(� = (� , � .

Dalam kasus ini matriks G disebut juga sebagai matriks kernel K. Lambang standar untuk menggambarkan matriks kernel K adalah sebagai berikut

= � , � � , � � , �� , � � , �� , ��� ��, � ��, � ⋱ ��, �� ).

Pemetaan X oleh fungsi Φ mungkin taklinear dan tidak dapat dijelaskan secara eksplisit, sehingga fungsi Φ memetakan X yang terdiri atas n objek dan p peubah menjadi Φ yang berisi n objek dan q peubah dengan menghasilkan matriks data seperti berikut:

Φ = [ � � � � � �� ] .

(21)

9

Φ Φ � −⁄ = ⁄ � − ∑�= � � � � dan untuk AKU di ruang fitur,

formulasi primal dari permasalahan nilai eigen adalah sebagai berikut: Φ�Φ

�− = ,

dengan simbol dan digunakan kembali sebagai nilai eigen dan vektor eigen secara berturut-turut dalam ruang fitur ℋ. Sedangkan untuk formulasi dual dari permasalahan nilai eigennya adalah

ΦΦ�

�− = ,

dan menggunakan kembali simbol dan sebagai nilai eigen dan vektor eigen secara berturut-turut. Kemudian nilai eigen taknol yang diperoleh dari formulasi primal dan dual memberikan nilai yang sama dan vektor eigen dari kedua formulasi tersebut dapat dihubungkan oleh =

√ �− � Φ dan =√ �− � Φ .

Formulasi dual ΦΦ diketahui bersesuaian dengan matriks Gram dan memiliki ukuran yang sama atau matriks kernel yang berisi elemen dari fungsi kernel.

Untuk nilai eigen taknol dan vektor eigen yang bersesuaian pada formulasi dual, produk hasil kali dalam � � �(� dalam ΦΦ diganti dengan sebuah fungsi kernel (� , � = yang berasal dari beberapa pemetaan Φ yang tidak ditentukan, sehingga diperoleh

= � − , (5) dengan = ΦΦ merupakan matriks berukuran � × � dengan elemen-elemen

(� , � . Untuk memastikan bahwa fungsi (� , � valid di beberapa ruang fitur, maka perlu diketahui bahwa fungsi kernel harus simetrik, memenuhi ketaksamaan Cauchy-Schwarz, dan semi-definit positif.

1. Fungsi kernel harus simetrik

(� , � = Φ � , Φ(� = Φ(� , Φ � = (� , � .

2. Memenuhi ketaksamaan Cauchy-Schwarz �, � = Φ � , Φ �

‖Φ � ‖ ‖Φ � ‖

= Φ � , Φ � Φ � , Φ � = �, � �, � .

Permasalahan nilai eigen pada persamaan (5), pada umumnya diformulasikan tanpa faktor � − sehingga menjadi = , akibatnya dapat memberikan semua solusi dari vektor eigen dan � − dari nilai eigen. Sehingga dalam kasus ini = Φ /√ dan = Φ /√ .

Skor komponen utama pada AKUK juga diperoleh dari permasalahan nilai eigen, proyeksikan pemetaan x atas vektor eigen primal sebagai berikut

� � = � � Φ /√

= � � [� � � � … � �� ] /√

= [� � � � � � � � … � � � �� ] /√

(22)

10

H =

� � , � = � � , � adalah matriks identitas berukuran � × �, dan � vektor satu yang berukuran n (Shen 2007).

Fungsi Kernel Gauss

Fungsi kernel Gauss yang bergantung pada jarak � dan � (Genton 2001), yaitu (� , � = exp − ‖� −� ‖

� . Visualisasi fungsi Gauss untuk beberapa nilai parameter � akan diberikan pada gambar di bawah ini.

Gambar 3 Fungsi kernel Gauss untuk nilai parameter � = , , , dan

Fungsi Gauss mewakili fungsi isotropik lainnya dengan grafik fungsi yang ujung-ujung sumbunya relatif landai. Dapat dilihat pada Gambar 3 bahwa semakin besar nilai parameter yang digunakan, grafik fungsi kernel Gauss akan semakin membesar. Kemudian, pemilihan parameter � pada fungsi kernel didasarkan dengan mencoba-coba beberapa nilai yang berbeda dan dipilih parameter dengan hasil yang lebih baik. Karena pada dasarnya belum ada ketentuan nilai parameter untuk setiap fungsi kernel.

Studi Lain

Ustaza (2014) telah melakukan pengklasifikasian data populasi tanaman iris dan data pengenalan anggur. Pengklasifikasian data tersebut dilakukan menggunakan AKUK dengan fungsi linear dan Gauss. Parameter fungsi kernel Gauss yang digunakan untuk data pengenalan anggur, yaitu � = , . , . , … , . Sedangkan untuk data tanaman iris, yaitu � = . √ . Untuk data pengenalan anggur, fungsi kernel Gauss memberikan salah klasifikasi yang paling kecil pada

� = . dengan salah klasifikasi sebesar 17.42%. Karena pada penelitiannya didapatkan hasil salah klasifikasi yang masih cukup besar, oleh karena itu penelitian ini dilanjutkan oleh Kharismahadi (2014).

Keterangan

(23)

11 Kharismahadi (2014) melakukan analisis dan pengklasifikasian pada data yang sama, yaitu data pengenalan anggur dengan menggunakan AKUK dengan fungsi kernel linear dan isotropik. Fungsi kernel isotropik yang digunakan adalah fungsi kernel Gauss dan Gelombang. Fungsi kernel linear memberikan salah klasifikasi sebesar 6.74%. Untuk fungsi kernel Gauss, parameter yang digunakan adalah � = , , , … , . Salah klasifikasi paling kecil pada AKUK dengan fungsi kernel Gauss diberikan oleh parameter � = dengan salah klasifikasi sebesar 2.25%. Sedangkan untuk fungsi kernel Gelombang parameter yang digunakan adalah � = , , , … , dan parameter yang memberikan salah klasifikasi paling kecil, yaitu � = dengan salah klasifikasi sebesar 7.30%.

Data pengenalan anggur yang digunakan oleh Ustaza (2014) dan Kharismahadi (2014) terdapat perbedaan dengan data aslinya. Perbedaan data pengenalan anggur ini terletak pada objek ke-17 peubah kadar asam malat dan objek ke-128 peubah kadar fenol yang bukan flavonoid.

METODE PENELITIAN

Sumber Data

Data yang digunakan dalam penulisan karya ilmiah ini merupakan data sekunder yang diunduh melalui internet, yaitu data pengenalan anggur (Forina 1991) dan data pengenalan breast tissue (Marques 2010). Data pengenalan anggur adalah hasil analisis kimia terhadap anggur yang tumbuh di daerah yang sama di Italia dan berasal dari tiga budidaya/kultivar (kelompok) yang berbeda. Matriks data pengenalan anggur terdiri atas 178 objek dan 13 peubah, yaitu kadar alkohol, kadar asam malat, banyaknya abu, banyaknya alkali pada abu, kadar magnesium, kadar fenol, kadar flavonoid, kadar fenol yang bukan flavonoid, kadar proanthosianin, dan kadar prolina, intensitas warna dan warna berdasarkan tingkat kecerahannya, dan anggur yang diencerkan pada OD280/OD315 berdasarkan nilai serapannya. Sejumlah 178 objek tersebut terbagi ke dalam 3 kelompok anggur di mana setiap kelompok terdiri atas 59, 71, dan 48 objek untuk kelompok budidaya 1, 2, dan 3 secara berturut-turut.

(24)

12

Prosedur Analisis Data

Data asal yang digunakan pada karya ilmiah ini merupakan data sekunder yang berasal dari data pengenalan anggur dan data pengenalan breast tissue. Analisis data dilakukan melalui dua tahap berikut:

I. Mengamati plot pencar antarpeubah yang dihasilkan kemudian data asal distandardisasi. Pengklasifikasian kelompok pada data asal dan data yang telah distandardisasi dilakukan dengan menggunakan jarak Euclid dan jarak Mahalanobis untuk ruang dimensi dua dengan menghitung jarak terdekat antara objek dengan rataan dari setiap kelompok. Kemudian bandingkan hasil salah klasifikasi antara jarak Euclid dan jarak Mahalanobis.

II. Penyelesaian permasalahan data yang takterpisah secara linear dilakukan dengan menggunakan AKU dan AKUK. Matriks data yang telah distandardisasi dianalisis menggunakan AKU. Selanjutnya visualisasikan plot pencar dua komponen utama pertama. Kemudian AKUK diterapkan menggunakan satu fungsi kernel yaitu kernel Gauss, dengan matriks kernel fungsi Gauss (� , � =

exp − ‖� −� ‖ dengan parameter � = , , … , untuk data pengenalan anggur, dan parameter � = , , … , untuk data pengenalan breast tissue.

Berikut merupakan tiga langkah yang dilakukan untuk AKUK:

1. Menentukan fungsi kernel yang akan digunakan dalam hal ini adalah Gauss, kemudian menghitung hasil kali dalam matriks kernel = dengan = (� , � = � � , �(� .

2. Mengoreksi matriks kernel terhadap nilai tengah sehingga diperoleh ∗ = dengan H =

� −� � dan � = � � .

3. Menyelesaikan permasalahan nilai eigen dan vektor eigen dari matriks ∗ dengan persamaan = . Kemudian dipilih dua nilai eigen terbesar dan vektor eigen yang bersesuaian. Dua nilai eigen ini adalah varians maksimum dari komponen utama 1 dan komponen utama 2 secara berturut-turut.

4. Untuk menemukan skor komponen utama kernel dari permasalahan nilai eigen, proyeksikan pemetaan x atas vektor eigen primal .

� � = � � Φ ⁄√

= [ �, � �, � … �, �� ] ⁄√ .

Kemudian visualisasikan plot pencar dua komponen utama pertama dari setiap parameter �.

(25)

13

�� = � � , x̅ = [ � − x̅ � − x̅ ] / ,

�� = � � , x̅ = [ � − x̅ � − x̅ ] / ,

dengan � merupakan objek pada skor komponen utama, x̅ merupakan rata-rata skor komponen utama pada setiap kelompok dan �− merupakan invers dari matriks kovarians kelompok k. Objek � masuk ke dalam kelompok k jika ��

{��, �, �} dan {�, �, �}. Evaluasi hasil dapat diperoleh dengan menghitung jumlah salah klasifikasi dari semua kelompok seperti yang diberikan pada Tabel 1.

Tabel 1 Klasifikasi kelompok Kelompok

asal (k)

Kelompok prediksi (j)

Total

1 2 k

1 � � � � .

2 � � � � .

. . .

k � � � � .

Total �. �. �. n = n..

(26)

14

HASIL DAN PEMBAHASAN

Analisis pertama dilakukan terhadap data pengenalan anggur. Gambar 4 sampai 9 memvisualisasikan plot pencar dari beberapa pasang peubah pada data pengenalan anggur, diambil beberapa pasang peubah karena dimensi data yang cukup besar.

Pada gambar di atas dapat dilihat bahwa plot pencar beberapa peubah dari data asal yang berisi baik kelompok 1, 2, dan 3 bercampur membentuk satu gerombol yang tidak dapat dipisahkan dan bentuk yang taklinear. Hal ini tidak Gambar 4 Alkohol dengan Asam Malat Gambar 5 Alkohol dengan Proanthosianin

Gambar 6 Alkali pada Abu dengan

Magnesium Gambar 7 Abu dengan Flavonoid

(27)

15

No Peubah Minimum Rata-rata Maksimum SB

1 Alkohol (Al) 11.030 13.004 14.830 0.809

2 Asam malat (AM) 0.740 2.342 5.800 1.119

3 Abu (Ab) 1.360 2.366 3.230 0.274

4 Alkali pada abu (AA) 10.000 19.439 30.000 3.414

5 Magnesium (Mg) 70.000 99.714 162.000 14.279

6 Total fenol (Tf) 0.130 2.289 3.880 0.642

7 Flavonoid (FI) 0.090 2.024 5.080 1.007

8 Fenol yang bukan 0.130 0.363 0.660 0.124

flavonoid (FF)

9 Proanthosianin (Pa) 0.410 1.591 3.580 0.572

10 Intensitas warna (IW) 1.280 5.058 13.000 2.318

11 Warna (Wa) 0.480 0.958 1.710 0.229

12 Anggur yang diencerkan pada

OD280/OD315 (OD)

1.270 2.612 4.000 0.710

13 Prolina (Pr) 278.000 746.893 1680.000 314.908

Tabel 3 Matriks kovarians data pengenalan anggur

No Peubah Al AM Ab AA Mg TF Fl FF Pa IW Wa OD Pr

1 Al 0.656

2 AM 0.089 1.252

3 Ab 0.047 0.052 0.075

4 AA -0.852 1.052 0.406 11.657

5 Mg 3.180 -0.780 1.104 -5.209 203.900

6 TF 0.141 -0.246 0.023 -0.655 2.003 0.412

7 Fl 0.198 -0.455 0.029 -1.107 2.628 0.554 1.013

8 FF -0.015 0.040 0.006 0.141 -0.453 -0.036 -0.065 0.015

9 Pa 0.062 -0.143 0.001 -0.370 1.941 0.222 0.374 -0.026 0.328

10 IW 1.022 0.645 0.164 -0.095 6.675 -0.090 -0.385 0.037 -0.034 5.374

11 Wa -0.012 -0.143 -0.005 -0.189 0.176 0.063 0.124 -0.007 0.039 -0.276 0.052

12 OD 0.041 -0.287 0.001 -0.600 0.665 0.317 0.560 -0.044 0.211 -0.706 0.092 0.504

13 Pr 163.394 -64.452 19.193 -468.616 1775.845 99.648 156.148 -12.044 59.554 230.767 16.999 69.923 99166.717

cukup baik bila digunakan dalam menganalisis struktur pada data. Oleh karena itu, data distandardisasi kemudian dianalisis menggunakan AKU dan AKUK yang diharapkan dapat digunakan untuk menyelesaikan permasalahan ini sehingga menghasilkan salah klasifikasi yang lebih kecil.

Berikut ini merupakan tabel deskripsi data pengenalan anggur secara ringkas. Tabel ini menggambarkan nilai maksimum, nilai minimum, rata-rata dan simpangan baku (SB) dari masing-masing peubah. Nilai rata-rata dan simpangan baku setiap peubah digunakan untuk standardisasi data.

Tabel 2 Deskripsi data pengenalan anggur

(28)

16

Tabel 4 Matriks korelasi data pengenalan anggur

No Peubah Al AM Ab AA Mg TF Fl FF Pa IW Wa OD Pr

1 Al 1.000

2 AM 0.098 1.000

3 Ab 0.214 0.169 1.000

4 AA -0.308 0.275 0.433 1.000

5 Mg 0.275 -0.049 0.282 -0.107 1.000

6 TF 0.271 -0.342 0.128 -0.299 0.218 1.000

7 Fl 0.243 -0.404 0.106 -0.322 0.183 0.858 1.000

8 FF -0.153 0.291 0.190 0.332 -0.255 -0.447 -0.520 1.000

9 Pa 0.133 -0.223 0.008 -0.189 0.237 0.605 0.648 -0.359 1.000

10 IW 0.544 0.249 0.258 -0.012 0.202 -0.061 -0.165 0.130 -0.025 1.000

11 Wa -0.064 -0.558 -0.075 -0.242 0.054 0.430 0.539 -0.255 0.296 -0.522 1.000

12 OD 0.071 -0.361 0.003 -0.248 0.066 0.695 0.784 -0.498 0.519 -0.429 0.565 1.000

13 Pr 0.641 -0.183 0.222 -0.436 0.395 0.493 0.493 -0.308 0.330 0.316 0.236 0.313 1.000

Analisis data menggunakan AKU cukup baik memisahkan antarkelompok dengan menggunakan dua komponen utama pertama walaupun masih ada objek antarkelompok yang bercampur dan masih sedikit menunjukkan bentuk yang taklinear. Plot pencar dua komponen utama akan diberikan pada Gambar 10. Bila dilihat dari visualisasi dua komponen utama pertama dengan parameter tertentu, AKUK lebih baik dalam memisahkan objek dibandingkan dengan plot pencar beberapa pasang peubah dan visualisasi dua komponen utama AKU. Pada dasarnya belum ada ketentuan nilai parameter untuk setiap fungsi kernel, oleh karena pada karya ilmiah ini pemilihan parameter pada AKUK dilakukan dengan cara mencoba-coba dengan nilai yang berbeda-beda dan dipilih parameter dengan salah klasifikasi yang kecil. Dalam karya ilmiah ini menggunakan peranti lunak MATLAB untuk mendapatkan dua komponen utama dari AKUK dengan fungsi kernel Gauss. Pada data pengenalan anggur ini, fungsi kernel Gauss digunakan dengan parameter � =

, , … , . Gambar 11 sampai 27 memvisualisasikan plot pencar dua komponen utama pertama dari masing-masing parameter .

Gambar 10 Plot pencar dua komponen utama AKU

(29)

17

Gambar 12 AKUK fungsi Gauss dengan parameter � = 2

Gambar 13 AKUK fungsi Gauss dengan parameter � = 3

Gambar 15 AKUK fungsi Gauss dengan parameter � = 5

Gambar 14 AKUK fungsi Gauss dengan parameter �= 4

Gambar 16 AKUK fungsi Gauss dengan parameter � = 6

Gambar 17 AKUK fungsi Gauss dengan parameter � = 7

Gambar 18 AKUK fungsi Gauss dengan parameter �= 8

(30)

18

Gambar 20 AKUK fungsi Gauss dengan parameter �= 10

Gambar 21 AKUK fungsi Gauss dengan parameter �= 11

Gambar 22 AKUK fungsi Gauss dengan parameter �= 12

Gambar 23 AKUK fungsi Gauss dengan parameter �= 13

Gambar 24 AKUK fungsi Gauss dengan parameter �= 14

Gambar 25 AKUK fungsi Gauss dengan parameter �= 15

Gambar 26 AKUK fungsi Gauss dengan parameter �= 16

(31)

19 Terlihat dari gambar di atas, AKU dan AKUK dapat memisahkan antarkelompok dengan baik dibandingkan dengan plot pencar antarpeubah. Meskipun AKUK lebih baik dalam menyelesaikan permasalahan data yang tak terpisah dan taklinear, tetapi gambar di atas menunjukkan masih ada objek yang bercampur ke kelompok lain. Selanjutnya akan dibahas pengklasifikasian kelompok pada data asal dan data asal yang distandardisasi dengan jarak Euclid dan jarak Mahalanobis, serta pengklasifikasian kelompok menggunakan AKU dan AKUK. Tabel 5 akan menjelaskan jumlah salah klasifikasi (nSK) untuk

pengklasifikasian data asal, data asal yang distandardisasi, dan analisis menggunakan AKU. Sedangkan Tabel 6 menjelaskan jumlah salah klasifikasi (nSK)

menggunakan AKU Kernel dengan fungsi Gauss.

Hasil salah klasifikasi (SK) dari data asal dan data yang distandardisasi terlihat bahwa pengklasifikasian kelompok pada data yang distandardisasi memberikan salah klasifikasi yang lebih baik meskipun perbedaannya tidak terlalu banyak, yaitu 2.25% untuk jarak Euclid dan 30.34% untuk jarak Mahalanobis, dibandingkan dengan pengklasifikasian kelompok pada data asal dengan salah klasifikasi sebesar 27.53% untuk jarak Euclid dan 38.76% untuk jarak Mahalanobis. Kemudian jika dibandingkan pengklasifikasian data dengan jarak Euclid dan jarak Mahalanobis, maka berdasarkan hasil yang telah diperoleh, jarak Mahalanobis memberikan salah klasifikasi yang lebih besar dibandingkan dengan jarak Euclid. Karena pada dasarnya jarak Mahalanobis mempertimbangkan korelasi antarpeubah. Jadi mungkin saja untuk masalah ini dengan data pengenalan anggur jarak Mahalanobis memberikan salah klasifikasi yang lebih besar daripada jarak Euclid.

Tabel 5 Hasil salah klasifikasi (SK) data asal, data terstandardisasi, dan hasil AKU pada data pengenalan anggur

Data asal Data terstandardisasi AKU

Jarak Euclid

Jarak

Mahalanobis Jarak Euclid

Jarak

Mahalanobis Jarak Euclid

� K 49 69 4 54 5

SK 27.53% 38.76% 2.25% 30.34% 2.81%

Tabel 6 Hasil salah klasifikasi (SK) fungsi Gauss pada data pengenalan anggur

� 1 2 3 4 5 6 7 8 9

� K 68 15 12 8 5 4 4 4 4

SK 38.20% 8.43% 6.74% 4.49% 2.28% 2.25% 2.25% 2.25% 2.25%

� 10 11 12 13 14 15 16 17

� K 3 3 2 3 3 4 4 4

(32)

20

AKU memberikan salah klasifikasi yang cukup kecil dibandingkan dengan pengklasifikasian kelompok pada data asal dan data yang distandardisasi, yaitu sebesar 2.81%. Meskipun hasil salah klasifikasi pada data yang distandardisasi dengan jarak Euclid lebih kecil sedikit dibanding AKU, yaitu sebesar 2.25%, tetapi AKU cukup memberikan hasil yang baik untuk data pengenalan anggur ini. Begitupun dengan AKUK, AKUK dapat memisahkan antarkelompok dengan salah klasifikasi yang lebih kecil dibandingkan dengan pengklasifikasian pada data asal, data terstandardisasi, dan analisis menggunakan AKU. Pada AKUK, parameter � = 12 memperoleh SK yang minimum di antara parameter yang lain, yaitu sebesar 1.12%. AKUK dengan fungsi kernel Gauss memberikan hasil pemisahan antarkelompok yang lebih baik dibandingkan plot pencar antarpeubah dan plot dua komponen utama AKU.

Analisis kedua dilakukan pada data pengenalan breast tissue. Gambar di bawah ini merupakan plot pencar dari beberapa pasang peubah data pengenalan breast tissue.

Gambar 33 PA500 dengan HFS Gambar 32 PA500 dengan A/DA

Gambar 28 HFS dengan DA Gambar 29 A/DA dengan MAX IP

(33)

21

Tabel 8 Matriks kovarians data pengenalan breast tissue

No Peubah I0 PA500 HFS DA AREA A/DA MAX IP DR P

1 I0 210023.3

2 PA500 -15.823 0.006

3 HFS -18.249 0.005 0.010

4 DA 64369.44 -1.752 -2.515 26124.35

5 AREA 864377 124.053 58.511 436345 14306500

6 A/DA 55.401 0.787 0.519 387.248 38982.57 189.325

7 MAX IP 8653.924 0.500 0.157 3150.782 89546.27 263.443 853.350

8 DR 64710.86 -1.927 -2.707 26523.35 432905 332.103 3010.129 27023.13

9 P 169045.5 -10.051 -12.145 50073.36 824864.9 896.519 8020.407 49914.18 143323

Plot pencar di atas merupakan plot pencar beberapa pasang peubah dari data asal. Terlihat dari Gambar 28 sampai 33 hubungan antarpeubah tak terpisahkan untuk setiap kelompok. Hal ini juga tidak cukup baik untuk menganalisis struktur data dan sulit untuk pengklasifikasian objek ke suatu kelompok. Sama halnya dengan data pengenalan anggur, AKU dan AKUK dengan fungsi kernel Gauss diharapkan dapat menyelesaikan permasalahan ini. Berikut ini merupakan tabel deskripsi data pengenalan breast tissue secara ringkas. Tabel 7 ini juga menggambarkan nilai maksimum, nilai minimum, rata-rata dan simpangan baku (SB) dari masing-masing peubah. Nilai rata-rata dan simpangan baku setiap peubah digunakan untuk standardisasi data.

Tabel 7 Deskripsi data pengenalan breast tissue

Pada Tabel 7 terlihat bahwa ada beberapa peubah yang memiliki simpangan baku (SB) yang jauh lebih besar dibandingkan dengan peubah lainnya. Oleh karena itu, data asal harus distandardisasi. Tabel 8 dan Tabel 9 menjelaskan matriks kovarians dan matriks korelasi.

No Peubah Minimum Rata-rata Maksimum SB

1 I0 103.000 570.039 1724.090 458.283

2 PA500 0.026 0.146 0.358 0.076

3 HFS -0.021 0.120 0.468 0.102

4 DA 20.588 182.963 640.276 161.630

5 AREA 78.258 3947.376 11888.390 3782.393

6 A/DA 1.596 19.499 44.895 13.760

7 MAX IP 18.226 54.866 143.092 29.212

8 DR 5.721 169.901 632.165 164.387

(34)

22

Tabel 9 Matriks korelasi data pengenalan breast tissue

No Peubah I0 PA500 HFS DA AREA A/DA MAX IP DR P

1 I0 1.000

2 PA500 -0.456 1.000

3 HFS -0.391 0.632 1.000

4 DA 0.869 -0.143 -0.153 1.000

5 AREA 0.499 0.433 0.152 0.714 1.000

6 A/DA 0.009 0.755 0.369 0.174 0.749 1.000

7 MAX IP 0.646 0.226 0.0528 0.667 0.810 0.655 1.000

8 DR 0.859 -0.155 -0.162 0.998 0.696 0.147 0.627 1.000

9 P 0.974 -0.350 -0.315 0.818 0.576 0.172 0.725 0.802 1.000

Analisis data menggunakan AKU pada data pengenalan breast tissue ini juga cukup baik memisahkan antarkelompok dengan menggunakan dua komponen utama walaupun masih ada objek antarkelompok yang bercampur. Plot pencar dua komponen utama akan diberikan pada Gambar 34. Pada AKUK dengan fungsi kernel Gauss parameter yang digunakan, yaitu � = , , … , . Gambar 35 sampai 46 memvisualisasikan plot pencar dua komponen utama dari masing-masing parameter.

Gambar 34 Plot pencar dua komponen utama AKU

Gambar 35 AKUK fungsi Gauss dengan parameter �=

Gambar 36 AKUK fungsi Gauss dengan parameter �=

(35)

23

Gambar 38 AKUK fungsi Gauss dengan parameter �=

Gambar 39 AKUK fungsi Gauss dengan parameter � =

Gambar 40 AKUK fungsi Gauss dengan parameter � =

Gambar 41 AKUK fungsi Gauss dengan parameter �=

Gambar 42 AKUK fungsi Gauss dengan parameter � =

Gambar 43 AKUK fungsi Gauss dengan parameter � =

Gambar 44 AKUK fungsi Gauss dengan parameter � =

(36)

24

Terlihat dari gambar di atas, AKU dan AKUK mampu memisahkan antarkelompok dengan baik dibandingkan dengan plot pencar antarpeubah. Selanjutnya akan dibahas pengklasifikasian kelompok pada data asal dan data asal yang distandardisasi dengan jarak Euclid dan jarak Mahalanobis, serta pengklasifikasian kelompok menggunakan AKU dan AKUK. Tabel 10 akan menjelaskan jumlah salah klasifikasi (nSK) untuk pengklasifikasian data asal, data

asal yang distandardisasi, dan analisis menggunakan AKU. Sedangkan Tabel 11 menjelaskan jumlah salah klasifikasi (nSK) menggunakan AKU Kernel dengan

fungsi Gauss.

Tabel 10 Hasil salah klasifikasi (SK) data asal, data terstandardisasi, dan hasil AKU pada data pengenalan breast tissue

Data asal Data terstandardisasi AKU

Jarak Euclid Jarak

Mahalanobis Jarak Euclid

Jarak

Mahalanobis Jarak Euclid

� K 16 16 7 16 7

SK 31.37% 31.37% 13.73% 31.37% 13.73%

Tabel 11 Hasil salah klasifikasi (SK) fungsi Gauss pada data pengenalan breast tissue

� 1 2 3 4 5 6 7 8 9

� K 23 8 4 2 3 4 6 7 7

SK 45.10% 15.69% 7.84% 3.92% 5.88% 7.84% 11.76% 13.72% 13.72%

� 10 11 12

� K 8 8 8

SK 15.69% 15.69% 15.69%

(37)

25 Hasil salah klasifikasi (SK) dari data asal dan data yang distandardisasi terlihat bahwa pengklasifikasian kelompok pada data yang distandardisasi dengan jarak Euclid memberikan salah klasifikasi yang lebih sedikit, yaitu 13.73%, dibandingkan dengan pengklasifikasian kelompok dengan jarak Euclid pada data asal dengan salah klasifikasi sebesar 31.37%. Sedangkan pengklasifikasian dengan jarak Mahalanobis untuk data asal dan data yang distandardisasi memberikan hasil yang sama, yaitu sebesar 31.37%. Kemudian jika dibandingkan pengklasifikasian data dengan jarak Euclid dan jarak Mahalanobis, maka berdasarkan hasil yang telah diperoleh, jarak Mahalanobis memberikan salah klasifikasi yang sama dengan jarak Euclid pada data asal dan memberikan salah klasifikasi yang tidak lebih baik dibanding jarak Euclid pada data yang distandardisasi. Salah klasifikasi jarak Mahalanobis pada data yang distandardisasi yaitu 31.37%, sedangkan jarak Euclid memberikan salah klasifikasi sebesar 13.73%. Sehingga untuk kasus data pengenalan breast tissue ini jarak Mahalanobis yang mempertimbangkan korelasi pada peubah asal memberikan hasil salah klasifikasi yang sama atau lebih besar dibandingkan dengan jarak Euclid.

(38)

26

KESIMPULAN

Hasil salah klasifikasi pada data asal dan data asal yang distandardisasi dengan jarak Mahalanobis memberikan salah klasifikasi yang tidak lebih baik dibandingkan dengan jarak Euclid. Tetapi, hal ini bukan berarti jarak Mahalanobis lebih buruk daripada jarak Euclid. Hasil yang diperoleh dengan menggunakan kedua jarak ini bergantung pada data yang digunakan dan dalam konteks apa kedua jarak ini digunakan.

Analisis data menggunakan AKU dan AKUK mampu memberikan solusi untuk data dengan banyak peubah yang takterpisah dan taklinear. Berdasarkan hasil yang diperoleh pada kasus data yang digunakan dalam karya ilmiah ini, terlihat pada plot pencar dua komponen utama, AKUK dengan parameter tertentu memberikan hasil yang lebih baik daripada AKU. Pengklasifikasian data dengan menggunakan AKUK pada data pengenalan anggur dan breast tissue memberikan hasil salah klasifikasi yang lebih baik dibandingkan dengan hasil salah klasifikasi menggunakan AKU, pengklasifikasian langsung pada data asal dan data asal yang distandardisasi. Pada data pengenalan anggur, AKUK dengan fungsi Gauss pada

(39)

27

DAFTAR PUSTAKA

Forina M. 1991. Wine Recognition Data. [Internet]. [diunduh 2014 Okt 3]. Tersedia pada: http://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data.

Genton MG. 2001. Classes of Kernels for Machine Learning. Machine Learning Research. 2. Doi:10.1.1.62.7887.

Jolliffe IT. 2002. Principal Component Analysis. 2nd ed. New York (US): Springer-Verlag.

Kharismahadi H. 2014. Klasifikasi Data Menggunakan Analisis Komponen Utama Kernel dengan Fungsi Isotropik. [Skripsi]. Bogor (ID): Institut Pertanian Bogor.

Liu Z, Chen D, Bensmail H. 2005. Gene Expression Data Clasification with Kernel Principal Component Analysis. 2:155-159. Doi:10.1155/jbb.2005.155 Marques JP. 2010. Breast Tissue Recognition Data. [Internet]. [diunduh 2015 Apr

30]. Tersedia pada: https://archive.ics.uci.edu/ml/datasets/Breast+Tissue. Nielsen AA, Canty MJ. 2008. Kernel Principal Component Analysis for Change

Detection. Image and Signal for Remote Sensing XIV. 7109. Doi:10.1117/12.800141.

Raykov T, Marcoulides GA. 2008. An Introduction to Applied Multivariate Analysis. New York (US): Taylor & Francis Group, LLC.

Rencher AC. 2002. Methods of Multivariate Analysis. 2nd ed. New York (US): John Wiley & Sons, Inc.

Schölkopf B, Smola AJ. 2002. Learning with Kernels. London (UK): The MIT Press.

Shen Y. 2007. Outlier Detection Using the Smallest Kernel Principal Component. [Disertasi]. Philadelphia (US): Temple University Graduate Board.

Sugiyama M. 2013. Advanced Data Analysis: Kernel PCA. [Internet]. [diunduh 2014 Okt 3]. Tersedia pada: www.ocw.titech.ac.jp/index.php.

Timm NH. 2002. Applied Multivariate Analysis. New York (US): Springer-Verlag. Ustaza W. 2014. Klasifikasi Data Menggunakan Analisis Komponen Utama Kernel.

[Skripsi]. Bogor (ID): Institut Pertanian Bogor.

(40)

28

Lampiran 1 Data pengenalan anggur

No. Kelompok Al AM Ab AA Mg TF Fl FF Pa WI Wa OD Pr

1 1 14.23 1.71 2.43 15.6 127 2.8 3.06 0.28 2.29 5.64 1.04 3.92 1065

2 1 13.2 1.78 2.14 11.2 100 2.65 2.76 0.26 1.28 4.38 1.05 3.4 1050

3 1 13.16 2.36 2.67 18.6 101 2.8 3.24 0.3 2.81 5.68 1.03 3.17 1185

4 1 14.37 1.95 2.5 16.8 113 3.85 3.49 0.24 2.18 7.8 0.86 3.45 1480

5 1 13.24 2.59 2.87 21 118 2.8 2.69 0.39 1.82 4.32 1.04 2.93 735

6 1 14.2 1.76 2.45 15.2 112 3.27 3.39 0.34 1.97 6.75 1.05 2.85 1450

7 1 14.39 1.87 2.45 14.6 96 2.5 2.52 0.3 1.98 5.25 1.02 3.58 1290

8 1 14.06 3.15 2.61 17.6 121 2.6 2.51 0.31 1.25 5.05 1.06 3.58 1295

9 1 14.83 1.64 2.17 14 97 2.8 2.98 0.29 1.98 5.2 1.08 2.85 1045

10 1 13.86 1.35 2.27 16 98 2.98 3.15 0.22 1.85 7.22 1.01 3.55 1045

11 1 14.1 2.16 2.3 18 105 2.95 3.32 0.22 2.38 5.75 1.25 3.17 1510

12 1 14.12 1.48 2.32 16.8 95 2.2 2.43 0.26 1.57 5 1.17 2.82 1280

13 1 13.75 1.73 2.41 16 89 2.6 2.76 0.29 1.81 5.6 1.15 2.9 1320

14 1 14.75 1.73 2.39 11.4 91 3.1 3.69 0.43 2.81 5.4 1.25 2.73 1150

15 1 14.38 1.87 2.38 12 102 3.3 3.64 0.29 2.96 7.5 1.2 3 1547

16 1 13.63 1.81 2.7 17.2 112 2.85 2.91 0.3 1.46 7.3 1.28 2.88 1310

17 1 14.3 1.92 2.72 20 120 2.8 3.14 0.33 1.97 6.2 1.07 2.65 1280

18 1 13.83 1.57 2.62 20 115 2.95 3.4 0.4 1.72 6.6 1.13 2.57 1130

19 1 14.19 1.59 2.48 16.5 108 3.3 3.93 0.32 1.86 8.7 1.23 2.82 1680

20 1 13.64 3.1 2.56 15.2 116 2.7 3.03 0.17 1.66 5.1 0.96 3.36 845

21 1 14.06 1.63 2.28 16 126 3 3.17 0.24 2.1 5.65 1.09 3.71 780

22 1 12.93 3.8 2.65 18.6 102 2.41 2.41 0.25 1.98 4.5 1.03 3.52 770

23 1 13.71 1.86 2.36 16.6 101 2.61 2.88 0.27 1.69 3.8 1.11 4 1035

24 1 12.85 1.6 2.52 17.8 95 2.48 2.37 0.26 1.46 3.93 1.09 3.63 1015

25 1 13.5 1.81 2.61 20 96 2.53 2.61 0.28 1.66 3.52 1.12 3.82 845

26 1 13.05 2.05 3.22 25 124 2.63 2.68 0.47 1.92 3.58 1.13 3.2 830

27 1 13.39 1.77 2.62 16.1 93 2.85 2.94 0.34 1.45 4.8 0.92 3.22 1195

28 1 13.3 1.72 2.14 17 94 2.4 2.19 0.27 1.35 3.95 1.02 2.77 1285

29 1 13.87 1.9 2.8 19.4 107 2.95 2.97 0.37 1.76 4.5 1.25 3.4 915

30 1 14.02 1.68 2.21 16 96 2.65 2.33 0.26 1.98 4.7 1.04 3.59 1035

31 1 13.73 1.5 2.7 22.5 101 3 3.25 0.29 2.38 5.7 1.19 2.71 1285

32 1 13.58 1.66 2.36 19.1 106 2.86 3.19 0.22 1.95 6.9 1.09 2.88 1515

33 1 13.68 1.83 2.36 17.2 104 2.42 2.69 0.42 1.97 3.84 1.23 2.87 990

34 1 13.76 1.53 2.7 19.5 132 2.95 2.74 0.5 1.35 5.4 1.25 3 1235

35 1 13.51 1.8 2.65 19 110 2.35 2.53 0.29 1.54 4.2 1.1 2.87 1095

36 1 13.48 1.81 2.41 20.5 100 2.7 2.98 0.26 1.86 5.1 1.04 3.47 920

37 1 13.28 1.64 2.84 15.5 110 2.6 2.68 0.34 1.36 4.6 1.09 2.78 880

38 1 13.05 1.65 2.55 18 98 2.45 2.43 0.29 1.44 4.25 1.12 2.51 1105

(41)

29

40 1 14.22 3.99 2.51 13.2 128 3 3.04 0.2 2.08 5.1 0.89 3.53 760

41 1 13.56 1.71 2.31 16.2 117 3.15 3.29 0.34 2.34 6.13 0.95 3.38 795

42 1 13.41 3.84 2.12 18.8 90 2.45 2.68 0.27 1.48 4.28 0.91 3 1035

43 1 13.88 1.89 2.59 15 101 3.25 3.56 0.17 1.7 5.43 0.88 3.56 1095

44 1 13.24 3.98 2.29 17.5 103 2.64 2.63 0.32 1.66 4.36 0.82 3 680

45 1 13.05 1.77 2.1 17 107 3 3 0.28 2.03 5.04 0.88 3.35 885

46 1 14.21 4.04 2.44 18.9 111 2.85 2.65 0.3 1.25 5.24 0.87 3.33 1080

47 1 14.38 3.59 2.28 16 102 3.25 3.17 0.27 2.19 4.9 1.04 3.44 1065

48 1 13.9 1.68 2.12 16 101 3.1 3.39 0.21 2.14 6.1 0.91 3.33 985

49 1 14.1 2.02 2.4 18.8 103 2.75 2.95 0.32 2.38 6.2 1.07 2.75 1060

50 1 13.94 1.73 2.27 17.4 108 2.88 3.54 0.32 2.08 8.9 1.12 3.1 1260

51 1 13.05 1.73 2.04 12.4 92 2.72 3.27 0.17 2.91 7.2 1.12 2.91 1150

52 1 13.83 1.65 2.6 17.2 94 2.45 2.99 0.22 2.29 5.6 1.24 3.37 1265

53 1 13.82 1.75 2.42 14 111 3.88 3.74 0.32 1.87 7.05 1.01 3.26 1190

54 1 13.77 1.9 2.68 17.1 115 3 2.79 0.39 1.68 6.3 1.13 2.93 1375

55 1 13.74 1.67 2.25 16.4 118 2.6 2.9 0.21 1.62 5.85 0.92 3.2 1060

56 1 13.56 1.73 2.4 20.5 116 2.96 2.78 0.2 2.45 6.25 0.98 3.03 1120

57 1 14.22 1.7 2.3 16.3 118 3.2 3 0.26 2.03 6.38 0.94 3.31 970

58 1 13.29 1.97 2.68 16.8 102 3 3.23 0.31 1.66 6 1.07 2.84 1270

59 1 13.72 1.43 2.5 16.7 108 3.4 3.67 0.19 2.04 6.8 0.89 2.87 1285

60 2 12.37 0.94 1.36 10.6 88 1.98 0.57 0.28 0.42 1.95 1.05 1.82 520

61 2 12.33 1.1 2.28 16 101 2.05 1.09 0.63 0.41 3.27 1.25 1.67 680

62 2 12.64 1.36 2.02 16.8 100 2.02 1.41 0.53 0.62 5.75 0.98 1.59 450

63 2 13.67 1.25 1.92 18 94 2.1 1.79 0.32 0.73 3.8 1.23 2.46 630

64 2 12.37 1.13 2.16 19 87 3.5 3.1 0.19 1.87 4.45 1.22 2.87 420

65 2 12.7 1.45 2.53 19 104 1.89 1.75 0.45 1.03 2.95 1.45 2.23 355

66 2 12.37 1.21 2.56 18.1 98 2.42 2.65 0.37 2.08 4.6 1.19 2.3 678

67 2 13.11 1.01 1.7 15 78 2.98 3.18 0.26 2.28 5.3 1.12 3.18 502

68 2 12.37 1.17 1.92 19.6 78 2.11 2 0.27 1.04 4.68 1.12 3.48 510

69 2 13.34 0.94 2.36 17 110 2.53 1.3 0.55 0.42 3.17 1.02 1.93 750

70 2 12.21 1.19 1.75 16.8 151 1.85 1.28 0.14 2.5 2.85 1.28 3.07 718

71 2 12.29 1.61 2.21 20.4 103 1.1 1.02 0.375 1.46 3.05 0.906 1.82 870

72 2 13.86 1.51 2.67 25 86 2.95 2.86 0.21 1.87 3.38 1.36 3.16 410

73 2 13.49 1.66 2.24 24 87 1.88 1.84 0.27 1.03 3.74 0.98 2.78 472

74 2 12.99 1.67 2.6 30 139 3.3 2.89 0.21 1.96 3.35 1.31 3.5 985

75 2 11.96 1.09 2.3 21 101 3.38 2.14 0.13 1.65 3.21 0.99 3.13 886

76 2 11.66 1.88 1.92 16 97 1.61 1.57 0.34 1.15 3.8 1.23 2.14 428

77 2 13.03 0.9 1.71 16 86 1.95 2.03 0.24 1.46 4.6 1.19 2.48 392

78 2 11.84 2.89 2.23 18 112 1.72 1.32 0.43 0.95 2.65 0.96 2.52 500

79 2 12.33 0.99 1.95 14.8 136 1.9 1.85 0.35 2.76 3.4 1.06 2.31 750

80 2 12.7 3.87 2.4 23 101 2.83 2.55 0.43 1.95 2.57 1.19 3.13 463

81 2 12 0.92 2 19 86 2.42 2.26 0.3 1.43 2.5 1.38 3.12 278

(42)

30

83 2 12.08 1.13 2.51 24 78 2 1.58 0.4 1.4 2.2 1.31 2.72 630

84 2 13.05 3.86 2.32 22.5 85 1.65 1.59 0.61 1.62 4.8 0.84 2.01 515

85 2 11.84 0.89 2.58 18 94 2.2 2.21 0.22 2.35 3.05 0.79 3.08 520

86 2 12.67 0.98 2.24 18 99 2.2 1.94 0.3 1.46 2.62 1.23 3.16 450

87 2 12.16 1.61 2.31 22.8 90 1.78 1.69 0.43 1.56 2.45 1.33 2.26 495

88 2 11.65 1.67 2.62 26 88 1.92 1.61 0.4 1.34 2.6 1.36 3.21 562

89 2 11.64 2.06 2.46 21.6 84 1.95 1.6 0.48 1.35 2.8 1 2.75 680

90 2 12.08 1.33 2.3 23.6 70 2.2 1.59 0.42 1.38 1.74 1.07 3.21 625

91 2 12.08 1.83 2.32 18.5 81 1.6 1.5 0.52 1.64 2.4 1.08 2.27 480

92 2 12 1.51 2.42 22 86 1.45 1.25 0.5 1.63 3.6 1.05 2.65 450

93 2 12.69 1.53 2.26 20.7 80 1.38 1.46 0.58 1.62 3.05 0.96 2.06 495

94 2 12.29 2.83 2.22 18 88 2.45 2.25 0.25 1.99 2.15 1.15 3.3 290

95 2 11.62 1.99 2.28 18 98 3.02 2.26 0.17 1.35 3.25 1.16 2.96 345

96 2 12.47 1.52 2.2 19 162 2.5 2.27 0.32 3.28 2.6 1.16 2.63 937

97 2 11.81 2.12 2.74 21.5 134 1.6 0.099 0.14 1.56 2.5 0.95 2.26 625

98 2 12.29 1.41 1.98 16 85 2.55 2.5 0.29 1.77 2.9 1.23 2.74 428

99 2 12.37 1.07 2.1 18.5 88 3.52 3.75 0.24 1.95 4.5 1.04 2.77 660

100 2 12.29 3.17 2.21 18 88 2.85 2.99 0.45 2.81 2.3 1.42 2.83 406

101 2 12.08 2.08 1.7 17.5 97 2.23 2.17 0.26 1.4 3.3 1.27 2.96 710

102 2 12.6 1.34 1.9 18.5 88 1.45 1.36 0.29 1.35 2.45 1.04 2.77 562

103 2 12.34 2.45 2.46 21 98 2.56 2.11 0.34 1.31 2.8 0.8 3.38 438

104 2 11.82 1.72 1.88 19.5 86 2.5 1.64 0.37 1.42 2.06 0.94 2.44 415

105 2 12.51 1.73 1.98 20.5 85 2.2 1.92 0.32 1.48 2.94 1.04 3.57 672

106 2 12.42 2.55 2.27 22 90 1.68 1.84 0.66 1.42 2.7 0.86 3.3 315

107 2 12.25 1.73 2.12 19 80 1.65 2.03 0.37 1.63 3.4 1 3.17 510

108 2 12.72 1.75 2.28 22.5 84 1.38 1.76 0.48 1.63 3.3 0.88 2.42 488

109 2 12.22 1.29 1.94 19 92 2.36 2.04 0.39 2.08 2.7 0.86 3.02 312

110 2 11.61 1.35 2.7 20 94 2.74 2.92 0.29 2.49 2.65 0.96 3.26 680

111 2 11.46 3.74 1.82 19.5 107 3.18 2.58 0.24 3.58 2.9 0.75 2.81 562

112 2 12.52 2.43 2.17 21 88 2.55 2.27 0.26 1.22 2 0.9 2.78 325

113 2 11.76 2.68 2.92 20 100 1.75 2.03 0.6 1.05 3.8 1.23 2.5 607

114 2 11.41 0.74 2.5 21 88 2.48 2.01 0.42 1.44 3.08 1.1 2.31 434

115 2 12.08 1.39 2.5 22.5 84 2.56 2.29 0.43 1.04 2.9 0.93 3.19 385

116 2 11.03 1.51 2.2 21.5 85 2.46 2.17 0.52 2.01 1.9 1.71 2.87 407

117 2 11.82 1.47 1.99 20.8 86 1.98 1.6 0.3 1.53 1.95 0.95 3.33 495

118 2 12.42 1.61 2.19 22.5 108 2 2.09 0.34 1.61 2.06 1.06 2.96 345

119 2 12.77 3.43 1.98 16 80 1.63 1.25 0.43 0.83 3.4 0.7 2.12 372

120 2 12 3.43 2 19 87 2 1.64 0.37 1.87 1.28 0.93 3.05 564

121 2 11.45 2.4 2.42 20 96 2.9 2.79 0.32 1.83 3.25 0.8 3.39 625

122 2 11.56 2.05 3.23 28.5 119 3.18 5.08 0.47 1.87 6 0.93 3.69 465

123 2 12.42 4.43 2.73 26.5 100 2.2 2.13 0.43 1.71 2.08 0.92 3.12 365

(43)

31

125 2 11.87 4.31 2.39 21 82 2.86 3.03 0.21 2.91 2.8 0.75 3.64 380

126 2 12.07 2.16 2.17 21 85 2.6 2.65 0.37 1.35 2.76 0.86 3.28 378

127 2 12.43 1.53 2.29 21.5 86 2.74 3.15 0.39 1.77 3.94 0.69 2.84 352

128 2 11.79 2.13 2.78 28.5 92 2.13 2.24 0.58 1.76 3 0.97 2.44 466

129 2 12.37 1.63 2.3 24.5 88 2.22 2.45 0.4 1.9 2.12 0.89 2.78 342

130 2 12.04 4.3 2.38 22 80 2.1 1.75 0.42 1.35 2.6 0.79 2.57 580

131 3 12.86 1.35 2.32 18 122 1.51 1.25 0.21 0.94 4.1 0.76 1.29 630

132 3 12.88 2.99 2.4 20 104 1.3 1.22 0.24 0.83 5.4 0.74 1.42 530

133 3 12.81 2.31 2.4 24 98 1.15 1.09 0.27 0.83 5.7 0.66 1.36 560

134 3 12.7

Referensi

Dokumen terkait

Skripsi ini mempelajari tentang struktur aljabar subgrup multi anti fuzzy dan beberapa sifat terkait. Tujuan skripsi ini adalah menerapakan teori himpunan fuzzy dan teori grup

Sehubung dengan itu, pembangunan laman web tingkatan empat bertajuk Garis dan Satah Dalam Tiga Matra akan dibangunkan bagi membantu menyelesaikan masalah ketidakfahaman pelajar

It is based on a mixed modeling of the system under test: an MBT model captures the behavioral aspects of the Web appli- cation, while formalized vulnerability test patterns,

6erda1arkan (a1il Pemerik1aan =er1ama ;apan$an %an$ dilak1anakan 'leh Panitia Peneliti Pelak1anaan K'ntrak, K'ntrakt'r Pelak1ana dan K'n1ultan Pen$awa1 pada hari Rabu 31

Hasil dari penelitian pengembangan MARKA WEB pada materi pecahan senilai kelas IV Sekolah Dasar mendapatkan (1) Persentase validasi media 84% (2) Persentase validasi

menunjukan bahwa, PT Panin Insurance Tbk terlihat lebih baik. Oleh karena itu, perlu dianalisis lebih lanjut untuk mengetahui apakah benar kinerja perusahaan PT Panin Insurance

Berdasarkan data yang tersedia, kriteria klasifikasi tidak terpenuhi. Sensitisasi sistem pernafasan

Penerapan model problem solving melalui pendekatan saintifik dalam pembelajaran tema Sehat itu Penting pada muatan IPA pada siswa kelas 5A Semester I SDN Ngening