• Tidak ada hasil yang ditemukan

BAB II LANDASAN TEORI

2.6 K-Fold Cross Validation

K-Fold Cross Validation merupakan sebuah metode melakukan validasi, dimana dalam metode ini, data akan dibagi menjadi data latih dan data uji menjadi K kelompok. Tujuan dari pembagian data ini berfungsi untuk melakukan pengujian secara silang untuk seluruh data untuk melihat nilai akurasi dari sebuah model yang dibangun. Konsep pembagian data pada metode K-Fold akan mengambil 1 dari K kelompok untuk dijadikan sebagai data uji. Sebagai contoh, jika kita ingin membagi data menjadi 3 kelompok, maka 1 dari 3 kelompok tersebut akan menjadi data uji dan 2 lainnya akan menjadi data latih.

Gambar 2. 1 Ilustrasi Cross Validation 3 Fold

17

BAB III

METODOLOGI PENELITIAN

3.1 Deskripsi Data

Data yang digunakan pada penelitian ini adalah data citra aksara Bali hasil dari penelitian “SEGMENTASI CITRA HURUF DAUN LONTAR” dan penelitian

“CLUSTERING CITRA AKSARA BALI HASIL SEGMENTASI CITRA DAUN LONTAR” yang berjumlah 1489 data yang dibagi dalam 175 kelompok.

3.2 Kebutuhan Perangkat Hardware dan Software a. Spesifikasi Hardware :

1. Processor Intel® Core™ i7 – 9750H CPU @ 2.60GHz 2. RAM 8 GB

3. SSD 256 GB

Gambar 3. 1 Citra aksara Bali

18

b. Spesifikasi Software : 1. Matlab R2017b

2. Sistem Operasi Windows 10

3.3 Perancangan Sistem

Pada bagian ini, akan memperlihatkan perancangan sistem yang akan dibuat pada penelitian ini. Untuk desain sistemnya adalah sebagai berikut :

Gambar 3. 2 Diagram perancangan sistem

Sistem akan melakukan identifikasi aksara Bali dengan menggunakan metode klasifikasi Modified k – Nearest Neighbor (MKNN). Proses identifikasi aksara Bali dilakukan berdasarkan jarak paling dekat antara data dengan tetangganya. Pertama, data citra yang akan di klasifikasi akan di preprocessing terlebih dahulu. Proses di dalam preprocessing meliputi binerisasi, cropping, thinning dan resize image.

Selanjutnya, data hasil preprocessing akan di ekstraksi ciri untuk diambil karakter citra nya. hasil dari ekstraksi ciri berupa matriks NxN, lalu dilakukan proses klasifikasi untuk mengidentifikasi matriks hasil ekstraksi ciri tersebut. Setelah mendapatkan hasil klasifikasi yang berupa label, maka akan di evaluasi untuk mendapatkan tingkat akurasi dari pemakaian metode klasifikasi MKNN.

19

3.4 Preprocessing

Dalam preprocessing, data citra aksara Bali akan di proses terlebih dahulu sebelum diolah. Sebelum data diolah, data di input kan ke dalam Matlab dengan menggunakan fungsi imread.

Gambar 3. 3 Diagram preprocessing

a. Binerisasi

Dalam Binerisasi, citra aksara Bali akan yang telah diinputkan akan diubah ke dalam citra biner atau citra hitam putih. Untuk proses Binerisasi sendiri, menggunakan fungsi im2bw() dari Matlab.

b. Cropping

Dalam cropping, dengan Profil Proyeksi, bagian kosong dari data citra biner akan akan dipotong sehingga obyek dari citra akan lebih kelihatan yang dimana metode ini akan memotong secara vertikal dan horizontal.

c. Resize

Dalam Resize, ukuran dari data citra yang selesai di cropping akan diubah supaya setiap data yang akan digunakan akan memiliki ukuran yang sama dan bisa diolah dengan mudah oleh sistem. Dalam resize menggunakan fungsi imresize() dari Matlab.

20

d. Thinning

Dalam Thinning, citra yang telah di resize akan ditipiskan atau diambil kerangka nya. Metode yang digunakan dalam thinning adalah metode Rosenfeld.

3.5 Ekstraksi Ciri

Setelah dilakukan preprocessing, akan dilakukan ekstraksi ciri untuk mengambil ciri atau informasi yang terkandung dari dalam citra.

Gambar 3. 4 Diagram ekstraksi ciri a. Intensity of Character (IoC)

IoC akan menghitung piksel yang berwarna hitam atau bernilai 0 dari citra berdasarkan ukuran yang ditentukan. Jika misalnya menentukan ukuran IoC 3x3, maka citra akan dibagi menjadi 9 bagian. Hasil dari IoC ini, akan menghasilkan matriks berukuran NxN. Setelah mendapatkan hasil, maka matriks NxN tersebut akan diubah ke matriks 1xN menggunakan fungsi dari Matlab yaitu cell2mat. Dari contoh yang menggunakan IoC 3x3, maka akan diubah menjadi matriks 1x9 pada Matlab sebelum diklasifikasi.

➢ Input :

1. Citra hasil preprocessing 2. Ukuran ciri dari IoC

➢ Algoritma : 1. Baca Data

2. Set tinggi = size(data, 1) 3. Set lebar = size(data, 2)

4. Bagi data sesuai ukuran ciri dari IoC yang ditentukan 5. Menncari piksel 0 dari setiap bagian citra, lalu dijumlahkan

21

6. Mengulang langkah 2 sampai mendapatkan citra sesuai dengan ukuran yang ditentukan

➢ Output : Matriks berukuran NxN

3.6 Klasifikasi Modified K-Nearest Neighbor (MKNN)

Setelah mendapatkan matriks NxN, data matriks tersebut akan diklasifikasikan menggunakan metode MKNN. Sebelum melakukan perhitungan MKNN, terlebih dahulu akan menentukan nilai K yang akan digunakan dalam klasifikasi.

Gambar 3. 5 Diagram Modified K-Nearest Neighbor

a. Menghitung jarak Euclidian antar data latih

➢ Input : Data latih hasil ekstraksi ciri.

➢ Algoritma :

1. Mengambil baris dan kolom dari data latih

2. Melakukan perulangan i = 1 sampai semua data latih 3. Melakukan perulangan j = 1 sampai semua data latih

4. Membuat variabel nilai = 0 untuk menyimpan hasil perhitungan Euclidian

5. Melakukan perulangan k = 1 sampai semua kolom pada data latih

6. Set variabel nilai = nilai + pengurangan dari dataLatih(i,k) dan dataLatih(j,k) dikuadratkan 2

7. Membuat variabel euclidianLatih(i,j) untuk menyimpan hasil akar dari perhitungan ke 6

22

➢ Output : Hasil perhitungan Euclidian antar data latih b. Menghitung Nilai Validitas

Untuk mempermudah pengambilan tetangga, hasil perhitungan Euclidian data latih akan diurutkan terlebih dahulu menggunakan function sort pada Matlab.

➢ Input :

1. Euclidian data latih 2. Nilai K

➢ Algoritma :

1. Melakukan perulangan i = 1 sampai semua Euclidian data latih

2. Melakukan perulangan j = 1 sampai dengan jumlah nilai K 3. Set variabel data(i,1) = label(i,1)

4. Set variabel tetangga(i,j) = label(i, (j+1))

5. Melakukan perbandingan, jika kelas dari data sama dengan tetangga nya maka akan bernilai 1, jika berbeda akan bernilai 0

6. Menyimpan hasil perbandingan ke variabel nilaiPerbandingan

7. Mengambil baris dan kolom dari nilaiPerbandingan.

8. Melakukan perulangan i = 1 sampai semua nilaiPerbandingan

9. Membuat variabel itungan = 0 untuk menyimpan hasil perhitungan nilai Validitas

10. Membuat variabel nilaiValiditas untuk menyimpan hasil dari itungan

➢ Output : Hasil perhitungan nilai Validitas

23

c. Menghitung jarak Euclidian data latih dengan data uji

➢ Input :

1. Data latih 2. Data Uji

➢ Algoritma :

1. Mengambil baris dan kolom dari data uji

2. Melakukan perulangan ii =1 sampai semua data latih

3. Membuat variabel hasil = 0 untuk menyimpan hasil Euclidian data latih dan data uji

4. Melakukan perulangan jj = 1 sampai semua data uji

5. Melakukan perulangan kk = 1 sampai semua kolom data uji 6. Set variabel hasil = hasil + pengurangan dari dataLatih(jj,kk)

dan dataUji(ii,kk) dikuadratkan 2.

7. Membuat variabel euclidianLatihUji(jj,ii) untuk menyimpan hasil akar dari perhitungan Euclidian data latih dan data uji

➢ Output : Hasil perhitungan Euclidian data latih dan data uji

d. Menghitung Weight Voting

➢ Input :

1. Euclidian data latih dan data uji 2. Nillai Validitas

➢ Algoritma :

1. Mengambil baris dan kolom dari Euclidian data latih dan data uji

2. Mengambil baris dan kolom dari nilai Validitas

3. Melakukan perulangan iii = 1 sampai semua nilai Euclidian data latih dan data uji

4. Melakukan perulangan jjj = 1 sampai semua kolom nilai Euclidian data latih dan data uji

5. Membuat variabel nilaiV = euclidianLatihUji(iii,jjj) + nilai regular smoothing

24

6. Membuat variabel nilaiWeightVoting(iii,jjj) = nilaiValiditas(iii,jjj) * (1 / nilaiV)

➢ Output : Hasil Weight Voting Capture program MKNN :

Gambar 3. 6 Program MKNN I

25

Gambar 3. 7 Program MKNN II

26

3.7 Skema Pengujian

Pada penelitian ini, akan melakukan penerapan metode klasifikasi Modified K-Nearest Neighbor (MKNN) pada data citra aksara Bali. Nilai yang digunakan adalah :

a. Ekstraksi ciri menggunakan metode Intensity of Character (IoC) yang berukuran 3x3 dan 4x4.

b. Nilai K-Fold yang digunakan untuk pengujian menggunakan data jamak menggunakan metode K-Fold Cross Validation adalah 3-Fold, 5-Fold dan 7-Fold.

c. Nilai K yang digunakan dalam klasifikasi MKNN yaitu 1, 3, 5, 7 dan 9.

Dengan beberapa pengujian yang dilakukan, adalah sebagai berikut :

a. Skenario pertama, akan menggunakan ekstraksi ciri berukuran 3x3 dan akan mencari rata-rata akurasi terbaik dari semua nilai K-Fold dan nilai K dari MKNN.

b. Setelah mendapatkan rata-rata akurasi terbaik, maka skenario tersebut akan dipakai untuk ekstraksi ciri 4x4 lalu mebandingkan hasilnya untuk mencari yang terbaik.

c. Hasil terbaik dari perbandingan ekstraksi ciri 3x3 dan 4x4 akan digunakan untuk skenario selanjutnya, dimana dalam skenario ini, akan melakukan preprocessing tanpa thinning. Setelah mendapatkan hasil, maka hasil tersebut akan dibandingkan dengan skenario selanjutnya untuk mencari yang terbaik.

d. Setelah mendapatkan hasil yang terbaik, maka skenario tersebut akan digunakan untuk pengujian selanjutnya, dimana untuk nilai regulator smoothing pada weight voting akan diubah menjadi 0,4 dan 0,6. Selanjutnya akan dibandingkan untuk mendapatkan hasil yang terbaik.

27

3.8 Desain User Interface

Gambar 3. 8 Desain GUI a. Input Data

Data citra diinputkan lewat button Cari Citra. Setelah diinputkan, akan diperlihatkan citra beserta nama dari file citra tersebut.

b. Preprocessing

Setelah diinputkan, data akan diolah lewat button Preprocessing. Hasil setelah diolah akan ditampilkan.

c. Klasifikasi

Data citra yang telah diolah, akan dilakukan ekstraksi ciri lalu dilakukan klasifikasi pada button Klasifikasi. Hasil yang akan ditampilkan berupa label sesuai dengan nama folder hasil clustering

28

BAB IV

HASIL DAN PEMBAHASAN

4.1 Data

Data yang digunakan adalah data citra aksara Bali yang berjumlah 1489 data dari 175 kelompok. Dikarenakan jumlah data pada setiap kelompok tidak seimbang, maka data yang digunakan pada penelitian ini berjumlah 980 data dari 17 cluster saja dengan syarat bahwa data yang diambil dari setiap cluster memiliki minimal 20 data. Dimana untuk data yang digunakan adalah sebagai berikut :

Tabel 4. 1 Data citra

29

C23 43 23 Wa

C27 93 27 Taleng

C34 70 34

Ra

C40 36 40 Ya

C42 34 42 Suku

4.2 Implementasi Preprocessing

Pada bagian ini, akan memperlihatkan hasil dari preprocessing pada citra aksara Bali.

4.2.1 Binerisasi

Data citra aksara Bali yang telah diinputkan ke dalam Matlab akan di binerisasikan menggunakan fungsi im2bw. Hasilnya adalah sebagai berikut :

Tabel 4. 2 Hasil binerisasi

Data citra awal Data citra hasil binerisasi

30

Dilihat dari Tabel 4.2, dapat dilihat bahwa tidak ada perubahan yang signifikan dari citra setelah di binerisasi dikarenakan warna dari citra awal mirip dengan citra binerisasi. Salah satu yang membuat perbedaan yaitu, citra hasil binerisasi sudah diubah menjadi citra biner yang mempunyai nilai 1 dan 0 seperti pada Gambar 4.1.

Gambar 4. 1 Hasil citra binerisasi

Selanjutnya, bisa dilihat juga pada Tabel 4.3 yaitu workspace dari matlab dimana terjadi perubahan yang sebelumnya uint8 menjadi logical.

Tabel 4. 3 Perubahan pada workspace setelah binerisasi Sebelum Binerisasi Sesudah Binerisasi

4.2.2 Cropping

Setelah di binerisasikan, selanjutnya citra akan di cropping dengan menggunakan Profil Proyeksi. Hasilnya adalah sebagai berikut :

31

Tabel 4. 4 Citra Cropping

Citra Binerisasi Citra Cropping

Dapat dilihat pada Tabel 4.4, bahwa setelah, bagian putih yang berlebihan di potong dan hanya menyisakan citra nya saja. Lalu untuk ukuran setelah di cropping juga berubah pada workspace seperti pada Tabel 4.5.

Tabel 4. 5 Perubahan pada workspace setelah cropping

Sebelum Cropping Setelah Cropping

4.2.3 Resize

Setelah mendapatkan citra nya, selanjutnya resolusi atau ukuran dari citra akan diubah agar supaya dengan mudah diolah. Pada penelitian ini, menggunakan ukuran 60x60 dengan hasil sebagai berikut :

Tabel 4. 6 Citra Resize

Citra Cropping Citra Resize

Dari Tabel 4.6, dapat dilihat bahwa ukuran citra lebih besar dari sebelumnya yang awalnya berukuran 42x46 menjadi ukuran 60x60. Lalu untuk ukuran setelah di resize juga berubah pada workspace seperti pada Tabel 4.7.

32

Tabel 4. 7 Perubahan pada workspace setelah resize

Sebelum Resize Sesudah Resize

4.2.4 Thinning

Langkah terakhir adalah dengan mengubah citra menjadi rangka (Skeleton) menggunakan metode Rosenfeld. Hasilnya adalah sebagai berikut :

Tabel 4. 8 Citra Thinning

Citra Resize Citra Thinning

Dari Tabel 4.8, dapat dilihat bahwa citra sudah ditipiskan dan tersisa kerangka dari citra tersebut.

4.3 Implementasi Ekstraksi Ciri

Data yang telah di preprocessing akan dilakukan ekstraksi ciri untuk diambil ciri citra. Hasil dari ekstraksi ciri adalah sebagai berikut :

Tabel 4. 9 Hasil Ekstraksi Ciri

Citra Ciri IoC 3x3

Label

1 2 3 4 5 6 7 8 9

0 32 22 9 26 21 30 62 50 C2

22 52 22 27 26 30 34 47 42 C3

33

29 39 14 6 0 24 40 57 36 C4

Dari Tabel 4.9, data citra yang awalnya berukuran 60x60 akan menjadi matriks 3x3, lalu diubah menjadi matriks 1x9 emnggunakan fungsi cell2mat.

4.4 Implementasi K-Fold Cross Validation

Setelah mendapatkan ciri dari citra, selanjutnya akan melakukan pembagian data untuk menguji akurasi dari sistem. Data yang awalnya berjumlah 980 akan dibagi menjadi 2 bagian, yaitu menjadi data testing dan data training.

Pembagiannya adalah sebagai berikut :

Gambar 4. 2 Hasil pembagian 3 Fold Data Training

Pada Gambar 4.2, terdapat 3 cell berisi 2/3 dari data yang menjadi data training untuk setiap fold nya.

Gambar 4. 3 Hasil Pembagian 3 Fold Data Testing

Pada Gambar 4.3, terdapat 3 cell juga yang berisi 1/3 dari data yang menjadi data testing untuk setiap fold nya.

Hal ini juga berlaku untuk penggunaan 5 Fold dan 7 Fold, dimana untuk 5 Fold, akan dibagi menjadi 5 cell. Untuk data training nya akan diambil 4/5 dari jumlah data lalu untuk data testing nya akan diambil 1/5 dari jumlah data. Selanjutnya untuk 7 Fold, akan dibagi menjadi 7 cell. Untuk data training nya akan diambil 6/7 dari jumlah data dan untuk data testing nya akan diambil 1/7 dari jumlah data.

34

4.5 Implementasi Modified K-Nearest Neighbor

Pada bagian ini akan menunjukkan proses implementasi Modified K-Nearest Neighbor (MKNN). Sebagai contoh akan menggunakan data yang telah di ekstraksi ciri memakai ukuran IoC 3x3 dengan nilai K = 3, dimana data nya sebagai berikut :

Tabel 4. 10 Data Training

No. Ciri Label

39 38 12 20 0 3 36 27 21 C13

14 50 17 34 0 0 15 46 27 C13

24 11 0 39 24 0 44 20 22 C34

27 16 0 35 22 0 46 23 26 C34

0 0 49 8 0 36 40 46 11 C40

0 4 34 0 4 29 50 40 0 C40

Tabel 4. 11 Data Testing

No. Ciri Label

0 0 147 2 11 143 129 136 78 ??

Setelah mengetahui data training dan data testing yang akan digunakan, selanjutnya menghitung nilai Euclidian antar data training nya dengan Rumus (2.1). Perhitungannya sebagai berikut :

35

Sampai menghitung untuk semua data training dan mendapatkan hasil perhitungan Euclidian antar data training sebagai berikut :

Tabel 4. 12 Hasil Euclidian antar data training

Euclidian Data Latih

Setelah mendapatkan hasil Euclidian dari Tabel 4.12, selanjutnya mencari tetangga terdekat dengan data, dimana adalah sebagai berikut :

Tabel 4. 13 Tetangga terdekat dengan data

Euclidian Data Latih Kelas

1 0 42,8602 46,4543 40,3856 77,7432 71,1266 13

36

Setelah mendapatkan tetangga terdekat seperti di Tabel 4.13, selanjutnya membandingkan kelas dari data dengan tetangga terdekatnya menggunakan Rumus (2.3), dengan hasil sebagai berikut :

Tabel 4. 14 Hasil perbandingan kelas data dengan tetangga

Setelah membandingkan kelas data dengan tetangganya seperti pada Tabel 4.14, selanjutnya adalah menghitung nilai Validitas nya dengan menggunakan Rumus (2.2). Hasil perhitungan nya adalah sebagai berikut :

𝑉𝑎𝑙𝑖𝑑𝑖𝑡𝑎𝑠(𝑇𝑟𝑎𝑖𝑛𝑖𝑛𝑔1) = 1

3 𝑥 (1 + 0 + 0) = 0,33333 𝑉𝑎𝑙𝑖𝑑𝑖𝑡𝑎𝑠(𝑇𝑟𝑎𝑖𝑛𝑖𝑛𝑔2) = 1

3 𝑥 (1 + 0 + 0) = 0,33333

Sampai menghitung semua nilai Validitas dari data training, sehingga mendapatkan hasil nilai Validitas sebagai berikut :

Tabel 4. 15 Hasil Nilai Validitas

Data Tetangga Kelas D Kelas T Nilai Data Tetangga Kelas D Kelas T Nilai

2 13 1 1 13 0

3 34 0 2 13 0

4 34 0 3 34 1

Data Tetangga Kelas D Kelas T Nilai Data Tetangga Kelas D Kelas T Nilai

1 13 1 1 13 0

3 34 0 2 13 0

4 34 0 6 40 1

Data Tetangga Kelas D Kelas T Nilai Data Tetangga Kelas D Kelas T Nilai

1 13 0 1 13 0

37

Setelah mendapatkan nilai Validitas, selanjutnya adalah menghitung nilai Euclidian antar data latih dengan data uji menggunakan Rumus (2.1). Hasilnya adalah sebagai berikut :

Tabel 4. 16 Hasil perhitungan Euclidian Training dan Testing

Selanjutnya, menghitung nilai Weight Voting dari hasil Euclidian data testing dengan menggunakan Rumus (2.3). Perhitungannya adalah sebagai berikut :

𝑊𝑉(𝑇𝑒𝑠𝑡𝑖𝑛𝑔1) = 0,33333 𝑥 1

254,9784 + 0,5= 0,0013 𝑊𝑉(𝑇𝑒𝑠𝑡𝑖𝑛𝑔2) = 0,33333 𝑥 1

254,7292 + 0,5= 0,00131

Sampai mendapatkan semua nilai Weight Voting. Hasil dari perhitungannya adalah sebagai berikut :

Tabel 4. 17 Hasil perhitungan Weight Voting

Terakhir, dari Tabel 4.17, akan diambil nilai terbesar sejumlah K untuk menentukan kelas yang akan di dapatkan oleh data testing. Dimana tetangga nya adalah sebagai berikut :

Euclidian Latih Uji

38

Tabel 4. 18 Pencarian nilai terbesar

Dari Tabel 4.18, dari nilai terbesar yang di dapatkan, terdapat dua kelas yang muncul yaitu kelas 13 dan 40. Dikarenakan kelas 40 muncul lebih banyak dari kelas 13, maka untuk label dari data testing akan mendapatkan kelas 40.

4.6 Pengujian

Pengujian pada penelitian ini menggunakan data yang tidak seimbang (imbalance), dimana jumlah isi setiap kelas berjumlah minimal 20 data. Hasil dari pengujian pada penelitian ini adalah sebagai berikut :

4.6.1 Pengujian Pertama

Pada pengujian ini, menggunakan ukuran citra 60x60 dengan IoC berukuran 3x3 untuk semua nilai K-Fold dan semua nilai K pada MKNN.

Hasil dari pengujian pertama adalah sebagai berikut : a. Pengujian menggunakan 3 Fold Cross Validation

Pengujian menggunakan 3 Fold Cross Validation dimana 2/3 sebagai data training yang berjumlah 654 data dan 1/3 sebagai data testing berjumlah 326 data. Hasil dari pengujian ini yaitu :

0,0013 13 0,00131 13 0,00127 34 0,00129 34 0,00163 40 0,00153 40 Weight Voting

39

Tabel 4. 19 Hasil Pengujian 3 Fold

Dari Tabel 4.19, bisa dilihat bahwa akurasi yang di dapatkan dari pengujian dengan 3 Fold mendapat hasil maksimal pada Fold 3 dan nilai K = 5 dengan akurasi 90,2439%. Lalu mendapatkan hasil minimal pada Fold 1 dan nilai K = 9 dengan akurasi 80,9816. Untuk rata – rata dari akurasi yang di dapatkan, paling tinggi pada penggunaan nilai K = 1, yaitu 88,1621%.

b. Pengujian menggunakan 5 Fold Cross Validation

Pengujian menggunakan 5 Fold Cross Validation dimana 4/5 sebagai data training yang berjumlah 784 data dan 1/5 sebagai data testing yang berjumlah 196 data. Hasil dari pengujian ini yaitu :

Tabel 4. 20 Hasil pengujian 5 Fold

K Akurasi pada Fold 5

40

Dari Tabel 4.20, mendapatkan hasil maksimal pada Fold 5 dan nilai K = 1 dengan akurasi 91,3265%. Lalu untuk nilai minimal pada Fold 2 dan nilai K = 9 dengan akurasi 81,1224%. Untuk rata – rata akurasi di dapat pada penggunaan nilai K = 1 dengan akurasi 89,5918%.

c. Pengujian menggunakan 7 Fold Cross Validation

Pengujian menggunakan 7 Fold Cross Validation dimana 6/7 sebagai data training berjumlah 840 data dan 1/7 sebagai data testing berjumlah 140 data. Hasil dari pengujian ini yaitu :

Tabel 4. 21 Hasil pengujian 7 Fold

K

Akurasi pada Fold

Rata-rata

Dari Tabel 4.21, mendapatkan hasil maksimal pada Fold 1 dan nilai K = 3. Lalu untuk nilai minimal pada Fold 4 dan nilai K = 9 dengan akurasi 82,8571%. Untuk rata – rata dari akurasi di dapat pada penggunaa nilai K = 1 dengan akurasi 89,59184

Pada pengujian pertama, dapat dilihat bahwa rata-rata akurasi yang di dapat dengan menggunakan nilai K = 1 bisa mendapatkan akurasi yang lebih tinggi dibandingkan menggunakan nilai K 3, 5, 7 dan 9 pada semua pengujian Fold.

41

Dari Gambar 4.4, bisa dilihat bahwa rata – rata akurasi yang di dapat dengan 7 Fold lebih tinggi dibandingkan dengan penggunaan 3 atau 5 Fold meskipun perbedaan nya tidak terlalu signifikan. Hasil terbaik dengan memakai 7 Fold dan nilai K = 1 akan digunakan untuk pengujian selanjutnya.

4.6.2 Pengujian Kedua

Pada pengujian kedua, menggunakan hasil terbaik dari pengujian pertama yaitu, dengan nilai K-Fold = 7 dan nilai K = 1 pada MKNN.

Pada pengujian ini, menggunakan ekstraksi ciri IoC dengan ukuran 4x4.

Tabel 4. 22 Hasil pengujian kedua

K

Akurasi menggunakan Fold 7

Rata-rata

Gambar 4. 4 Grafik pengujian kedua

42

Pada pengujian kedua, dari Tabel 4.22, rata-rata akurasi yang di dapatkan dengan menggunakan IoC 4x4 untuk 7 Fold dan K = 1 yaitu 92,3% dengan hasil maksimal pada Fold 5 dengan akurasi 96,4286% dan hasil minimal pada Fold 6 dengan akurasi 89,2857%.

Gambar 4. 5 Grafik pengujian kedua

Dari Gambar 4.5, pengujian dengan menggunakan ekstraksi ciri berukuran 4x4 mendapatkan akurasi yang lebih tinggi dibandingkan dengan menggunakan ukuran 3x3, yaitu 92,2449%. Hasil terbaik dengan menggunakan ekstraksi ciri berukuran 4x4 dengan K-Fold = 7 dan nilai K

= 1 pada MKNN akan dipakai pada pengujian selanjutnya.

4.6.3 Pengujian ketiga

Pada pengujian ketiga, menggunakan hasil terbaik dari pengujian kedua, yaitu menggunakan ekstraksi ciri berukuran 4x4 dengan nilai K-Fold

= 7 dan nilai K = 1 pada MKNN. Pada pengujian ini tidak akan menggunakan metode thinning pada proses preprocessing.

89,59184

43

Tabel 4. 23 Hasil pengujian ketiga

K

Akurasi menggunakan Fold 7

Rata-rata Fold 1 Fold 2 Fold 3 Fold 4 Fold 5 Fold 6 Fold 7

1 97,1429 94,2857 95,7143 92,8571 95,7143 93,5714 94,2857 94,79591429

Dari Tabel 4.23, memperlihatkan bahwa untuk akurasi yang di dapatkan pada penggunaan ekstraksi ciri berukuran 4x4 dengan 7 Fold dan nilai K =1 yaitu 94,7959%. Dari hasil ini, akan dibandingkan dengan hasil terbaik dari pengujian sebelumnya. Untuk perbandingan nya adalah sebagai berikut :

Gambar 4. 6 Grafik pengujian ketiga

Dari perbandingan rata-rata akurasi pada Gambar 4.6, proses tanpa thinning mendapatkan hasil lebih tinggi dibandingkan dengan menggunakan thinning, yaitu 94,7959%. Dari hasil perbandingan ini, maka untuk pengujian selanjutnya akan melakukan proses tanpa menggunakan thinning.

4.6.4 Pengujian keempat

Pada pengujian keempat, akan menggunakan hasil terbaik dari pengujian sebelumnya, yaitu menggunakan data citra tanpa thinning, ekstraksi ciri IoC 4x4, Fold 7 dan nilai K =1 pada MKNN. Pada pengujian ini akan mengganti nilai regulator smoothing pada weight voting menjadi 0,4 dan 0,6.

44

Tabel 4. 24 Pengujian dengan regular smoothing 0.4

Tabel 4. 25 Pengujian dengan regular smoothing 0.6

Pada Tabel 4.24 dan Tabel 4.25, dilihat bahwa mengganti nilai regular smoothing menjadi 0,4 dan 0,6 tidak mempengaruhi hasil akurasi dari klasifikasi MKNN dimana hasil akurasi dari setiap Fold dan rata-rata akurasi dari nilai regulator smoothing nya sama.

RegSmo Fold K Akurasi Rata-rata

45

Tetapi dari Gambar 4.7, hasil dari Pengujian Keempat dengan mengganti nilai dari regulator smoothing pada weight voting tidak terlalu signifikan dalam mempengaruhi nilai akurasi dari MKNN dan pengujian menggunakan nilai regulator smoothing 0,5 mendapatkan hasil lebih baik dibandingkan 0,4 dan 0,6.

4.7 Analisa Umum

Dari beberapa pengujian yang telah dilakukan pada penelitian ini, dapat dilihat bahwa penggunaan nilai K berpengaruh terhadap hasil akurasi yang di dapat.

Pengujian ini mendapatkan hasil yang sesuai dengan penelitian yang dilakukan oleh Wafiyah,dkk (2017) bahwa nilai K dapat mempengaruhi akurasi, semakin tinggi nilai K yang digunakan, akurasi yang di dapat akan semakin menurun yang disebabkan oleh perbandingan data dari hasil weight voting semakin banyak sehingga sistem bisa melakukan kesalahan dalam menentukan kelas dari data yang diujikan.

Pengujian menggunakan K-Fold = 7 mendapatkan akurasi yang tinggi juga sejalan dengan penelitian yang dilakukan Wafiyah,dkk (2017) bahwa semakin banyak data latih yang digunakan maka akurasi yang didapatkan akan semakin baik.

94,79334286

Gambar 4. 7 Hasil pengujian keempat

46

Penggunaan ekstraksi ciri dengan ukuran yang lebih besar juga dapat meningkatkan akurasi dikarenakan ciri yang didapatkan lebih banyak sehingga sistem bisa lebih mudah mengenali data.

Tidak menggunakan proses thinning juga dapat meningkatkan akurasi dikarenakan jumlah piksel bernilai 0 (berwarna hitam) lebih banyak sehingga lebih mudah mengenali pola dari data. Namun, penggantian nilai regulator smoothing (a) pada weight voting menjadi 0,4 dan 0,6 tidak terlalu mempengaruhi akurasi yang didapatkan dari sistem.

Hasil dari pengujian MKNN yang dilakukan, mendapatkan kesimpulan bahwa rata-rata akurasi menggunakan metode MKNN bisa mendapatkan hasil yang lebih baik

Hasil dari pengujian MKNN yang dilakukan, mendapatkan kesimpulan bahwa rata-rata akurasi menggunakan metode MKNN bisa mendapatkan hasil yang lebih baik

Dokumen terkait