• Tidak ada hasil yang ditemukan

KLASIFIKASI CITRA AKSARA BALI MENGGUNAKAN MODIFIED K NEAREST NEIGHBOR (MKNN)

N/A
N/A
Protected

Academic year: 2022

Membagikan "KLASIFIKASI CITRA AKSARA BALI MENGGUNAKAN MODIFIED K NEAREST NEIGHBOR (MKNN)"

Copied!
68
0
0

Teks penuh

(1)

KLASIFIKASI CITRA AKSARA BALI MENGGUNAKAN MODIFIED K–NEAREST

NEIGHBOR (MKNN)

SKRIPSI

Oleh :

Joseph Riandy Pratama Hutagalung 175314045

PROGRAM STUDI INFORMATIKA FAKULTAS SAINS DAN TEKNOLOGI

UNIVERSITAS SANATA DHARMA YOGYAKARTA

2021

(2)

CLASSIFICATION OF BALINESE SCRIPT IMAGES USING MODIFIED K–NEAREST NEIGHBOR (MKNN)

THESIS

By :

Joseph Riandy Pratama Hutagalung 175314045

INFORMATICS STUDY PROGRAM

FACULTY OF SCIENCE AND TECHNOLOGY SANATA DHARMA UNIVERSITY

YOGYAKARTA

2021

(3)

HALAMAN PERSETUJUAN PEMBIMBING SKRIPSI

KLASIFIKASI CITRA AKSARA BALI MENGGUNAKAN MODIFIED K-NEAREST NEIGHBOR (MKNN)

Jose 1 Riandy Pratama Huta&alun

Telah Disetuji oleh:

Pembimbing

Dr. Anastasia Rita Widiarti S.Si, M.Kom Tanggal:

?.:-0.. ~~s

2011

(4)
(5)

iii

HALAMAN PERSEMBAHAN

“Jangan menyerah. Hal memalukan bukanlah ketika kau jatuh, tetapi ketika kau tidak mau bangkit lagi”

Midorima Shintaro – Kuroko no Basuke

(6)

PERNY ATAAN KEASLIAN KARY A

Saya menyatakan dengan sesungguhnya bahwa tugas akhir yang saya tulis tidak

mengandung atau memuat karya orang lain, kecuali yang tel ah disebutkan dalam

daftar pustaka dan kutipan selayaknya kaiya ilmiah.

Y ogyakaiia.~.Agustus 2021 Penulis,

Joseph Ria

IV

(7)

LEMBAR PERNYATAAN PERSETUJUAN PUBLIKASI KARYA ILMIAH UNTUK KEPENTINGAN AKADEMIS

Yang bertanda tangan di bawah ini, saya mahasiswa Universitas Sanata Dharma:

Nama : Joseph Riandy Pratama Hutagalung NIM : 175314045

Demi pengembangan ilmu pengetahuan, saya memberikan karya ilmiah ini kepada Perpustakaan Universitas Sanata Dharma Karya Ilmiah yang berjudul:

KLASIFIKASI CITRA AKSARA BALI MENGGUNAKAN MODIFIED K- NEAREST NEIGHBOR (MKNN)

Beserta perangkat yang diperlukan (bila ada). Dengan demikian saya memberikan kepada Perpustakaan Universitas Sanata Dhanna hak untuk menyimpan, mengalihkan dalam bentuk media lain, mengolahnya dalam bentuk pangkalan data, mendistribusikannya secara terbatas, dan mempublikasikannya di Internet atau media lain untuk kepentingan akademis tanpa meminta ijin dari saya maupun memberikan royalty kepada saya selama tetap mencantumkan nama saya sebagai penulis.

Demikian pemyataan ini saya buat dengan sadar dan sebenar-benarnya.

Y ot,ryakarta, ... Agustus 2021 26

Penulis,

v

(8)

vi

ABSTRAK

Aksara Bali merupakan salah satu kebudayaan yang berada di Indonesia, khususnya di pulau Bali bisa ditemukan di daun lontar. Untuk bisa mengenali aksara Bali, maka akan dibuatkan suatu sistem klasifikasi yang bisa mengenali aksara Bali. Sistem klasifikasi tersebut adalah Modified K-Nearest Neighbor (MKNN). MKNN merupakan pengembangan dari metode K-Nearest Neighbor (KNN) yang mengklasifikasikan data berdasarkan K tetangga terdekatnya.

Dalam MKNN ditambahkan proses perhitungan Validitas dan Weight Voting.

Dalam penelitian kali ini, akan melakukan pengujian dengan menggunakan ekstraksi ciri IoC 3x3 dan 4x4, nilai K-Fold 3, 5, dan 7, nilai K pada MKNN yaitu 1, 3, 5, 7, dan 9. Dari pengujian tersebut, mencari hasil yang terbaik untuk pengujian selanjutnya dimana tidak menggunakan thinning pada preprocessing data. Hasil nya akan dibandingkan untuk mencari yang terbaik, lalu hasil yang terbaik akan digunakan dalam pengujian menggantik nilai regulator smoothing dalam weight voting menjadi 0,4 dan 0,6. Dari penelitian ini, didapatkan akurasi tertinggi sebesar 94,7959% dengan menggunakan nilai K = 1, nilai K-Fold = 7, tanpa menggunakan thinning dan menggunakan nilai regulator smoothing pada weight voting 0,5.

Kata Kunci : Aksara Bali, Intensity of Character, K-Fold Cross Validation, Modified K-Nearest Neighbor.

(9)

vii

ABSTRACT

Balinese script is one of the cultures in Indonesia, especially on the island of Bali can be found in the leaves of lontar. To be able to recognize Balinese script, a classification system will be created that can recognize Balinese script. The classification system is Modified K-Nearest Neighbor (MKNN). MKNN is a development of the K-Nearest Neighbor (KNN) method that classifies data based on the K of its nearest neighbors. In MKNN added the process of calculating validity and weight voting. In this research, we are going to do a tests using IoC 3x3 and 4x4 characteristic extraction, K-Fold values 3, 5, and 7, K values in MKNN are 1, 3, 5, 7, and 9. From these tests, we are looking for the best results for subsequent tests where they do not use thinning in preprocessing. The results will be compared to look for the best, then the best results will be used in testing to change the value of regulator smoothing in weight voting to 0.4 and 0.6. From this research, highest accuracy was obtained by 94.7959% using the value K = 1, the value K-Fold = 7, without using thinning and using the smoothing regulator value on weight voting 0.5

Keywords : Balinese script, Intensity of Character, K-Fold Cross Validation, Modified K-Nearest Neighbor.

(10)

viii

KATA PENGANTAR

Puji syukur penulis panjatkan kepada Tuhan Yang Maha Esa, atas berkat serta rahmat karunianya penulis dapat menyelesaikan tugas akhir dengan judul

“Klasifikasi Citra Aksara Bali Menggunakan Modified K-Nearest Neighbor (MKNN)”. Tugas Akhir ini merupakan syarat wajib untuk penulis agar mendapatkan gelar sarjana computer program studi Informatika Universitas Sanata Dharma.

Penyelesaian tugas akhir ini tidak lepas dari dukungan oleh beberapa pihak kepada penulis, oleh karena itu sudah layak dan sepantasnya penulis mengucapkan terimakasih kepada :

1. Ibu Dr. Anastasia Rita Widiarti, M.kom. selaku dosen pembimbing dalam penyelesain tugas akhir yang selalu meluangkan waktunya untuk memberikan semangat kepada penulis dalam mengerjakan tugas akhir serta memberikan saran dan masukan dalam penyelesain tugas akhir penulis.

2. Bapak Sudi Mungkasi , S.Si., M.Math.Sc., Ph.D. selakuk dekan Fakultas Sains dan Teknologi Universitas Sanata Dharma.

3. Seluruh dosen prodi Informatika Universitas Sanata Dharma serta dosen – dosen yang terlibat dalam perkuliahan dengan mahasiswa prodi Informatika Angkatan 2017 yang telah mendidik serta memberikan bekal ilmu untuk penulis.

4. Kedua orang tua saya, Bapak Martua Hutagalung dan Ibu Magdalena Susilowati yang selalu mendukung serta selalu mendoakan penulis hingga penulis dapat menyelesaikan Tugas Akhir dengan tepat waktu.

5. Saudara saya, Henry Hutagalung yang selalu memberikan semangat dan hiburan dalam proses penulis mengerjakan tugas akhir.

6. Saudari Clara Agatha Rahayuningtyas Blikololong yang selalu menemani dalam pengerjaan tugas akhir dan selalu memberi semangat dalam penyelesaian tugas akhir penulis.

(11)

7. Saudara/saudari Gabriel Ryan Prima, Atanasius Ivannoel, Edrick Hernando, Agung Krisnanto, Fransiska Apri Wulandari dan Francisca Intan Bertin yang telah bersedia meluangkan waktunya untuk berdiskusi tentang berbagai masalah dalam pengerjaan tugas akhir penulis.

8. Semua pihak yang tidak bisa disebutkan satu - satu yang telah membantu atau terlibat dalam penulisan tugas akhir ini.

Penulis menyadari bahwa masih banyak kekurangan dalam tugas akhir ini, oleh karena itu saran serta kritik yang membangun sangat penulis harapkan.

Akhimya, semoga tugas akhir ini dapat bennanfaat bagi para pembaca dan terkhusus kepada saya sebagai penulis.

Yogyakarta~~.

Agustus 2021 Penulis,

IX

(12)

x

DAFTAR ISI

HALAMAN PERSETUJUAN PEMBIMBING SKRIPSI ... i

HALAMAN PENGESAHAN ... ii

HALAMAN PERSEMBAHAN ... iii

PERNYATAAN KEASLIAN KARYA ... iv

LEMBAR PERNYATAAN PERSETUJUAN PUBLIKASI KARYA ILMIAH UNTUK KEPENTINGAN AKADEMIS ... v

ABSTRAK ... vi

ABSTRACT ... vii

KATA PENGANTAR ... viii

BAB I PENDAHULUAN ... 1

1.1 Latar Belakang ... 1

1.2 Rumusan Masalah ... 2

1.3 Tujuan Penelitian ... 2

1.4 Manfaat Penelitian ... 2

1.5 Batasan Penelitian ... 3

1.6 Sistematika Penulisan ... 3

BAB II LANDASAN TEORI ... 5

2.1 Aksara Bali ... 5

2.2 Citra ... 6

2.3 Pemrosesan Citra ... 6

2.3.1 Binerisasi ... 6

2.3.2 Cropping ... 7

2.3.3 Resize ... 7

2.3.4 Thinning ... 7

2.4 Ekstraksi Ciri ... 7

2.5 Modified K-Nearest Neighbor (MKNN) ... 8

2.6.1 Perhitungan Jarak Euclidian ... 9

2.6.2 Perhitungan Nilai Validitas ... 10

2.6.3 Perhitungan Weight Voting ... 11

2.6 K-Fold Cross Validation ... 16

(13)

xi

BAB III METODOLOGI PENELITIAN... 17

3.1 Deskripsi Data ... 17

3.2 Kebutuhan Perangkat Hardware dan Software ... 17

3.3 Perancangan Sistem ... 18

3.4 Preprocessing ... 19

3.5 Ekstraksi Ciri ... 20

3.6 Klasifikasi Modified K-Nearest Neighbor (MKNN) ... 21

3.7 Skema Pengujian ... 26

3.8 Desain User Interface ... 27

BAB IV HASIL DAN PEMBAHASAN ... 28

4.1 Data ... 28

4.2 Implementasi Preprocessing ... 29

4.2.1 Binerisasi ... 29

4.2.2 Cropping ... 30

4.2.3 Resize ... 31

4.2.4 Thinning ... 32

4.3 Implementasi Ekstraksi Ciri ... 32

4.4 Implementasi K-Fold Cross Validation ... 33

4.5 Implementasi Modified K-Nearest Neighbor ... 34

4.6 Pengujian ... 38

4.6.1 Pengujian Pertama ... 38

4.6.2 Pengujian Kedua ... 41

4.6.3 Pengujian ketiga ... 42

4.6.4 Pengujian keempat ... 43

4.7 Analisa Umum ... 45

4.8 Data Uji Tunggal ... 46

BAB V KESIMPULAN DAN SARAN ... 50

5.1 Kesimpulan ... 50

5.2 Saran ... 50

DAFTAR PUSTAKA ... 51

(14)

xii

DAFTAR GAMBAR

Gambar 2. 1 Ilustrasi Cross Validation 3 Fold ... 16

Gambar 3. 1 Citra aksara Bali ... 17

Gambar 3. 2 Diagram perancangan sistem ... 18

Gambar 3. 3 Diagram preprocessing ... 19

Gambar 3. 4 Diagram ekstraksi ciri ... 20

Gambar 3. 5 Diagram Modified K-Nearest Neighbor ... 21

Gambar 3. 6 Program MKNN I... 24

Gambar 3. 7 Program MKNN II ... 25

Gambar 3. 8 Desain GUI ... 27

Gambar 4. 1 Hasil citra binerisasi ... 30

Gambar 4. 2 Hasil pembagian 3 Fold Data Training ... 33

Gambar 4. 3 Hasil Pembagian 3 Fold Data Testing ... 33

Gambar 4. 4 Grafik pengujian kedua ... 41

Gambar 4. 5 Grafik pengujian kedua ... 42

Gambar 4. 6 Grafik pengujian ketiga ... 43

Gambar 4. 7 Hasil pengujian keempat ... 45

(15)

xiii

DAFTAR TABEL

Tabel 2. 1 Aksara Wyanjana ... 5

Tabel 2. 2 Aksara Swara ... 6

Tabel 2. 3 Ilustrasi citra ukuran 9x9 ... 8

Tabel 2. 4 Ilustrasi hasil IoC 3x3 ... 8

Tabel 2. 5 Contoh data latih ... 11

Tabel 2. 6 Contoh data uji ... 12

Tabel 2. 7 Hasil euclidian data latih ... 12

Tabel 2. 8 Penentuan tetangga terdekat... 13

Tabel 2. 9 Perbandingan kelas data dengan tetangga ... 13

Tabel 2. 10 Perhitungan Weight Voting ... 15

Tabel 2. 11 Penentuan kelas data uji ... 15

Tabel 4. 1 Data citra ... 28

Tabel 4. 2 Hasil binerisasi ... 29

Tabel 4. 3 Citra Cropping... 31

Tabel 4. 4 Citra Resize ... 31

Tabel 4. 5 Citra Thinning ... 32

Tabel 4. 6 Hasil Ekstraksi Ciri ... 32

Tabel 4. 7 Data Training ... 34

Tabel 4. 8 Data Testing ... 34

Tabel 4. 9 Hasil Euclidian antar data training ... 35

Tabel 4. 10 Tetangga terdekat dengan data ... 35

Tabel 4. 11 Hasil perbandingan kelas data dengan tetangga ... 36

Tabel 4. 12 Hasil Nilai Validitas ... 36

Tabel 4. 13 Hasil perhitungan Euclidian Training dan Testing ... 37

Tabel 4. 14 Hasil perhitungan Weight Voting ... 37

Tabel 4. 15 Pencarian nilai terbesar ... 38

Tabel 4. 16 Hasil Pengujian 3 Fold ... 39

Tabel 4. 17 Hasil pengujian 5 Fold ... 39

Tabel 4. 18 Hasil pengujian 7 Fold ... 40

Tabel 4. 19 Hasil pengujian kedua ... 41

(16)

xiv

Tabel 4. 20 Hasil pengujian ketiga ... 43 Tabel 4. 21 Pengujian dengan Regular Smoothing 0.4 ... 44 Tabel 4. 22 Pengujian dengan Regular Smoothing 0.6 ... 44

(17)

xv

DAFTAR RUMUS

Rumus 2. 1 Perhitungan Jarak Euclidian ... 9

Rumus 2. 2 Perhitungan Nilai Validitas ... 10

Rumus 2. 3 Perbandingan kelas data dengan tetangga ... 10

Rumus 2. 4 Pehitungan Weight Voting... 11

(18)

1

BAB I

PENDAHULUAN

1.1 Latar Belakang

Aksara Bali yang juga merupakan hanacaraka merupakan salah satu aksara tradisional yang digunakan oleh penduduk Bali untuk menulis lontar. Di zaman yang terus berkembang ini, aksara Bali sudah jarang digunakan dikarenakan mulai menggunakan bahasa modern seperti alphabet. Saat ini, aksara Bali tersebut hanya bisa ditemukan dan tersimpan di daun – daun lontar atau buku – buku yang memuat tentang aksara Bali.

Dari permasalahan tentang aksara Bali tersebut, untuk membantu meningkatkan pemahaman mereka tentang aksara Bali, sekaligus membantu melestarikannya, maka terdapat ide untuk membangun sebuah sistem yang bisa digunakan untuk mengidentifikasi aksara Bali. Salah satu metode yang bisa diterapkan untuk mengidentifikasi aksara Bali tersebut adalah dengan metode klasifikasi, yang dimana salah satu metode klasifikasi tersebut adalah metode klasifikasi Modified K–Nearest Neighbor (MKNN). Metode MKNN ini merupakan pengembangan dari metode K–Nearest Neighbor (KNN) yang dimana metode ini mengklasifikasi obyek berdasarkan nilai K tetangga terdekatnya. Dalam metode MKNN sendiri, ditambahkan dua perhitungan seperti perhitungan nilai validitas serta perhitungan bobot yang diharapkan dapat memperbaiki kesalahan – kesalahan yang dilakukan dalam proses KNN.

Berdasarkan penelitian yang dilakukan oleh Wafiyah, dkk (2017), mencatat bahwa metode MKNN mampu mengklasifikasikan 15 gejala penyakit demam dengan melakukan pengujian, diantaranya pengaruh nilai K terhadap akurasi mendapatkan rata-rata 88,55% dimana akurasi tertinggi terdapat pada pengujian nilai K=3 dengan akurasi sebesar 94,95%. Penelitian kedua dilakukan oleh Simanjuntak, dkk (2017), mencatat bahwa metode MKNN dapat mengklasifikasikan jenis penyakit yang menyerang tanaman kedelai dengan

(19)

2

mendapatkan akurasi tertinggi sebesar 100% pada pengujian nilai K=1 dan mendapatkan rata-rata akurasi dari 5 kali percobaan sebesar 98,83%.

Selanjutnya, pada penelitian yang dilakukan oleh Iklima,dkk (2017) untuk klasifikasi jenis pisang menggunakan KNN mendapatkan akurasi sebesar 80%.

Dari beberapa penelitian tersebut, maka pada penelitian ini akan menggunakan metode MKNN untuk klasifikasi pada citra aksara Bali.

1.2 Rumusan Masalah

Rumusan masalah pada penelitian ini adalah :

1. Bagaimana menerapkan metode klasifikasi Modified K-Nearest Neighbor (MKNN) untuk mengidentifikasi citra aksara Bali?

2. Berapa akurasi yang di dapat dalam implementasi Modified k-Nearest Neighbor (MKNN) pada citra aksara Bali?

1.3 Tujuan Penelitian

Tujuan pada penelitian ini adalah :

1. Menerapkan metode klasifikasi Modified k-Nearest Neighbor (MKNN) untuk mengidentifikasi citra aksara Bali.

2. Menghitung tingkat akurasi metode klasifikasi Modified k-Nearest Neighbor (MKNN) pada citra aksara Bali.

1.4 Manfaat Penelitian

Manfaat dari penelitian ini adalah :

1. Manfaat penelitian ini untuk universitas, khususnya program studi Informatika adalah dengan menambah referensi dalam penelitian selanjutnya untuk pengolahan data citra aksara.

2. Manfaat penelitian ini bagi peneliti adalah dapat mengembangkan penelitian-penelitian sebelumnya dengan menggunakan data citra aksara.

(20)

3

1.5 Batasan Penelitian

Batasan-batasan yang terdapat pada penelitian ini adalah :

1. Data citra yang digunakan merupakan data hasil clustering citra aksara Bali sebanyak 980 data dalam bentuk digital berformat JPG.

2. Ekstraksi ciri menggunakan Intensity of Character (IoC) dengan ukuran 3x3 dan 4x4.

3. Validasi data menggunakan k-Fold Cross Validation dengan menggunakan nilai k 3, 5 dan 7.

4. Nilai K yang digunakan dalam klasifikasi MKNN adalah 1, 3, 5, 7 dan 9.

5. Nilai regulator smoothing 0.4, 0.5 dan 0.6.

1.6 Sistematika Penulisan

Penelitian ini disusun secara sistematika yang tersusun dari beberap bab, diantaranya sebagai berikut :

BAB I : PENDAHULUAN

Bagian ini berisi mengenai latar belakang, rumusan masalah, tujuan penelitian, manfaat penelitian serta batasan penelitian.

BAB II : LANDASAN TEORI

Bagian ini berisi teori dasar dari penelitian yang akan dilakukan, seperti data yang digunakan, metode preprocessing yang digunakan, ekstraksi ciri yang digunakan, serta metode klasifikasi yang digunakan.

BAB III : METODE PENELITIAN

Bagian ini berisi tentang langkah – langkah yang dilakukan dalam penelitian yang bertujuan untuk menjawab dan menyelesaikan rumusan masalah.

BAB IV : HASIL DAN PEMBAHASAN

Bagian ini berisi tentang hasil dari implementasi program yang telah dibuat beserta analisis terhadap penelitian yang dilakukan.

(21)

4

BAB V : KESIMPULAN DAN SARAN

Bagian ini berisi kesimpulan dari penelitian yang telah dikerjakan beserta saran – saran yang bisa dilakukan untuk pengembangan pada penelitian selanjutnya.

(22)

5

BAB II

LANDASAN TEORI

2.1 Aksara Bali

Aksara Bali, atau yang dikenal juga dengan hanacaraka merupakan salah satu dari aksara tradisional yang berkembang di pulau Bali yang terdiri dari 18 hingga 33 karakter. Aksara Bali aktif digunakan dalam sastra maupun dalam tulisan sehari- hari masyarakat Bali sejak pertengahan abad ke-15 dan hingga kini masih diajarkan di Bali meski penerapannya sudah mulai berkurang.

Tabel 2. 1 Aksara Wyanjana

https://id.wikipedia.org/wiki/Aksara_Bali

(23)

6

Tabel 2. 2 Aksara Swara

https://id.wikipedia.org/wiki/Aksara_Bali

2.2 Citra

Citra merupakan sebuah gambar digital dengan representasi dua dimensi yang terdiri dari baris dan kolom yang dimana setiap baris dan kolom tersebut berisi nilai intensitas kecerahan tertentu atau pixel pada bidang citra digital (Widiarti &

Himamunanto, 2013).

2.3 Pemrosesan Citra

Pemrosesan citra merupakan metode yang digunakan untuk mengolah citra digital agar supaya citra tersebut memiliki kualitas yang lebih baik. Pemrosesan citra untuk citra digital dibutuhkan untuk bisa dibaca dengan mudah oleh komputer.

Ada beberapa macam operasi citra yang digunakan, yaitu binerisasi, cropping, resize dan thinning.

2.3.1 Binerisasi

Binerisasi merupakan proses pada preprocessing yang berfungsi untuk melakukan transformasi dari citra awal ke citra hitam dan putih dengan menggunakan nilai ambang batas (threshold), dimana untuk intensitas warna pada citra biner akan bernilai 0 untuk warna hitam dan bernilai 1 untuk warna putih.

(24)

7

2.3.2 Cropping

Cropping merupakan proses pada preprocessing yang berfungsi untuk memisahkan citra dengan latar belakangnya (background). Pada cropping, bagian kosong dari citra akan dihilangkan atau dipotong untuk mendapatkan karakter atau obyek dari citra.

2.3.3 Resize

Resize image merupakan proses pada preprocessing yang berfungsi untuk mengubah ukuran pixel vertikal dan horizontal dari citra. Setelah di resize, citra akan berubah menjadi lebih besar atau lebih kecil tergantung dari ukuran yang ditentukan.

2.3.4 Thinning

Thinning merupakan proses pada preprocessing yang berfungsi untuk mendapatkan kerangka obyek atau informasi yang mendasar dari citra dengan cara menipiskan atau membuang tepi (edge) dari citra tersebut agar menjadi sederhana.

2.4 Ekstraksi Ciri

Ekstraksi ciri merupakan proses yang berfungsi untuk mengambil ciri atau informasi yang berada pada obyek. Ekstraksi ciri berguna untuk mempermudah dalam pencarian informasi tentang data tersebut. Ekstraksi ciri dilakukan pada citra digital dengan maksud untuk menemukan karakteristik dari citra.

Salah satu metode ekstraksi ciri yang digunakan dalam penelitian ini adalah metode Intensity of Character (IoC). IoC bekerja dengan membagi data citra menjadi area-area tertentu. IoC berbentuk matriks NxN, dimana setiap unit 1x1 berisikan n pixel hasil penjumlahan pixel yang bernilai 0 (Nugroho & Widiarti, 2016) yang dimana bertujuan untuk mempermudah dalam pencirian data. Sebagai contoh untuk mendapatkan ciri IoC 3x3 dari matriks berukuran 9x9 :

(25)

8

1. Terdapat citra berukuran 9x9, maka untuk setiap unit IoC 1x1 nya akan mencakup matriks sebesar 3x3.

Tabel 2. 3 Ilustrasi citra ukuran 9x9

1 1 0 0 0 1 0 1 0

0 1 1 1 0 1 1 1 1

1 1 1 1 1 1 0 1 0

1 0 1 1 1 1 1 1 0

0 1 0 1 1 1 0 1 1

1 0 1 0 0 1 1 1 1

0 1 1 1 1 1 1 1 0

1 1 1 1 0 0 1 0 0

0 0 0 1 1 1 1 1 1

2. Selanjutnya, untuk setiap unit 1x1 nya akan menyimpan nilai hasil penjumlahan banyaknya anggota pixel berwarna hitam atau bernilai 0 untuk setiap area 3x3 nya.

Tabel 2. 4 Ilustrasi hasil IoC 3x3

2 3 3

4 2 2

4 2 3

2.5 Modified K-Nearest Neighbor (MKNN)

Modified k-Nearest Neighbor (MKNN) merupakan metode klasifikasi hasil pengembangan dari metode K-Nearest Neighbor (KNN) yang dimana metode ini mengklasifikasikan obyek berdasarkan nilai K tetangga terdekatnya. Dalam MKNN terdapat penambahan proses seperti perhitungan nilai validitas dan perhitungan bobot.

(26)

9

Ada beberapa langkah yang akan dilakukan dalam MKNN, diantaranya : 1. Menetukan data latih, data uji serta nilai K yang akan digunakan.

2. Melakukan perhitungan untuk mengetahui jarak Euclidian antar data latih.

3. Mencari tetangga terdekat dari data sesuai dengan nilai K.

4. Membandingkan kelas antara data dengan tetangga terdekatnya, jika kelas yang dibandingkan sama maka akan bernilai 1, dan jika berbeda maka akan bernilai 0.

5. Menghitung nilai Validitas dari data yang telah dibandingkan.

6. Menghitung jarak Euclidian antara data latih dengan data uji.

7. Menghitung Weight Voting.

8. Diambil nilai terbesar sesuai nilai K untuk menentukan kelas dari data uji. Kelas dari data uji diambil dari kelas data latih yang paling banyak keluar.

2.6.1 Perhitungan Jarak Euclidian

Perhitungan Jarak Euclidian merupakan sebuah proses melakukan perhitungan jarak antara data latih, lalu melakukan perhitungan jarak juga antara data latih dengan data uji. Rumus untuk Jarak Euclidian adalah sebagai berikut :

𝑑(𝑃, 𝑄) = √∑

𝑛𝑖=1

(𝑃

𝑖

− 𝑄

𝑖

)

2 (2. 1)

Dimana :

n = Jumlah data latih d(P,Q) = Jarak antar titik

𝑃𝑖 = Data pertama ke – i 𝑄𝑖 = Data kedua ke – i

(27)

10

2.6.2 Perhitungan Nilai Validitas

Perhitungan Nilai Validitas merupakan proses perhitungan jumlah titik dengan label yang sama pada semua data. Setiap data memiliki validitas yang bergantung pada tetangga terdekatnya. Rumus untuk nilai validitas adalah sebagai berikut :

𝑉𝑎𝑙𝑖𝑑𝑖𝑡𝑎𝑠(𝑥) = 1

𝐻 ∑ 𝑆(𝑙𝑏𝑙(𝑥), 𝑙𝑏𝑙(𝑁𝑖(𝑥)))

𝑛

𝑖=0

(2. 2)

Dimana :

H = Jumlah titik terdekat

lbl(x) = Kelas x

lbl(Ni(x)) = Label kelas titik terdekat x

Fungsi S digunakan untuk menghitung kesamaan antara kelas x dengan kelas tetangga terdekatnya, yang dituliskan dalam persamaan sebagai berikut :

𝑆(𝑎, 𝑏) = {1 𝑎 = 𝑏

0 𝑎 ≠ 𝑏 (2. 3)

Keterangan :

a = Kelas a pada data

b = Kelas lain selain a pada data

(28)

11

2.6.3 Perhitungan Weight Voting

Perhitungan weight voting merupakan proses untuk mengetahui label kelas data yang sedang diuji. Perhitungan ini menghitung bobot masing-masing tetangga yang kemudian validitas dari tiap data pada data training dikalikan dengan weighted berdasarkan pada jarak euclidian.

𝑊(𝑖) = 𝑉𝑎𝑙𝑖𝑑𝑖𝑡𝑦(𝑖) 𝑥 1

𝑑𝑒+ 𝑎 (2. 4)

Keterangan :

W(i) = Perhitungan Weight Voting Validity(i) = Nilai Validitas

𝑑𝑒 = Jarak Euclidian

a = Nilai regulator smoothing, biasanya digunakan bernilai 0,5

Di bawah ini akan menunjukan contoh proses perhitungan MKNN dengan menggunakan permasalahan menentukan bentuk badan dari data uji.

1. Menentukan data latih dan data uji beserta nilai K yang akan digunakan.

Dalam contoh ini menggunakan nilai K = 3.

Tabel 2. 5 Contoh data latih

Tinggi Berat Bentuk Badan

160 55 Sedang

165 69 Besar

162 57 Kecil

165 58 Kecil

160 60 Sedang

162 67 Besar

(29)

12

Tabel 2. 6 Contoh data uji

Tinggi Berat Bentuk Badan

162 54 ??

2. Melakukan perhitungan jarak euclidian antar data latih menggunakan Rumus (2.1).

a. Perhitungan Euclidian data latih 1 :

𝑑(𝐿𝑎𝑡𝑖ℎ1, 𝐿𝑎𝑡𝑖ℎ1) = √(160 − 160)2+ (55 − 55)2 = 0

𝑑(𝐿𝑎𝑡𝑖ℎ1, 𝐿𝑎𝑡𝑖ℎ2) = √(160 − 165)2+ (55 − 69)2 = 14,8661 𝑑(𝐿𝑎𝑡𝑖ℎ1, 𝐿𝑎𝑡𝑖ℎ3) = √(160 − 162)2+ (55 − 57)2 = 2,82843 𝑑(𝐿𝑎𝑡𝑖ℎ1, 𝐿𝑎𝑡𝑖ℎ4) = √(160 − 165)2+ (55 − 58)2 = 5,83095 𝑑(𝐿𝑎𝑡𝑖ℎ1, 𝐿𝑎𝑡𝑖ℎ5) = √(160 − 160)2+ (55 − 60)2 = 5

𝑑(𝐿𝑎𝑡𝑖ℎ1, 𝐿𝑎𝑡𝑖ℎ6) = √(160 − 162)2+ (55 − 67)2= 12,1655 b. Perhitungan Euclidian data latih 2 :

𝑑(𝐿𝑎𝑡𝑖ℎ2, 𝐿𝑎𝑡𝑖ℎ1) = √(165 − 160)2+ (69 − 55)2= 14,8661 𝑑(𝐿𝑎𝑡𝑖ℎ2, 𝐿𝑎𝑡𝑖ℎ2) = √(165 − 165)2+ (69 − 69)2= 0

𝑑(𝐿𝑎𝑡𝑖ℎ2, 𝐿𝑎𝑡𝑖ℎ3) = √(165 − 162)2+ (69 − 57)2= 12,3693 𝑑(𝐿𝑎𝑡𝑖ℎ2, 𝐿𝑎𝑡𝑖ℎ4) = √(165 − 165)2+ (69 − 58)2= 11 𝑑(𝐿𝑎𝑡𝑖ℎ2, 𝐿𝑎𝑡𝑖ℎ5) = √(165 − 160)2+ (69 − 60)2= 10,2956 𝑑(𝐿𝑎𝑡𝑖ℎ2, 𝐿𝑎𝑡𝑖ℎ6) = √(165 − 162)2+ (69 − 67)2= 3,60555 Sehingga mendapatkan hasil Euclidian antar data latih sebagai berikut :

Tabel 2. 7 Hasil euclidian data latih

1 2 3 4 5 6 BB

1 0 14,8661 2,82843 5,83095 5 12,1655 Sedang 2 14,8661 0 12,3693 11 10,2956 3,60555 Besar 3 2,82843 12,3693 0 3,16228 3,60555 10 Kecil

(30)

13

4 5,83095 11 3,16228 0 5,38516 9,48683 Kecil 5 5 10,2956 3,60555 5,38516 0 7,28011 Sedang 6 12,1655 3,60555 10 9,48683 7,28011 0 Besar

3. Selanjutnya, Mencari tetangga terdekat dari data sesuai dengan nilai K = 3.

Tabel 2. 8 Penentuan tetangga terdekat

1 2 3 4 5 6 BB

1 0 14,8661 2,82843 5,83095 5 12,1655 Sedang 2 14,8661 0 12,3693 11 10,2956 3,60555 Besar 3 2,82843 12,3693 0 3,16228 3,60555 10 Kecil 4 5,83095 11 3,16228 0 5,38516 9,48683 Kecil 5 5 10,2956 3,60555 5,38516 0 7,28011 Sedang 6 12,1655 3,60555 10 9,48683 7,28011 0 Besar

4. Selanjutnya, membandingkan kelas antara data dengan tetangga terdekatnya menggunakan Rumus (2.3).

Tabel 2. 9 Perbandingan kelas data dengan tetangga Perbandingan Kelas Data

Data Tetangga Kelas D Kelas T Nilai

1

3

Sedang

Besar 0

4 Kecil 0

5 Kecil 0

2

4

Besar

Kecil 0

5 Sedang 0

6 Besar 1

3

1

Kecil

Sedang 0

4 Kecil 1

5 Sedang 0

4

1

Kecil

Sedang 0

3 Kecil 1

5 Sedang 0

5 1 Sedang Sedang 1

(31)

14

3 Kecil 0

4 Kecil 0

6

2

Besar

Besar 1

4 Kecil 0

5 Sedang 0

5. Nilai yang di dapat setelah membandingkan kelas, akan digunakan untuk menghitung nilai validitas dari setiap data menggunakan Rumus (2.2).

a. 𝑉𝑎𝑙𝑖𝑑𝑖𝑡𝑎𝑠 (1) = 1

3 (0 + 0 + 0) = 0 b. 𝑉𝑎𝑙𝑖𝑑𝑖𝑡𝑎𝑠 (2) = 1

3 (0 + 0 + 1) = 0,333 c. 𝑉𝑎𝑙𝑖𝑑𝑖𝑡𝑎𝑠 (3) = 1

3 (0 + 1 + 0) = 0,333 d. 𝑉𝑎𝑙𝑖𝑑𝑖𝑡𝑎𝑠 (4) = 1

3 (0 + 1 + 0) = 0,333 e. 𝑉𝑎𝑙𝑖𝑑𝑖𝑡𝑎𝑠 (5) = 1

3 (1 + 0 + 0) = 0,333 f. 𝑉𝑎𝑙𝑖𝑑𝑖𝑡𝑎𝑠 (6) = 1

3 (1 + 0 + 0) = 0,333

6. Selanjutnya adalah menghitung jarak euclidian antara data latih dengan data uji menggunakan Rumus (2.1).

a. Perhitungan Euclidian data latih 1 dengan data uji :

𝑑(𝐿𝑎𝑡𝑖ℎ1, 𝑈𝑗𝑖) = √(160 − 162)2+ (55 − 54)2 = 2,23607 𝑑(𝐿𝑎𝑡𝑖ℎ2, 𝑈𝑗𝑖) = √(165 − 162)2+ (69 − 54)2 = 15,2971 𝑑(𝐿𝑎𝑡𝑖ℎ3, 𝑈𝑗𝑖) = √(162 − 162)2+ (57 − 54)2 = 3

𝑑(𝐿𝑎𝑡𝑖ℎ4, 𝑈𝑗𝑖) = √(165 − 162)2+ (58 − 54)2 = 5

𝑑(𝐿𝑎𝑡𝑖ℎ5, 𝑈𝑗𝑖) = √(160 − 162)2+ (60 − 54)2 = 6,32456 𝑑(𝐿𝑎𝑡𝑖ℎ6, 𝑈𝑗𝑖) = √(162 − 162)2+ (67 − 54)2 = 13

7. Setelah mendapatkan jarak Euclidian antara data latih dengan data uji, maka selanjutnya adalah menghitung weight voting menggunakan Rumus (2.4).

Dalam perhitungan ini, nilai regulator smooothing yang digunakan adalah 0,5.

(32)

15

a. Perhitungan Weight Voting dari Euclidian data uji : 𝑊(𝐸𝑢𝑈𝑗𝑖1) = 0 𝑥 1

2,23607 + 0,5= 0 𝑊(𝐸𝑢𝑈𝑗𝑖2) = 0,333 𝑥 1

15,2971 + 0,5= 0,211 𝑊(𝐸𝑢𝑈𝑗𝑖3) = 0,333 𝑥 1

3 + 0,5= 0,9524 𝑊(𝐸𝑢𝑈𝑗𝑖4) = 0,333 𝑥 1

5 + 0,5= 0,06061 𝑊(𝐸𝑢𝑈𝑗𝑖5) = 0,333 𝑥 1

6,32456 + 0,5= 0,4884 𝑊(𝐸𝑢𝑈𝑗𝑖6) = 0,333 𝑥 1

13 + 0,5= 0,02469

Tabel 2. 10 Perhitungan Weight Voting

Nilai Weight Voting Kelas Data Latih

d(Uji,Latih1) 0 Sedang

d(Uji,Latih2) 0,211 Besar

d(Uji,Latih3) 0,9524 Kecil

d(Uji,Latih4) 0,06061 Kecil

d(Uji,Latih5) 0,4884 Sedang

d(Uji,Latih6) 0,02469 Besar

8. Dari hasil perhitungan Weight Voting pada tabel 2.10, kita akan menentukan kelas dari data uji dengan mengambil 3 nilai terbesar kelas dari data latih hasil perhitungan Weight Voting. Maka di dapatkan hasil seperti ini :

Tabel 2. 11 Penentuan kelas data uji

Nilai Weight Voting Kelas Data Latih

d(Uji,Latih3) 0,9524 Kecil

d(Uji,Latih4) 0,06061 Kecil

d(Uji,Latih5) 0,4884 Sedang

(33)

16

Dari tabel 2.11, dapat dilihat bahwa kelas Kecil lebih banyak muncul, maka dari itu, data uji akan memiliki kelas Kecil.

2.6 K-Fold Cross Validation

K-Fold Cross Validation merupakan sebuah metode melakukan validasi, dimana dalam metode ini, data akan dibagi menjadi data latih dan data uji menjadi K kelompok. Tujuan dari pembagian data ini berfungsi untuk melakukan pengujian secara silang untuk seluruh data untuk melihat nilai akurasi dari sebuah model yang dibangun. Konsep pembagian data pada metode K-Fold akan mengambil 1 dari K kelompok untuk dijadikan sebagai data uji. Sebagai contoh, jika kita ingin membagi data menjadi 3 kelompok, maka 1 dari 3 kelompok tersebut akan menjadi data uji dan 2 lainnya akan menjadi data latih.

Gambar 2. 1 Ilustrasi Cross Validation 3 Fold

(34)

17

BAB III

METODOLOGI PENELITIAN

3.1 Deskripsi Data

Data yang digunakan pada penelitian ini adalah data citra aksara Bali hasil dari penelitian “SEGMENTASI CITRA HURUF DAUN LONTAR” dan penelitian

“CLUSTERING CITRA AKSARA BALI HASIL SEGMENTASI CITRA DAUN LONTAR” yang berjumlah 1489 data yang dibagi dalam 175 kelompok.

3.2 Kebutuhan Perangkat Hardware dan Software a. Spesifikasi Hardware :

1. Processor Intel® Core™ i7 – 9750H CPU @ 2.60GHz 2. RAM 8 GB

3. SSD 256 GB

Gambar 3. 1 Citra aksara Bali

(35)

18

b. Spesifikasi Software : 1. Matlab R2017b

2. Sistem Operasi Windows 10

3.3 Perancangan Sistem

Pada bagian ini, akan memperlihatkan perancangan sistem yang akan dibuat pada penelitian ini. Untuk desain sistemnya adalah sebagai berikut :

Gambar 3. 2 Diagram perancangan sistem

Sistem akan melakukan identifikasi aksara Bali dengan menggunakan metode klasifikasi Modified k – Nearest Neighbor (MKNN). Proses identifikasi aksara Bali dilakukan berdasarkan jarak paling dekat antara data dengan tetangganya. Pertama, data citra yang akan di klasifikasi akan di preprocessing terlebih dahulu. Proses di dalam preprocessing meliputi binerisasi, cropping, thinning dan resize image.

Selanjutnya, data hasil preprocessing akan di ekstraksi ciri untuk diambil karakter citra nya. hasil dari ekstraksi ciri berupa matriks NxN, lalu dilakukan proses klasifikasi untuk mengidentifikasi matriks hasil ekstraksi ciri tersebut. Setelah mendapatkan hasil klasifikasi yang berupa label, maka akan di evaluasi untuk mendapatkan tingkat akurasi dari pemakaian metode klasifikasi MKNN.

(36)

19

3.4 Preprocessing

Dalam preprocessing, data citra aksara Bali akan di proses terlebih dahulu sebelum diolah. Sebelum data diolah, data di input kan ke dalam Matlab dengan menggunakan fungsi imread.

Gambar 3. 3 Diagram preprocessing

a. Binerisasi

Dalam Binerisasi, citra aksara Bali akan yang telah diinputkan akan diubah ke dalam citra biner atau citra hitam putih. Untuk proses Binerisasi sendiri, menggunakan fungsi im2bw() dari Matlab.

b. Cropping

Dalam cropping, dengan Profil Proyeksi, bagian kosong dari data citra biner akan akan dipotong sehingga obyek dari citra akan lebih kelihatan yang dimana metode ini akan memotong secara vertikal dan horizontal.

c. Resize

Dalam Resize, ukuran dari data citra yang selesai di cropping akan diubah supaya setiap data yang akan digunakan akan memiliki ukuran yang sama dan bisa diolah dengan mudah oleh sistem. Dalam resize menggunakan fungsi imresize() dari Matlab.

(37)

20

d. Thinning

Dalam Thinning, citra yang telah di resize akan ditipiskan atau diambil kerangka nya. Metode yang digunakan dalam thinning adalah metode Rosenfeld.

3.5 Ekstraksi Ciri

Setelah dilakukan preprocessing, akan dilakukan ekstraksi ciri untuk mengambil ciri atau informasi yang terkandung dari dalam citra.

Gambar 3. 4 Diagram ekstraksi ciri a. Intensity of Character (IoC)

IoC akan menghitung piksel yang berwarna hitam atau bernilai 0 dari citra berdasarkan ukuran yang ditentukan. Jika misalnya menentukan ukuran IoC 3x3, maka citra akan dibagi menjadi 9 bagian. Hasil dari IoC ini, akan menghasilkan matriks berukuran NxN. Setelah mendapatkan hasil, maka matriks NxN tersebut akan diubah ke matriks 1xN menggunakan fungsi dari Matlab yaitu cell2mat. Dari contoh yang menggunakan IoC 3x3, maka akan diubah menjadi matriks 1x9 pada Matlab sebelum diklasifikasi.

➢ Input :

1. Citra hasil preprocessing 2. Ukuran ciri dari IoC

➢ Algoritma : 1. Baca Data

2. Set tinggi = size(data, 1) 3. Set lebar = size(data, 2)

4. Bagi data sesuai ukuran ciri dari IoC yang ditentukan 5. Menncari piksel 0 dari setiap bagian citra, lalu dijumlahkan

(38)

21

6. Mengulang langkah 2 sampai mendapatkan citra sesuai dengan ukuran yang ditentukan

➢ Output : Matriks berukuran NxN

3.6 Klasifikasi Modified K-Nearest Neighbor (MKNN)

Setelah mendapatkan matriks NxN, data matriks tersebut akan diklasifikasikan menggunakan metode MKNN. Sebelum melakukan perhitungan MKNN, terlebih dahulu akan menentukan nilai K yang akan digunakan dalam klasifikasi.

Gambar 3. 5 Diagram Modified K-Nearest Neighbor

a. Menghitung jarak Euclidian antar data latih

➢ Input : Data latih hasil ekstraksi ciri.

➢ Algoritma :

1. Mengambil baris dan kolom dari data latih

2. Melakukan perulangan i = 1 sampai semua data latih 3. Melakukan perulangan j = 1 sampai semua data latih

4. Membuat variabel nilai = 0 untuk menyimpan hasil perhitungan Euclidian

5. Melakukan perulangan k = 1 sampai semua kolom pada data latih

6. Set variabel nilai = nilai + pengurangan dari dataLatih(i,k) dan dataLatih(j,k) dikuadratkan 2

7. Membuat variabel euclidianLatih(i,j) untuk menyimpan hasil akar dari perhitungan ke 6

(39)

22

➢ Output : Hasil perhitungan Euclidian antar data latih b. Menghitung Nilai Validitas

Untuk mempermudah pengambilan tetangga, hasil perhitungan Euclidian data latih akan diurutkan terlebih dahulu menggunakan function sort pada Matlab.

➢ Input :

1. Euclidian data latih 2. Nilai K

➢ Algoritma :

1. Melakukan perulangan i = 1 sampai semua Euclidian data latih

2. Melakukan perulangan j = 1 sampai dengan jumlah nilai K 3. Set variabel data(i,1) = label(i,1)

4. Set variabel tetangga(i,j) = label(i, (j+1))

5. Melakukan perbandingan, jika kelas dari data sama dengan tetangga nya maka akan bernilai 1, jika berbeda akan bernilai 0

6. Menyimpan hasil perbandingan ke variabel nilaiPerbandingan

7. Mengambil baris dan kolom dari nilaiPerbandingan.

8. Melakukan perulangan i = 1 sampai semua nilaiPerbandingan

9. Membuat variabel itungan = 0 untuk menyimpan hasil perhitungan nilai Validitas

10. Membuat variabel nilaiValiditas untuk menyimpan hasil dari itungan

➢ Output : Hasil perhitungan nilai Validitas

(40)

23

c. Menghitung jarak Euclidian data latih dengan data uji

➢ Input :

1. Data latih 2. Data Uji

➢ Algoritma :

1. Mengambil baris dan kolom dari data uji

2. Melakukan perulangan ii =1 sampai semua data latih

3. Membuat variabel hasil = 0 untuk menyimpan hasil Euclidian data latih dan data uji

4. Melakukan perulangan jj = 1 sampai semua data uji

5. Melakukan perulangan kk = 1 sampai semua kolom data uji 6. Set variabel hasil = hasil + pengurangan dari dataLatih(jj,kk)

dan dataUji(ii,kk) dikuadratkan 2.

7. Membuat variabel euclidianLatihUji(jj,ii) untuk menyimpan hasil akar dari perhitungan Euclidian data latih dan data uji

➢ Output : Hasil perhitungan Euclidian data latih dan data uji

d. Menghitung Weight Voting

➢ Input :

1. Euclidian data latih dan data uji 2. Nillai Validitas

➢ Algoritma :

1. Mengambil baris dan kolom dari Euclidian data latih dan data uji

2. Mengambil baris dan kolom dari nilai Validitas

3. Melakukan perulangan iii = 1 sampai semua nilai Euclidian data latih dan data uji

4. Melakukan perulangan jjj = 1 sampai semua kolom nilai Euclidian data latih dan data uji

5. Membuat variabel nilaiV = euclidianLatihUji(iii,jjj) + nilai regular smoothing

(41)

24

6. Membuat variabel nilaiWeightVoting(iii,jjj) = nilaiValiditas(iii,jjj) * (1 / nilaiV)

➢ Output : Hasil Weight Voting Capture program MKNN :

Gambar 3. 6 Program MKNN I

(42)

25

Gambar 3. 7 Program MKNN II

(43)

26

3.7 Skema Pengujian

Pada penelitian ini, akan melakukan penerapan metode klasifikasi Modified K- Nearest Neighbor (MKNN) pada data citra aksara Bali. Nilai yang digunakan adalah :

a. Ekstraksi ciri menggunakan metode Intensity of Character (IoC) yang berukuran 3x3 dan 4x4.

b. Nilai K-Fold yang digunakan untuk pengujian menggunakan data jamak menggunakan metode K-Fold Cross Validation adalah 3-Fold, 5-Fold dan 7-Fold.

c. Nilai K yang digunakan dalam klasifikasi MKNN yaitu 1, 3, 5, 7 dan 9.

Dengan beberapa pengujian yang dilakukan, adalah sebagai berikut :

a. Skenario pertama, akan menggunakan ekstraksi ciri berukuran 3x3 dan akan mencari rata-rata akurasi terbaik dari semua nilai K-Fold dan nilai K dari MKNN.

b. Setelah mendapatkan rata-rata akurasi terbaik, maka skenario tersebut akan dipakai untuk ekstraksi ciri 4x4 lalu mebandingkan hasilnya untuk mencari yang terbaik.

c. Hasil terbaik dari perbandingan ekstraksi ciri 3x3 dan 4x4 akan digunakan untuk skenario selanjutnya, dimana dalam skenario ini, akan melakukan preprocessing tanpa thinning. Setelah mendapatkan hasil, maka hasil tersebut akan dibandingkan dengan skenario selanjutnya untuk mencari yang terbaik.

d. Setelah mendapatkan hasil yang terbaik, maka skenario tersebut akan digunakan untuk pengujian selanjutnya, dimana untuk nilai regulator smoothing pada weight voting akan diubah menjadi 0,4 dan 0,6. Selanjutnya akan dibandingkan untuk mendapatkan hasil yang terbaik.

(44)

27

3.8 Desain User Interface

Gambar 3. 8 Desain GUI a. Input Data

Data citra diinputkan lewat button Cari Citra. Setelah diinputkan, akan diperlihatkan citra beserta nama dari file citra tersebut.

b. Preprocessing

Setelah diinputkan, data akan diolah lewat button Preprocessing. Hasil setelah diolah akan ditampilkan.

c. Klasifikasi

Data citra yang telah diolah, akan dilakukan ekstraksi ciri lalu dilakukan klasifikasi pada button Klasifikasi. Hasil yang akan ditampilkan berupa label sesuai dengan nama folder hasil clustering

(45)

28

BAB IV

HASIL DAN PEMBAHASAN

4.1 Data

Data yang digunakan adalah data citra aksara Bali yang berjumlah 1489 data dari 175 kelompok. Dikarenakan jumlah data pada setiap kelompok tidak seimbang, maka data yang digunakan pada penelitian ini berjumlah 980 data dari 17 cluster saja dengan syarat bahwa data yang diambil dari setiap cluster memiliki minimal 20 data. Dimana untuk data yang digunakan adalah sebagai berikut :

Tabel 4. 1 Data citra

Citra Nama

Cluster

Jumlah Data

Kelas pada Matlab

Nama Aksara

C2 21 2 Ha

C3 61 3 Ta

C4 46 4 Ba

C6 65 6 Sa

C7 77 7 Ma

C8 38 8 Ka

C10 29 10 Nga

C12 82 12 Koma

C13 122 13 Ulu

C15 50 15 Tedong

C19 109 19 Na

C20 21 20 Da

(46)

29

C23 43 23 Wa

C27 93 27 Taleng

C34 70 34

Ra

C40 36 40 Ya

C42 34 42 Suku

4.2 Implementasi Preprocessing

Pada bagian ini, akan memperlihatkan hasil dari preprocessing pada citra aksara Bali.

4.2.1 Binerisasi

Data citra aksara Bali yang telah diinputkan ke dalam Matlab akan di binerisasikan menggunakan fungsi im2bw. Hasilnya adalah sebagai berikut :

Tabel 4. 2 Hasil binerisasi

Data citra awal Data citra hasil binerisasi

(47)

30

Dilihat dari Tabel 4.2, dapat dilihat bahwa tidak ada perubahan yang signifikan dari citra setelah di binerisasi dikarenakan warna dari citra awal mirip dengan citra binerisasi. Salah satu yang membuat perbedaan yaitu, citra hasil binerisasi sudah diubah menjadi citra biner yang mempunyai nilai 1 dan 0 seperti pada Gambar 4.1.

Gambar 4. 1 Hasil citra binerisasi

Selanjutnya, bisa dilihat juga pada Tabel 4.3 yaitu workspace dari matlab dimana terjadi perubahan yang sebelumnya uint8 menjadi logical.

Tabel 4. 3 Perubahan pada workspace setelah binerisasi Sebelum Binerisasi Sesudah Binerisasi

4.2.2 Cropping

Setelah di binerisasikan, selanjutnya citra akan di cropping dengan menggunakan Profil Proyeksi. Hasilnya adalah sebagai berikut :

(48)

31

Tabel 4. 4 Citra Cropping

Citra Binerisasi Citra Cropping

Dapat dilihat pada Tabel 4.4, bahwa setelah, bagian putih yang berlebihan di potong dan hanya menyisakan citra nya saja. Lalu untuk ukuran setelah di cropping juga berubah pada workspace seperti pada Tabel 4.5.

Tabel 4. 5 Perubahan pada workspace setelah cropping

Sebelum Cropping Setelah Cropping

4.2.3 Resize

Setelah mendapatkan citra nya, selanjutnya resolusi atau ukuran dari citra akan diubah agar supaya dengan mudah diolah. Pada penelitian ini, menggunakan ukuran 60x60 dengan hasil sebagai berikut :

Tabel 4. 6 Citra Resize

Citra Cropping Citra Resize

Dari Tabel 4.6, dapat dilihat bahwa ukuran citra lebih besar dari sebelumnya yang awalnya berukuran 42x46 menjadi ukuran 60x60. Lalu untuk ukuran setelah di resize juga berubah pada workspace seperti pada Tabel 4.7.

(49)

32

Tabel 4. 7 Perubahan pada workspace setelah resize

Sebelum Resize Sesudah Resize

4.2.4 Thinning

Langkah terakhir adalah dengan mengubah citra menjadi rangka (Skeleton) menggunakan metode Rosenfeld. Hasilnya adalah sebagai berikut :

Tabel 4. 8 Citra Thinning

Citra Resize Citra Thinning

Dari Tabel 4.8, dapat dilihat bahwa citra sudah ditipiskan dan tersisa kerangka dari citra tersebut.

4.3 Implementasi Ekstraksi Ciri

Data yang telah di preprocessing akan dilakukan ekstraksi ciri untuk diambil ciri citra. Hasil dari ekstraksi ciri adalah sebagai berikut :

Tabel 4. 9 Hasil Ekstraksi Ciri

Citra Ciri IoC 3x3

Label

1 2 3 4 5 6 7 8 9

0 32 22 9 26 21 30 62 50 C2

22 52 22 27 26 30 34 47 42 C3

(50)

33

29 39 14 6 0 24 40 57 36 C4

Dari Tabel 4.9, data citra yang awalnya berukuran 60x60 akan menjadi matriks 3x3, lalu diubah menjadi matriks 1x9 emnggunakan fungsi cell2mat.

4.4 Implementasi K-Fold Cross Validation

Setelah mendapatkan ciri dari citra, selanjutnya akan melakukan pembagian data untuk menguji akurasi dari sistem. Data yang awalnya berjumlah 980 akan dibagi menjadi 2 bagian, yaitu menjadi data testing dan data training.

Pembagiannya adalah sebagai berikut :

Gambar 4. 2 Hasil pembagian 3 Fold Data Training

Pada Gambar 4.2, terdapat 3 cell berisi 2/3 dari data yang menjadi data training untuk setiap fold nya.

Gambar 4. 3 Hasil Pembagian 3 Fold Data Testing

Pada Gambar 4.3, terdapat 3 cell juga yang berisi 1/3 dari data yang menjadi data testing untuk setiap fold nya.

Hal ini juga berlaku untuk penggunaan 5 Fold dan 7 Fold, dimana untuk 5 Fold, akan dibagi menjadi 5 cell. Untuk data training nya akan diambil 4/5 dari jumlah data lalu untuk data testing nya akan diambil 1/5 dari jumlah data. Selanjutnya untuk 7 Fold, akan dibagi menjadi 7 cell. Untuk data training nya akan diambil 6/7 dari jumlah data dan untuk data testing nya akan diambil 1/7 dari jumlah data.

(51)

34

4.5 Implementasi Modified K-Nearest Neighbor

Pada bagian ini akan menunjukkan proses implementasi Modified K- Nearest Neighbor (MKNN). Sebagai contoh akan menggunakan data yang telah di ekstraksi ciri memakai ukuran IoC 3x3 dengan nilai K = 3, dimana data nya sebagai berikut :

Tabel 4. 10 Data Training

No. Ciri Label

39 38 12 20 0 3 36 27 21 C13

14 50 17 34 0 0 15 46 27 C13

24 11 0 39 24 0 44 20 22 C34

27 16 0 35 22 0 46 23 26 C34

0 0 49 8 0 36 40 46 11 C40

0 4 34 0 4 29 50 40 0 C40

Tabel 4. 11 Data Testing

No. Ciri Label

0 0 147 2 11 143 129 136 78 ??

Setelah mengetahui data training dan data testing yang akan digunakan, selanjutnya menghitung nilai Euclidian antar data training nya dengan Rumus (2.1). Perhitungannya sebagai berikut :

(52)

35

𝑑𝑎𝑡𝑎𝑇𝑟𝑎𝑖𝑛𝑖𝑛(1,1) = √

(39 − 39)2+ (38 − 38)2+ (12 − 12)2+ (20 − 20)2+ (0 − 0)2+ (3 − 3)2+ (36 − 36)2+ (27 − 27)2 + (21 − 21)2

= 0

𝑑𝑎𝑡𝑎𝑇𝑟𝑎𝑖𝑛𝑖𝑛(1,2) = √

(39 − 14)2+ (38 − 50)2+ (12 − 17)2+ (20 − 34)2+ (0 − 0)2+ (3 − 0)2+ (36 − 15)2+ (27 − 46)2 + (21 − 27)2

= 42,8

Sampai menghitung untuk semua data training dan mendapatkan hasil perhitungan Euclidian antar data training sebagai berikut :

Tabel 4. 12 Hasil Euclidian antar data training

Euclidian Data Latih

1 0 42,8602 46,4543 40,3856 77,7432 71,1266

2 42,8602 0 63,6632 59,9166 81,074 81,265

3 46,4543 63,6632 0 9,11043 82,1219 73,9121 4 40,3856 59,9166 9,11043 0 81,7618 73,4847

5 77,7432 81,074 82,1219 81,7618 0 25,04

6 71,1266 81,265 73,9121 73,4847 25,04 0

1 2 3 4 5 6

Setelah mendapatkan hasil Euclidian dari Tabel 4.12, selanjutnya mencari tetangga terdekat dengan data, dimana adalah sebagai berikut :

Tabel 4. 13 Tetangga terdekat dengan data

Euclidian Data Latih Kelas

1 0 42,8602 46,4543 40,3856 77,7432 71,1266 13 2 42,8602 0 63,6632 59,9166 81,074 81,265 13 3 46,4543 63,6632 0 9,11043 82,1219 73,9121 34 4 40,3856 59,9166 9,11043 0 81,7618 73,4847 34 5 77,7432 81,074 82,1219 81,7618 0 25,04 40 6 71,1266 81,265 73,9121 73,4847 25,04 0 40

1 2 3 4 5 6

(53)

36

Setelah mendapatkan tetangga terdekat seperti di Tabel 4.13, selanjutnya membandingkan kelas dari data dengan tetangga terdekatnya menggunakan Rumus (2.3), dengan hasil sebagai berikut :

Tabel 4. 14 Hasil perbandingan kelas data dengan tetangga

Setelah membandingkan kelas data dengan tetangganya seperti pada Tabel 4.14, selanjutnya adalah menghitung nilai Validitas nya dengan menggunakan Rumus (2.2). Hasil perhitungan nya adalah sebagai berikut :

𝑉𝑎𝑙𝑖𝑑𝑖𝑡𝑎𝑠(𝑇𝑟𝑎𝑖𝑛𝑖𝑛𝑔1) = 1

3 𝑥 (1 + 0 + 0) = 0,33333 𝑉𝑎𝑙𝑖𝑑𝑖𝑡𝑎𝑠(𝑇𝑟𝑎𝑖𝑛𝑖𝑛𝑔2) = 1

3 𝑥 (1 + 0 + 0) = 0,33333

Sampai menghitung semua nilai Validitas dari data training, sehingga mendapatkan hasil nilai Validitas sebagai berikut :

Tabel 4. 15 Hasil Nilai Validitas

Data Tetangga Kelas D Kelas T Nilai Data Tetangga Kelas D Kelas T Nilai

2 13 1 1 13 0

3 34 0 2 13 0

4 34 0 3 34 1

Data Tetangga Kelas D Kelas T Nilai Data Tetangga Kelas D Kelas T Nilai

1 13 1 1 13 0

3 34 0 2 13 0

4 34 0 6 40 1

Data Tetangga Kelas D Kelas T Nilai Data Tetangga Kelas D Kelas T Nilai

1 13 0 1 13 0

2 13 0 2 13 0

4 34 1 5 40 1

4 34

5 40

6 40

1 13

2 13

3 34

1 0,33333 2 0,33333 3 0,33333 4 0,33333 5 0,33333 6 0,33333 Nilai Validitas

(54)

37

Setelah mendapatkan nilai Validitas, selanjutnya adalah menghitung nilai Euclidian antar data latih dengan data uji menggunakan Rumus (2.1). Hasilnya adalah sebagai berikut :

Tabel 4. 16 Hasil perhitungan Euclidian Training dan Testing

Selanjutnya, menghitung nilai Weight Voting dari hasil Euclidian data testing dengan menggunakan Rumus (2.3). Perhitungannya adalah sebagai berikut :

𝑊𝑉(𝑇𝑒𝑠𝑡𝑖𝑛𝑔1) = 0,33333 𝑥 1

254,9784 + 0,5= 0,0013 𝑊𝑉(𝑇𝑒𝑠𝑡𝑖𝑛𝑔2) = 0,33333 𝑥 1

254,7292 + 0,5= 0,00131

Sampai mendapatkan semua nilai Weight Voting. Hasil dari perhitungannya adalah sebagai berikut :

Tabel 4. 17 Hasil perhitungan Weight Voting

Terakhir, dari Tabel 4.17, akan diambil nilai terbesar sejumlah K untuk menentukan kelas yang akan di dapatkan oleh data testing. Dimana tetangga nya adalah sebagai berikut :

Euclidian Latih Uji

217,6579886 204,2547429 258,0988183 260,9789264 254,729268 254,9784305

0,0013 13 0,00131 13 0,00127 34 0,00129 34 0,00163 40 0,00153 40 Weight Voting

(55)

38

Tabel 4. 18 Pencarian nilai terbesar

Dari Tabel 4.18, dari nilai terbesar yang di dapatkan, terdapat dua kelas yang muncul yaitu kelas 13 dan 40. Dikarenakan kelas 40 muncul lebih banyak dari kelas 13, maka untuk label dari data testing akan mendapatkan kelas 40.

4.6 Pengujian

Pengujian pada penelitian ini menggunakan data yang tidak seimbang (imbalance), dimana jumlah isi setiap kelas berjumlah minimal 20 data. Hasil dari pengujian pada penelitian ini adalah sebagai berikut :

4.6.1 Pengujian Pertama

Pada pengujian ini, menggunakan ukuran citra 60x60 dengan IoC berukuran 3x3 untuk semua nilai K-Fold dan semua nilai K pada MKNN.

Hasil dari pengujian pertama adalah sebagai berikut : a. Pengujian menggunakan 3 Fold Cross Validation

Pengujian menggunakan 3 Fold Cross Validation dimana 2/3 sebagai data training yang berjumlah 654 data dan 1/3 sebagai data testing berjumlah 326 data. Hasil dari pengujian ini yaitu :

0,0013 13 0,00131 13 0,00127 34 0,00129 34 0,00163 40 0,00153 40 Weight Voting

(56)

39

Tabel 4. 19 Hasil Pengujian 3 Fold

Dari Tabel 4.19, bisa dilihat bahwa akurasi yang di dapatkan dari pengujian dengan 3 Fold mendapat hasil maksimal pada Fold 3 dan nilai K = 5 dengan akurasi 90,2439%. Lalu mendapatkan hasil minimal pada Fold 1 dan nilai K = 9 dengan akurasi 80,9816. Untuk rata – rata dari akurasi yang di dapatkan, paling tinggi pada penggunaan nilai K = 1, yaitu 88,1621%.

b. Pengujian menggunakan 5 Fold Cross Validation

Pengujian menggunakan 5 Fold Cross Validation dimana 4/5 sebagai data training yang berjumlah 784 data dan 1/5 sebagai data testing yang berjumlah 196 data. Hasil dari pengujian ini yaitu :

Tabel 4. 20 Hasil pengujian 5 Fold

K Akurasi pada Fold 5

Rata-rata

1 2 3 4 5

1 90,3061 90,3061 88,2653 87,7551 91,3265 89,59182 3 90,8163 87,2449 85,2041 88,7755 89,7959 88,3673 5 90,8163 84,1837 86,2245 86,2245 89,2857 87,3469 7 87,2449 84,1429 85,2041 86,2245 88,2653 86,2163 9 84,6939 81,1224 83,1633 85,2041 86,2245 84,0816

K

Akurasi pada Fold

Rata-rata

Fold 1 Fold 2 Fold 3

1 88,6503 87,1166 88,7195 88,1621

3 86,8098 87,7301 89,6341 88,058

5 86,1963 86,8098 90,2439 87,75

7 83,1288 86,1963 87,1951 85,5067

9 80,9816 84,0491 86,2805 83,7704

(57)

40

Dari Tabel 4.20, mendapatkan hasil maksimal pada Fold 5 dan nilai K = 1 dengan akurasi 91,3265%. Lalu untuk nilai minimal pada Fold 2 dan nilai K = 9 dengan akurasi 81,1224%. Untuk rata – rata akurasi di dapat pada penggunaan nilai K = 1 dengan akurasi 89,5918%.

c. Pengujian menggunakan 7 Fold Cross Validation

Pengujian menggunakan 7 Fold Cross Validation dimana 6/7 sebagai data training berjumlah 840 data dan 1/7 sebagai data testing berjumlah 140 data. Hasil dari pengujian ini yaitu :

Tabel 4. 21 Hasil pengujian 7 Fold

K

Akurasi pada Fold Rata-

rata

1 2 3 4 5 6 7

1 90,7143 89,2857 90,7143 87,1429 87,8571 90,7143 90,7143 89,5918 3 91,4286 87,1429 90,7143 83,5714 90 87,1429 89,2857 88,4694 5 90 87,8571 89,2857 85 87,1429 85 89,2857 87,6531 7 87,1429 85,7143 84,2857 83,5714 88,5714 84,2857 87,8571 85,9184 9 82,8571 85 83,5714 82,8571 86,4286 82,8571 87,1429 84,3877

Dari Tabel 4.21, mendapatkan hasil maksimal pada Fold 1 dan nilai K = 3. Lalu untuk nilai minimal pada Fold 4 dan nilai K = 9 dengan akurasi 82,8571%. Untuk rata – rata dari akurasi di dapat pada penggunaa nilai K = 1 dengan akurasi 89,59184

Pada pengujian pertama, dapat dilihat bahwa rata-rata akurasi yang di dapat dengan menggunakan nilai K = 1 bisa mendapatkan akurasi yang lebih tinggi dibandingkan menggunakan nilai K 3, 5, 7 dan 9 pada semua pengujian Fold.

(58)

41

Dari Gambar 4.4, bisa dilihat bahwa rata – rata akurasi yang di dapat dengan 7 Fold lebih tinggi dibandingkan dengan penggunaan 3 atau 5 Fold meskipun perbedaan nya tidak terlalu signifikan. Hasil terbaik dengan memakai 7 Fold dan nilai K = 1 akan digunakan untuk pengujian selanjutnya.

4.6.2 Pengujian Kedua

Pada pengujian kedua, menggunakan hasil terbaik dari pengujian pertama yaitu, dengan nilai K-Fold = 7 dan nilai K = 1 pada MKNN.

Pada pengujian ini, menggunakan ekstraksi ciri IoC dengan ukuran 4x4.

Tabel 4. 22 Hasil pengujian kedua

K

Akurasi menggunakan Fold 7

Rata-rata Fold 1 Fold 2 Fold 3 Fold 4 Fold 5 Fold 6 Fold 7

1 90,7143 91,4286 92,1429 92,1429 96,4286 89,2857 93,5714 92,24491429

88,16213333

89,59182 89,59184286

87 87,5 88 88,5 89 89,5 90

Fold 3 Fold 5 Fold 7

Rata -rata Akurasi

K - Fold

Grafik Akurasi

Gambar 4. 4 Grafik pengujian kedua

(59)

42

Pada pengujian kedua, dari Tabel 4.22, rata-rata akurasi yang di dapatkan dengan menggunakan IoC 4x4 untuk 7 Fold dan K = 1 yaitu 92,3% dengan hasil maksimal pada Fold 5 dengan akurasi 96,4286% dan hasil minimal pada Fold 6 dengan akurasi 89,2857%.

Gambar 4. 5 Grafik pengujian kedua

Dari Gambar 4.5, pengujian dengan menggunakan ekstraksi ciri berukuran 4x4 mendapatkan akurasi yang lebih tinggi dibandingkan dengan menggunakan ukuran 3x3, yaitu 92,2449%. Hasil terbaik dengan menggunakan ekstraksi ciri berukuran 4x4 dengan K-Fold = 7 dan nilai K

= 1 pada MKNN akan dipakai pada pengujian selanjutnya.

4.6.3 Pengujian ketiga

Pada pengujian ketiga, menggunakan hasil terbaik dari pengujian kedua, yaitu menggunakan ekstraksi ciri berukuran 4x4 dengan nilai K-Fold

= 7 dan nilai K = 1 pada MKNN. Pada pengujian ini tidak akan menggunakan metode thinning pada proses preprocessing.

89,59184

92,24491429

88 88,5 89 89,5 90 90,5 91 91,5 92 92,5

3x3 4x4

Rata -rata akurasi

Ekstraksi Ciri

Grafik Akurasi

(60)

43

Tabel 4. 23 Hasil pengujian ketiga

K

Akurasi menggunakan Fold 7

Rata-rata Fold 1 Fold 2 Fold 3 Fold 4 Fold 5 Fold 6 Fold 7

1 97,1429 94,2857 95,7143 92,8571 95,7143 93,5714 94,2857 94,79591429

Dari Tabel 4.23, memperlihatkan bahwa untuk akurasi yang di dapatkan pada penggunaan ekstraksi ciri berukuran 4x4 dengan 7 Fold dan nilai K =1 yaitu 94,7959%. Dari hasil ini, akan dibandingkan dengan hasil terbaik dari pengujian sebelumnya. Untuk perbandingan nya adalah sebagai berikut :

Gambar 4. 6 Grafik pengujian ketiga

Dari perbandingan rata-rata akurasi pada Gambar 4.6, proses tanpa thinning mendapatkan hasil lebih tinggi dibandingkan dengan menggunakan thinning, yaitu 94,7959%. Dari hasil perbandingan ini, maka untuk pengujian selanjutnya akan melakukan proses tanpa menggunakan thinning.

4.6.4 Pengujian keempat

Pada pengujian keempat, akan menggunakan hasil terbaik dari pengujian sebelumnya, yaitu menggunakan data citra tanpa thinning, ekstraksi ciri IoC 4x4, Fold 7 dan nilai K =1 pada MKNN. Pada pengujian ini akan mengganti nilai regulator smoothing pada weight voting menjadi 0,4 dan 0,6.

92,2449142 9

94,7959142 9

90 91 92 93 94 95

Dengan Thinning Tanpa Thinning

Rata -rata akurasi

Proses

Grafik Akurasi

(61)

44

Tabel 4. 24 Pengujian dengan regular smoothing 0.4

Tabel 4. 25 Pengujian dengan regular smoothing 0.6

Pada Tabel 4.24 dan Tabel 4.25, dilihat bahwa mengganti nilai regular smoothing menjadi 0,4 dan 0,6 tidak mempengaruhi hasil akurasi dari klasifikasi MKNN dimana hasil akurasi dari setiap Fold dan rata-rata akurasi dari nilai regulator smoothing nya sama.

RegSmo Fold K Akurasi Rata-rata

0,4 7

1

1

97,1249

94,79334286

2 94,2857

3 95,7143

4 92,8571

5 95,7143

6 93,5714

7 94,2857

RegSmo Fold K Akurasi Rata-rata

0,6 7

1

1

97,1249

94,79334286

2 94,2857

3 95,7143

4 92,8571

5 95,7143

6 93,5714

7 94,2857

Referensi

Dokumen terkait

Adapun dalam mengembangkan Rencana Pelaksanaan Pembelajaran (RPP) komponen-komponen yang harus diperhatikan, yaitu identitas mata pelajaran, standar kompetensi,

Disebut metode kuantitatif karena data penelitian berupa angka-angkadan analisis menggunakan statistik.Dalam penelitian ini peneliti menggunakan penelitian kuantitatif

Sedangkan informasi bukan akuntansi yang memiliki pengaruh terhadap keputusan kredit bank adalah nilai jaminan dan pengalaman pimpinan calon

Dengan penyampaian yang sesuai dengan rencana pembelajaran, memiliki ilustrasi yang cukup memadai, diuraikan dengan sistematis dan mudah dimengerti serta mempunyai

Analisis nilai tambah dilakukan untuk mengetahui rasio nilai tambah dan keuntungan dari penggunaan natrium laurat dan kalium palmitat sebagai bahan baku foaming

Hasil: Hasil penelitian menunjukkan perbedaan yang signifikan pada pelepasan ion nikel braket stainless steel yang direndam dalam artifisial saliva, obat kumur

Instansi teknis pelaksana kegiatan adalah Dinas Peternakan dan Perikanan Kabupaten Bungo, dimana pada Tahun Anggaran 2011 alokasi dana kegiatan sebesar Rp.. Keluaran

Menimbang, bahwa berdasarkan fakta tersebut kemudian dihubungkan dengan gugatan para Penggugat, Majelis Hakim menilai perbuatan anak angkat Tergugat tersebut secara