• Tidak ada hasil yang ditemukan

Bab 3 Metodologi Penelitian

3.6. Sampel Pola Citra Tajwid

Adapun pola citra tajwid yang diambil adalah pola citra tajwid hukum Mim Sukun (

م

). Pola disajikan dalam tabel berikut :

Tabel 3.2. Pola Citra Tajwid Mim Sukun

No. Hukum Huruf Pola

1 Idgham Mimi

م

2 Ikhfa Syafawi

ب

3 Izhar Syafawi

ا

ت ث

ج

ح

خ

د

ذ ر

ز

س

ش

ص

ض

ط

ظ

ع

غ

ف

ق

ك

ل

ن

و

ي

BAB 4

HASIL DAN PEMBAHASAN

4.1. Hasil Penelitian

4.1.1. Pengujian model algoritma

Pengujian dilakukan dengan 2 cara pembagian data. Pertama, pengujian dilakukan menggunakan sekelompok data yang termasuk dalam set data latih. Jumlahnya 1/3 dari jumlah keseluruhan data latih. Hal ini dilakukan untuk mengetahui apakah model algoritma dapat mengenali data yang diujikan dimana sebelumnya data tersebut sudah dilatih terlebih dahulu. Hal ini perlu dilakukan mengingat peranan dari local mean yang mengambil sebanyak k data latih dari masing-masing kelas target dan turut memperhitungkan vektor rata-ratanya sebagai langkah untuk menentukan kelas yang dalam hal ini untuk mengenali pola uji. Dengan adanya pemerataan vektor tersebut maka jarak antara data uji dan data latih tidak lagi bernilai 0 walaupun sebelumnya data tersebut telah dilatih terlebih dahulu.

Kedua, keseluruhan data dibagi 2 untuk keperluan pelatihan dan pengujian dengan perbandingan 2 : 1. Artinya, antara data latih dan data uji masing-masing memiliki data yang berbeda walaupun pola antara kedua set data memiliki kemiripan.

Untuk cara pertama, digunakan data sebanyak 84 dengan komposisi 28 huruf dan masing-masing huruf menggunakan 3 pola yaitu fattah, kasroh, dan dhommah. Untuk cara ini didapatkan akurasi sebesar 96,43% dengan k bernilai 1 dan 2. Nilai akurasi mengalami penurunan menjadi 96,30 % ketika nilai k diganti menjadi 3. Ketika k diganti menjadi 4 akurasi kembali mengalami penurunan menjadi 96,15 % dan

bernilai tetap hingga pengujian pada nilai k=7. Grafik akurasi berdasarkan inputan nilai k dapat dilihat pada gambar berikut :

Gambar 4.1. Akurasi Hasil Pengujian dengan Pembagian Data Cara 1

Sedangkan hasil pengenalan pola dapat dilihat pada grafik berikut :

96.43 96.43 96.3 96.15 96.15 96.15 96.15

90 91 92 93 94 95 96 97 98 99 100

k=1 k=2 k=3 k=4 k=5 k=6 k=7

Gambar 4.2. Pengujian dengan k Bernilai 1 dan 2

Gambar 4.3. Pengujian dengan k Bernilai 3

Gambar 4.4. Pengujian dengan k Bernilai > 4

Cara kedua, keseluruhan data dibagi untuk keperluan pelatihan dan pengujian dengan perbandingan 2 : 1. Total keseluruhan data sama dengan cara pertama dimana data yg digunakan sebanyak 28 huruf dengan masing-masing mempunyai 3 pola yaitu fattah, kasroh, dan dhommah. Untuk model ini didapatkan akurasi sebesar 96,43 % dengan k bernilai 1. Nilai akurasi menurun menjadi 96,30 % ketika nilai k diganti menjadi 2. Ketika k diinputkan bernilai 3 kembali akurasi mengalami penurunan menjadi 96,15 % dan tidak mengalami peningkatan maupun penurunan hingga percobaan k bernilai 7. Akurasi ditampilkan dalam grafik berikut :

Gambar 4.5. Akurasi Hasil Pengujian dengan Pembagian Data Cara Kedua

Adapun hasil pengenalan pola dapat dilihat pada gambar berikut :

96.43 96.3 96.15 96.15 96.15 96.15 96.15

Gambar 4.6. Pengujian dengan k Bernilai 1

Gambar 4.7. Pengujian dengan k Bernilai 2

Gambar 4.8. Pengujian dengan k Bernilai > 3

4.1.2. Hasil penelitian

Berdasarkan hasil pengujian yang telah disajikan, penelitian ini menunjukkan model local mean pada fuzzy k-nearest neighbor dapat mengenali pola citra tajwid Mim

Sukun (

م

) dengan nilai akurasi maksimal 96,43 % pada ketetanggaan terdekat k bernilai 1.

Fuzzy distance dari masing-masing pola uji terhadap pola latih sebagai berikut :

Pola citra uji 1 sampai 7 terhadap pola citra latih 1 sampai 42

Pola citra uji 1 sampai 7 terhadap pola citra latih 43 sampai 84

Pola citra uji 8 sampai 14 terhadap pola citra latih 1 sampai 42

Pola citra uji 8 sampai 14 terhadap pola citra latih 43 sampai 84

Pola citra uji 15 sampai 21 terhadap pola citra latih 1 sampai 42

Pola citra uji 15 sampai 21 terhadap pola citra latih 43 sampai 84

Pola citra uji 22 sampai 28 terhadap pola citra latih 1 sampai 42

Pola citra uji 22 sampai 28 terhadap pola citra latih 43 sampai 84

Local mean vector untuk pembagian data model petama dituliskan dalam tabel berikut :

Tabel 4.1. Local Mean Vector

k Local Mean 1 Local Mean 2 Local Mean 3

k = 1 0,0071 0,0124 0

k = 2 0,0101 0,0303 0

k = 3 0,0124 0,0393 1,2326e-32

k = 4 0,0797 0,0886 3,8420e-05

k = 5 0,2093 0,2110 9,8355e-05

k = 6 0,3330 0,3314 1,5368e-04

k = 7 0,4396 0,4363 3,9447e-05

Degree of membership dari masing-masing data uji terhadap kelas :

k = 1 k = 2

k = 3 k = 4

k = 5 k = 6

k = 7

Selanjutnya, vektor dari local mean terhadap terhadap degree of membership dijabarkan dalam tabel berikut :

Tabel 4.2. Vektor Local Mean terhadap Degree of Membership

k Dist. LM 1 Dist. LM 2 Dist. LM 3

k = 1 41,0424 26,9284 1

k = 2 31,4597 13,7700 1

k = 3 0 0 8,5484

k = 4 0,0067 0,0062 2,0492

k = 5 0,0032 0,0032 1,0125

k = 6 2,2812 2,2895 724,5002

k = 7 0,0019 0,0019 2,0090

Sedangkan untuk pembagian data model kedua, local mean vector nya dijabarkan dalam tabel berikut :

Tabel 4.3. Local Mean Vector

k Local Mean 1 Local Mean 2 Local Mean 3

k = 1 0,0071 0,0124 0

k = 2 0,0117 0,0303 0

k = 3 0,1435 0,1420 6,8302e-05

k = 4 0,3332 0,3269 1,5368e-04

k = 5 0,4867 0,4791 1,5805e-05

k = 6 0,6055 0,5978 9,6413e-06

k = 7 0,6985 0,6910 6,0745e-05

Degree of membership dari masing-masing data uji terhadap kelas :

k = 1 k = 2

k = 3 k = 4

k = 5 k = 6

k = 7

Selanjutnya, vektor dari local mean terhadap terhadap degree of membership dijabarkan dalam tabel berikut :

Tabel 4.4. Vektor Local Mean terhadap Degree of Membership

k Dist. LM 1 Dist. LM 2 Dist. LM 3

k = 1 41,0424 26,9284 1

k = 2 28,1154 13,7700 1

k = 3 0,0043 0,0043 1,3310

k = 4 2,2801 2,3133 724,5002

k = 5 0,0017 0,0017 3,9894

k = 6 0,0015 0,0015 5,7796

k = 7 0,0013 0,0013 1,4533

4.2. Perbandingan LMFKNN dengan FKNN

Adapun perbandingan akurasi antara model algoritma fuzzy k-nearest neighbor dengan local mean terhadap fuzzy k-nearest neighbor primitif menggunakan pembagian data cara pertama adalah sebagai berikut :

Tabel 4.5. Perbandingan Akurasi Model LMFKNN dan FKNN Cara 1

K LMFKNN FKNN

Tabel 4.6. Perbandingan Akurasi Model LMFKNN dan FKNN Cara 2

K LMFKNN FKNN

4.3. Analisis Hasil Penelitian dan Pengujian

Model vote majority menentukan kelas target (dalam hal ini pola target) dari sebuah data uji berdasarkan banyaknya suatu kelas yang terpilih dalam k ketetanggaan terdekat. Dalam hal ini, dapat dicontohkan jika diambil k = 5 dan dalam 5 ketetanggaan terdekat terhadap data uji tersebut terdapat suatu kelas target dengan jumlah yang paling banyak maka data uji tersebut akan digolongkan ke dalam kelas

misalnya terdapat 2 data kelas A, 2 data kelas B dan 1 data kelas C, maka pendekatan vote majority akan mengambil kelas dengan jumlah terbanyak yang paling awal muncul. Pendekatan seperti ini kurang adil mengingat suatu data uji tentu memiliki bobot yang berbeda-beda terhadap masing-masing kelas target.

Pada fuzzy k-nearest neighbor primitif, penentuan kelas target dilakukan dengan menghitung nilai derajat keanggotaan (degree of membership) dari sebuah pola uji terhadap masing-masing kelas target. Kelas target dengan nilai degree of membership yang paling besar untuk sebuah pola uji akan dipilih sebagai kelas target untuk pola uji tersebut ditempatkan. Pendekatan ini masih mewarisi sifat vote majority karena dalam penentuan kelasnya masih ditetukan oleh jumlah kelas dominan dari ketetanggaan terdekat walaupun terdapat degree of membership yang menghitung bobot data uji terhadap tiap kelas target.

Pada local mean, penentuan kelas target dilakukan dengan menghitung jarak antara pola uji dengan nilai rata-rata euclidian distance antara pola uji dan pola latih pada masing-masing kelas target dengan pengambilan data sebanyak k ketetanggaan terdekat. Pola uji akan ditempatkan pada kelas target yang memiliki nilai vektor local mean paling tinggi.

Model fuzzy k-nearest neighbor dengan local mean menggabungkan kedua teknik penentuan kelas tersebut. Setelah dihitung degree of membership dan vektor local mean dari pola uji terhadap pola latih, maka langkah selanjutnya adalah membagi nilai vektor local mean dengan degree of membership. Pembagian ini dilakukan untuk memperkecil distance vektor antara pola uji dengan masing-masing pola latih maupun dengan kelas target sehingga akan jelas terlihat ke dalam kelas mana suatu pola akan dikenali.

Pada penelitian ini tidak didapati perbedaan yang signifikan antara hasil pengenalan pola menggunakan fuzzy nearest neighbor primitif dengan fuzzy k-nearest neighbor dengan local mean dikarenakan data pola citra sampel tidak tersebar merata melainkan tertumpuk pada salah satu pola sehingga kedekatan cirinya sudah terpola dari awal. Namun, pada pengambilan ketetanggaan dengan nilai tinggi dimana jangkauan pengambilan data dari suatu kelas target bisa mengenai data yang dekat pada kelas target lainnya justru fuzzy k-nearest neighbor dengan local mean mendapatkan akurasi yang lebih tinggi daripada fuzzy k-nearest neighbor primitif. Hal

ini dikarenakan pendekatan local mean yang menghitung nilai rata-rata dari ekstraksi tiap pola citra dalam suatu kelas target.

Pada tabel 4.6 terlihat fuzzy k-nearest neighbor dengan local mean tetap stagnan di akurasi 96,15% baik pada pembagian data cara petama ataupun cara kedua. Local mean berhasil mengenali pola citra dengan tidak memasukkan pola citra lain yang berbeda kelas ke dalam suatu kelas walaupun k ketetanggaan sudah mencapai nilai 7.

Berbeda dengan pendekatan vote majority dan degree of membership yang terlihat menurun dengan signifikan setelah k diinputkan bernilai 6 pada cara pertama dan 7 pada cara kedua. Kedua pendekatan ini tetap memasukkan data uji sesuai k ketetanggaan terdekat ke dalam kelasnya kendati data uji tersebut sudah berada pada kelas target lain. Hal inilah yang menjadi kelebihan local mean dalam menentukan kelas target dari suatu data uji. Local mean tidak memasukkan suatu data uji yang cenderung terhadap suatu kelas target ke dalam suatu kelas target lainnya walaupun k ketetanggan ditentukan bernilai besar dan mengambil data dari kelas lainnya.

BAB 5 PENUTUP

5.1. Kesimpulan

5.1.1. Kesimpulan hasil penelitian

Berdasarkan hasil penelitian yang telah dibahas pada Bab 4, maka dapat disimpulkan bahwa model fuzzy k-nearest neighbor dengan local mean berhasil mengenali dan mengklasifikasi pola tajwid Al-Quran dengan persentase tertinggi 96,43 % dengan nilai k = 1.

5.1.2. Kesimpulan hasil pengujian

Unjuk kerja model algoritma local mean based fuzzy k-nearest neighbor dengan data uji yang termasuk di dalam data latih berhasil mengenali pola citra tajwid Al-Quran dengan persentase akurasi terendah sebesar 96,15% dengan penentuan nilai k sebesar

> 4 dan tertinggi 96,43% dengan pemberian nilai k = 1. Sedangkan pengujian dengan pembagian pada cara kedua dimana total data dibagi untuk keperluan latih dan uji dengan perbandingan 2 : 1 didapat akurasi terendah sebesar 96,15% dengan nilai k > 3 dan akurasi maksimal 96,43% dengan nilai k sebesar 1.

5.2. Saran

Disarankan menggunakan fuzzy k-nearest neighbor dengan local mean jika ingin menguji data dengan pengambilan k ketetanggaan bernilai besar (dalam penelitian ini nilai k > 6) dan bersinggungan dengan data di kelas lain.

Adapun kelemahan dari penelitian ini adalah penyebaran data yang tidak merata.

Salah satu hukum tajwid Mim Sukun yaitu Izhar Syafawi memiliki jumlah huruf yang lebih banyak dari hukum lainnya. Oleh karena itu, maka pada penelitian selanjutnya disarankan untuk melakukan pengujian pada data citra lainnya yang lebih kompleks maupun bentuk data lain seperti data suara dan data teks ataupun numerik guna mengetahui kekuatan dari model algoritma ini.

DAFTAR PUSTAKA

Ahsiah, I., Noor, N.M. & Idris. M.Y.I. 2013. Tajweed Checking System to Support Recitation. ICACSIS 2013, pp. 189-193.

Alfaries, Auhood., Albahlal, Manal., Almazrua, Manal. & Almazrua, Amal. 2013. A Rule Based Annotation System to Extract Tajweed Rules from Quran. Taibah University International Conference on Advances in Information Technology for the Holy Quran and Its Sciences, pp. 281-286.

Babu, U R., Venkateswarlu, Y. & Chintha, A. K. 2014. Handwritten Digit Recognition Using K-Nearest Neighbour Classifier. World Congress on Computing and Communication Technologies, pp. 60-65.

Basuki, Ahmad, dkk. 2005. Pengolahan Citra Digital Menggunakan Visual Basic.

Graha Ilmu : Yogyakarta.

Baubaker, H., Chaabouni, A. Halima, M.B., Elbaati, A. & Abed, H.E. 2014. Arabic Diacritics Detection and Fuzzy Representation for Segmented Handwriting Graphemes Modeling. International Conference of Soft Computing and Pattern Recognition, pp. 71-76.

Beyan, C & Ogul, H. 2014. A Fuzzy K-NN Approach for Cancer Diagnosis with Microarray Gene Expression Data.

Bhatia, N. & Vandana., 2010. Survey of Nearest Neighbor Techniques. International Journal of Computer Science and Information Security (IJCSIS) : 302-305.

Fadlisyah. 2007. Computer Vision dan Pengolahan Citra. Andi : Yogyakarta.

Fredj, I.B. & Ouni, Kais. 2016. Fuzzy K-Nearest Neighbor Applied to Phoneme Recognition. 7𝑡ℎ International Conference of Science of Electronics, Technologies of Information and Telecommunications (SETIT), pp. 422-426.

García-Pedrajas, N. & Ortiz-Boyer, D. 2009. Boosting K-Nearest Neighbor Classifier By Means Of Input Space Projection. Expert System With Application : 10570-10582.

Gou, J., Yi, Z., Du, L. & Xiong, T. 2012. A Local Mean-Based k-Nearest Centroid Neighbor Classifier. The Computer Journal 55 (9) : 1058-1071.

Han, J., Kamber, M. & Pei, J. 2012. Data Mining : Concepts and Techniques. Third Edition. Morgan Kaufmann : USA.

Hassan, H.A., Nasrudin, N.H., Khalid, M.N.M., Zabidi, A. & Yassin, A.I. 2012.

Pattern Classification in Recognizing Qalqalah Kubra Pronuncation using Multilayer Perceptrons. International Symposium on Computer Applications and Industrial Electronics, pp. 209-212.

Jabbar, M.A., Deekshatulu, B.L. & Chandra. P. 2013. Classification of Heart Disease Using K- Nearest Neighbor and Genetic Algorithm. International Conference on Computational Intelligence: Modeling Techniques and Applications (CIMTA) : 85-94.

Kataria, A. & Singh, M.D. 2013. A Review Data Classification Using K-Nearest Neighbour Algorithm. International Journal of Emerging Technology and Advanced Engineering : 354-360.

Keller, J.M., Gray, M.R. & Givens, J.A. A Fuzzy K-Nearest Neighbor Algorithm.

IEEE Transactions on Systems, Man, and Cybernetics SMC-15 (4) : 580-585.

Kumar, V. & Basha, A.S.A. 2014. Facial Expression Recognition Using Wavelet and K-Nearest Neighbour. 2ⁿͩ International Conference on Current Trends in Engineering and Technology, pp. 48-52.

Mahmoud, H.A., Hadad, H.M.E., Mousa, F.A. & Hassanien, A.E. 2015. Cattle Classifications System using Fuzzy K-Nearest Neighbor Classifier.

Mathworks Team. 2017. Machine Learning handbook. (section 4), (internet), www.mathworks.com , diakses pada 13 April 2017 pukul 14:21 WIB.

McCulloch, J., Wagner, C. & Aickelin, U. 2013. Measuring the Directional Distance Between Fuzzy Set.

Ougiaroglou, S. & Evangelidis, G. 2012. Fast and Accuratek-Nearest Neighbor Classification using Prototype Selection by Clustering. Panhellenic Conference on Informatics.

Pamungkas, Adi. 2017. K-Nearest Neighbor, (internet), www.pemrogramanmatlab.com , diakses pada 3 Agustus 2017 pukul 21:10 WIB.

Pan, Z., Wang, Y. & Ku, W. 2016. A New K-Harmonic Nearest Neighbor Classifier based on the Multi Local Means.

Pan, Z., Wang, Y. & Ku, W. 2017. A New General Nearest Neighbor Classification Based On The Mutual Neighborhood Information. Knowledge-Based Systems : 142-152.

Putra, Darma. 2010. Pengolahan Citra Digital. ANDI : Yogyakarta.

Raikwal, J.S. & Saxena, K. 2012. Performance Evaluation of SVM and K-Nearest Neighbor Algorithm over Medical Dataset. International Journal of Computer Applications 50 (14) : 35-39.

Rosyid, H., Prasetyo, E. & Agustin, S. 2013. Perbaikan Akurasi Fuzzy K-Nearest Neighbor In Every Class menggunakan Fungsi Kernel. Seminar Nasional Teknologi Informasi dan Multimedia 2013, pp. 13-18.

Sánchez, A.S., Iglesias-Rodríguez, F.J., Fernándes, P.R. & Juez, F.J.de.C. 2015.

Applying The K-Nearest Neighbor Technique To The Classification Of Workers According To Their Risk Of Suffering Musculoskeletal Disorders. International Journal of Indsutrial Ergonomics : 1-8.

Song, Y., Liang, J., Lu, J. & Zhao, X. 2017. An Efficient Instance Selection Algorithm For K Nearest Neighbor Regression. Neurocomputing : 26-34, Volume : 251.

Tu, L., Wei, H. & Ai, L. 2015. Galaxy and Quasar Classificication Based on Local Mean –based K-Nearest Neighbor Method. IEEE, 978-1-4799-7284-5/15.

Wang. J., Neskovic . P. & Cooper L.N., 2007. Improving Nearest Neighbor Rule With A Simple Adaptive Distance Measure. Pattern Recognition Letter : 207-213, vol 28.

Wu, X. & Kumar, V. 2009. The Top Ten Algorithms in Data Mining. CRC Press : Boca Raton, USA.

Zarlis, M., Sitompul, O.S., Sawaluddin, Efendi, S., Sihombing, P. & Nababan, E.B.

2015. Pedoman Penulisan Tesis. Fasilkom-TI USU : Medan.

Zbancioc, M. & Feraru, S.M. 2012. Emotion Recognition of the SROL Romanian Database using Fuzzy KNN Algorithm. IEEE, 978-1-4673-1176-2/12.

LAMPIRAN

full_name= fullfile(image_folder, filenames(n).name);

our_images = imread(full_name);

our_images = bwconvhull(our_images,'objects');

stats = regionprops

(our_images,'Area','Perimeter','Eccentricity');

area(n) = stats.Area;

perimeter(n) = stats.Perimeter;

metric(n) = 4*pi*area(n)/(perimeter(n)^2);

eccentricity(n) = stats.Eccentricity;

training = [metric;eccentricity]';

end

full_name_uji = fullfile(image_folder_uji, filenames_uji(n).name);

our_images_uji = imread(full_name_uji);

our_images_uji = bwconvhull(our_images_uji,'objects');

stats_uji =

regionprops(our_images_uji,'Area','Perimeter','Eccentricity');

area_uji(n) = stats_uji.Area;

perimeter_uji(n) = stats_uji.Perimeter;

metric_uji(n) = (4*pi*area_uji(n))./(perimeter_uji(n).^2);

eccentricity_uji(n) = stats_uji.Eccentricity;

sample = [metric_uji;eccentricity_uji]';

end

for i=1 : size (training,1) for j=1 : size (sample,1)

if(lmdist(1)<lmdist(2) & lmdist(1)<lmdist(3)) prect(j)=1;

elseif(lmdist(2)<lmdist(1) & lmdist(2)<lmdist(3)) prect(j)=2;

elseif(lmdist(3)<lmdist(1) & lmdist(3)<lmdist(2)) prect(j)=3;

end

lmdist(1)=(lmdist(1)^(1/2))^(-3/1) lmdist(2)=(lmdist(2)^(1/2))^(-3/1) lmdist(3)=(lmdist(3)^(1/2))^(-3/1) U(j,1)=lmdist(1)/sum(lmdist);

U(j,2)=lmdist(2)/sum(lmdist);

U(j,3)=lmdist(3)/sum(lmdist);

end

CF = classperf(prect, group_test); %akurasi akurasi=CF.CorrectRate;

gscatter(metric_uji,eccentricity_uji,prect,'rgb','+',10);

hold on;

legend('Idgham training','Ikhfa training','Izhar training', ...

'Idgham testing','Ikhfa testing','Izhar training','Location','best');

hold off;

No. Hukum Huruf Pola Fathah Pola Kasrah Pola Dhommah 1 Idgham

Mimi

م

2 Ikhfa

Syafawi

ب

3 Izhar

Syafawi

ا

ت ث

ج ح خ

د

ذ

ر

ز س ش ص ض

ط ظ ع غ ف

ق

ك

ل

ن

و

ي

Dokumen terkait