• Tidak ada hasil yang ditemukan

BAB IV IMPLEMENTASI DAN ANALISIS HASIL

4.3. Balancing

Proses balancing data pada tahap ini menggunakan algoritma SMOTE (Synthetic Minority Over-sampling Technique) dari library imblearn.over_sampling yang ada pada python. Sebagaimana terlihat dalam gambar 4.6 data pada penelitian ini memiliki jumlah kelas yang tidak seimbang di kedua kelas, sehingga digunakan agoritma SMOTE untuk menyeimbangkannya.

41

Gambar 4. 6 Grafik kelas sebelum dilakukan balancing

Terlihat pada gambar 4.6 jumlah kelas 0 (RENDAH) lebih kecil dari kelas 1 (TIDAK RENDAH). Melalui proses SMOTE data kelas minorotas akan mengalami penambahan data sehingga jumlahnya setara dengan kelas mayoritas.

Penerapan algoritma SMOTE pada program dapat dilihat pada gambar 4.7, dimana parameter random_state digunakan untuk menjaga jumlah data kelas tidak berubah saat program dijalankan. Sementara hasil luaran SMOTE dapat dilihat pada gambar 4.8.

Gambar 4. 7 Implementasi algoritma SMOTE pada program

42

Gambar 4. 8 Grafik kelas setelah diterapkan SMOTE

4.4. Klasifikasi

Terdapat dua model klasifikasi yang dibangun pada penelitian ini, yaitu Support Vector Machine dan Adaboost. Model klasifikasi Support Vector Machine dibangun dengan menggunakan kernel (polynomial, linear dan RBF) dan C (0.01, 0.1 dan 10) untuk meminimalkan nilai error saat dilakukan klasifikasi.

Sementara pada Adaboost diterapkan n_estimator = 10 untuk menghindari overfitting pada data yang akan diklasifikasikan. Penerapan model klasifikasi Support Vector Machine dan Adaboost dalam program dapat dilihat pada gambar 4.9 dan 4.10.

43

Gambar 4. 9 Implementasi model klasifikasi Support Vector Machine

Gambar 4. 10 Implementasi model klasifikasi Adaboost

44 4.5. Pengujian

Pada sub bab ini akan dilakukan pengujian terhadap data mahasiswa berprestasi rendah Universitas Sanata Dharma Fakultas Sains dan Teknologi.

Pengujian ini dilakukan untuk mengetahui penggunaan variasi terbaik yang dapat mengklasifikasikan data mahasiswa berprestasi rendah secara maksimal. Untuk mengetahui hal tersebut maka akan digunakan variasi pengujian berupa penggunaan kernel dan nilai C untuk optimasi akurasi model SVM, nilai k-fold untuk mencari nilai terbaik dalam mengurangi bias, dan atribut untuk mencari banyak atribut yang mengasilkan akurasi paling maksimal. Berikut merupakan hasil pengujian menggunakan variasi kernel, nilai C, k-fold dan atribut pada model klasifikasi Support Vector Machine dan Adaboost.

1. Penujian menggunakan 11 atribut

Tabel 4. 4 Hasil Pengujian Dengan 11 Atribut Terbaik

NO OPTIMASI SVM

K-FOLD

AKURASI %

SVM

SVM-SMOTE ADABOOST ADABOOST-SMOTE

45 bahwa akurasi terbaik didapatkan pada model klasifikasi Adaboost yaitu sebesar 91% dengan variasi optimasi SVM pada kernel polynomial, C = 0.1, serta nilai K

= 10 dan menggunakan data asli (data sebelum dilakukan balancing menggunakan SMOTE). Sementara pada model klasifikasi SVM akurasi terbaik yang

46

didapatkan yaitu sebesar 90,59% dengan menggunakan variasi kernel polynomial, C = 0.01, nilai K = 3 & 10 dan dengan menggunakan data asli.

2. Pengujian menggunakan 10 atribut

Tabel 4. 5 Hasil Pengujian Dengan 10 Atribut Terbaik

NO OPTIMASI SVM

K-FOLD

AKURASI %

SVM

SVM-SMOTE ADABOOST ADABOOST-SMOTE

47 ('PenalaranVerbal', 'KemampuanNumerik','HubunganRuang', 'BahasaInggris', 'SKS1', 'IPS1', 'SKS2', 'IPS2', 'SKS3', 'IPS3') diketahui bahwa akurasi terbaik didapatkan pada model klasifikasi Adaboost yaitu sebesar 91,38% dengan variasi optimasi SVM pada kernel polynomial, C = 0.01, serta nilai K = 3 dan menggunakan data setelah dilakukan balancing. Sementara pada model klasifikasi SVM akurasi terbaik yang didapatkan yaitu sebesar 90,68% dengan menggunakan variasi kernel polynomial, C = 0.1, nilai K = 10 dan dengan menggunakan data asli.

3. Pengujian menggunakan 9 atribut

Tabel 4. 6 Hasil Pengujian Dengan 9 Atribut Terbaik

NO OPTIMASI SVM

K-FOLD

AKURASI %

SVM

SVM-SMOTE ADABOOST ADABOOST-SMOTE

1 C = 0.01, Kernel = 3 90.38 86.84 90.7 91.15

48

49

24 C = 10, Kernel = RBF 5 90.84 88.07 90.72 87.8

25 C = 0.01, Kernel = RBF 10 67.93 40.45 90.75 87.84 26 C = 0.1, Kernel = RBF 10 89.27 83.35 90.84 88.97

27 C = 10, Kernel = RBF 10 91.12 89.81 90.84 89.97

Pada hasil pengujian Tabel 4.6 dengan 9 atribut ('PenalaranVerbal', 'KemampuanNumerik', 'BahasaInggris', 'SKS1', 'IPS1', 'SKS2', 'IPS2', 'SKS3', 'IPS3') diketahui bahwa akurasi terbaik didapatkan pada model klasifikasi Adaboost yaitu sebesar 93,24% dengan variasi optimasi SVM pada kernel polynomial, C = 0.01, serta nilai K = 5 dan menggunakan data setelah dilakukan balancing. Sementara pada model klasifikasi SVM akurasi terbaik yang didapatkan yaitu sebesar 91,12% dengan menggunakan variasi kernel RBF, C = 10, nilai K = 10 dan dengan menggunakan data asli.

4. Pengujian menggunakan 8 atribut

Tabel 4. 7 Hasil Pengujian Dengan 8 Atribut Terbaik

NO OPTIMASI SVM

K-FOLD

AKURASI %

SVM

SVM-SMOTE ADABOOST ADABOOST-SMOTE

50

Pada hasil pengujian Tabel 4.7 dengan 8 atribut ('PenalaranVerbal', 'KemampuanNumerik', 'BahasaInggris', 'IPS1', 'SKS2', 'IPS2', 'SKS3', 'IPS3') diketahui bahwa akurasi terbaik didapatkan pada model klasifikasi Adaboost yaitu sebesar 92,36% dengan variasi optimasi SVM pada kernel polynomial, C = 0.01, serta nilai K = 3 dan menggunakan data setelah dilakukan balancing. Sementara pada model klasifikasi SVM akurasi terbaik yang didapatkan yaitu sebesar 91,01% dengan menggunakan variasi kernel RBF, C = 10, nilai K = 3 dan dengan menggunakan data asli.

51 5. Pengujian menggunakan 7 atribut

Tabel 4. 8 Hasil Pengujian Dengan 7 Atribut Terbaik

NO OPTIMASI SVM

K-FOLD

AKURASI %

SVM

SVM-SMOTE ADABOOST ADABOOST-SMOTE

52

Pada hasil pengujian Tabel 4.8 dengan 7 atribut ('KemampuanNumerik', 'BahasaInggris', 'IPS1', 'SKS2', 'IPS2', 'SKS3', 'IPS3') diketahui bahwa akurasi terbaik didapatkan pada model klasifikasi SVM yaitu sebesar 91,28% dengan menggunakan kernel polynomial, C = 0.1, serta nilai K = 5 dan menggunakan data setelah dilakukan balancing. Sementara pada model klasifikasi Adaboost akurasi terbaik yang didapatkan yaitu sebesar 91,15% dengan menggunakan variasi optimasi SVM pada kernel polynomial, C = 10, nilai K = 5 dan dengan menggunakan data asli.

6. Pengujian menggunakan 6 atribut

Tabel 4. 9 Hasil Pengujian Dengan 6 Atribut Terbaik

NO OPTIMASI SVM

K-FOLD

AKURASI %

SVM

SVM-SMOTE ADABOOST ADABOOST-SMOTE

53

54

Pada hasil pengujian Tabel 4.9 dengan 6 atribut ('KemampuanNumerik', 'IPS1', 'SKS2', 'IPS2', 'SKS3', 'IPS3') diketahui bahwa akurasi terbaik didapatkan pada model klasifikasi Adaboost yaitu sebesar 90,92% dengan variasi optimasi SVM pada kernel linear, C = 0.01, serta nilai K = 3 dan menggunakan data setelah dilakukan balancing. Sementara pada model klasifikasi SVM akurasi terbaik yang didapatkan yaitu sebesar 90,9% dengan menggunakan variasi kernel RBF, C = 10, nilai K = 10 dan dengan menggunakan data asli.

7. Pengujian menggunakan 5 atribut

Tabel 4. 10 Hasil Pengujian Dengan 5 Atribut Terbaik

NO OPTIMASI SVM

K-FOLD

AKURASI %

SVM

SVM-SMOTE ADABOOST ADABOOST-SMOTE

55 'SKS3', 'IPS3') diketahui bahwa akurasi terbaik didapatkan pada model klasifikasi Adaboost yaitu sebesar 92,22% dengan variasi optimasi SVM pada kernel linear, C = 0.01, serta nilai K = 10 dan menggunakan data setelah dilakukan balancing.

Sementara pada model klasifikasi SVM akurasi terbaik yang didapatkan yaitu sebesar 91,03% dengan menggunakan variasi kernel RBF, C = 10, nilai K = 10 dan dengan menggunakan data asli.

56 8. Pengujian menggunakan 4 atribut

Tabel 4. 11 Hasil Pengujian Dengan 4 Atribut Terbaik

NO OPTIMASI SVM

K-FOLD

AKURASI %

SVM

SVM-SMOTE ADABOOST ADABOOST-SMOTE

57 'IPS3') diketahui bahwa akurasi terbaik didapatkan pada model klasifikasi Adaboost yaitu sebesar 92,53% dengan variasi optimasi SVM pada kernel linear, C = 0.01, serta nilai K = 5 dan menggunakan data setelah dilakukan balancing.

Sementara pada model klasifikasi SVM akurasi terbaik yang didapatkan yaitu sebesar 90,31% dengan menggunakan variasi kernel polynomial, C = 10, nilai K = 10 dan dengan menggunakan data asli.

9. Pengujian menggunakan 3 atribut

Tabel 4. 12 Hasil Pengujian Dengan 3 Atribut Terbaik

NO OPTIMASI SVM

K-FOLD

AKURASI %

SVM

SVM-SMOTE ADABOOST ADABOOST-SMOTE

58 diketahui bahwa akurasi terbaik didapatkan pada model klasifikasi Adaboost yaitu sebesar 91,97% dengan variasi optimasi SVM pada kernel polynomial, C = 0.01,

59

serta nilai K = 10 dan menggunakan data setelah dilakukan balancing. Sementara pada model klasifikasi SVM akurasi terbaik yang didapatkan yaitu sebesar 90,28% dengan menggunakan variasi kernel linear, C = 10, nilai K = 3 dan dengan menggunakan data asli.

10. Pengujian menggunakan 2 atribut

Tabel 4. 13 Hasil Pengujian Dengan 2 Atribut Terbaik

NO OPTIMASI SVM

K-FOLD

AKURASI %

SVM

SVM-SMOTE ADABOOST ADABOOST-SMOTE

60 bahwa akurasi terbaik didapatkan pada model klasifikasi Adaboost yaitu sebesar 92,1% dengan variasi optimasi SVM pada kernel polynomial, C = 0.01, serta nilai K = 10 dan menggunakan data setelah dilakukan balancing. Sementara pada model klasifikasi SVM akurasi terbaik yang didapatkan yaitu sebesar 90,65%

dengan menggunakan variasi kernel RBF, C = 0.1, nilai K = 10 dan dengan menggunakan data asli.

11. Pengujian menggunakan 1 atribut

Tabel 4. 14 Hasil Pengujian Dengan 1 Atribut Terbaik

NO OPTIMASI SVM

K-FOLD

AKURASI %

SVM

SVM-SMOTE ADABOOST ADABOOST-SMOTE

1 C = 0.01, Kernel = 3 87.46 83.67 85.89 85.63

61

62 akurasi terbaik didapatkan pada model klasifikasi SVM yaitu sebesar 87,98%

dengan menggunakan kernel plinear, C = 10, serta nilai K = 3 dan menggunakan data asli (data sebelum dilakukan balancing). Sementara pada model klasifikasi Adaboost akurasi terbaik yang didapatkan yaitu sebesar 87,87% dengan menggunakan variasi optimasi SVM pada kernel RBF, C = 0.1, nilai K = 3 dan dengan menggunakan data asli (data sebelum dilakukan balancing).

4.6. Analisis Hasil

Melalui hasil pengujian yang telah dilakukan, dapat diketahui bahwa penggunaan nilai C pada optimasi klasifikasi Support Vector Machine sangatlah berpengaruh. Pada hasil pengujian dapat dilihat bahwa rata-rata akurasi yang dihasilkan adalah baik dan dapat digunakan sebagai dasar klasifikasi, hal ini membuktikan bahwa nilai C pada optimasi SVM mampu meminimalisir error pada klasifikasi data mahasiswa berperstasi rendah. Namun perlu dilakukan penelitian lebih lanjut mengenai penggunan nilai C terbaik pada klasifikasi data mahasiswa berprestasi rendah. Selain itu, dapat diketahui juga bahwa kernel polynomial merupakan kernel yang memiliki rata-rata akurasi tertinggi dalam pengklasifikasian data mahasiswa berprestasi rendah. Hal ini dapat dilihat melalui hasil akurasi tertinggi yang didominasi oleh penggunaan kernel polynomial.

Pada pengujian juga dapat diketahui bahwa model klasifikasi Support Vector Machine menghasilkan akurasi yang lebih baik jika menggunakan data asli (data sebelum dilakukan balancing), dengan kata lain algoritma SMOTE yang diaplikasikan pada model klasifikasi SVM tidak bekerja secara efektif. Hal ini dikarenakan saat menggunakan teknik oversampling seperti SMOTE pada data

63

imbalance dapat meningkatkan kemungkinan menghasilkan overfitting pada model (Kumar, 2021) . Sehingga masalah ini perlu dilakukan penelitian lebih lanjut. Berikut merupakan Tabel perbandingan akurasi terbaik pada model klasifikasi Support Vector Machine dan Adaboost serta variasi yang digunakan.

Tabel 4. 15 Perbandingan Akurasi Terbaik SVM dan Adaboost

NO Atribut Support 'BahasaInggris', 'SKS1', 'IPS1', 'SKS2', 'IPS2', 'SKS3', 'IPS3' 'BahasaInggris', 'SKS1', 'IPS1', 'SKS2', 'IPS2', 'SKS3', 'IPS3'

3 PenalaranVerbal', 'KemampuanNumerik', 'BahasaInggris', 'SKS1', 'IPS1', 'SKS2', 'IPS2', 'SKS3', 'IPS3' 'IPS1', 'SKS2', 'IPS2', 'SKS3', 'IPS3'

91.01% (C =

64

balancing)

5 'KemampuanNumerik', 'BahasaInggris', 'IPS1', 'SKS2', 'IPS2', 'SKS3', 'IPS3'

91.28% (C =

6 'KemampuanNumerik', 'IPS1', 'SKS2', 'IPS2', 'SKS3', 'IPS3'

65

Tabel 4.15 merupakan Tabel percobaan yang menunjukan hasil akurasi terbaik dari model klasifikasi Support Vector Machine dan Adaboost. Dimana hasil akurasi tertinggi sebesar 93,24% dan yang terendah sebesar 87,87%. Tingkat akurasi tertinggi yaitu 93,24% diperoleh melalui penggunaan model klasifikasi Adaboost dengan menggunakan 9 atribut serta variasi optimasi SVM pada kernel polynomial, nilai C = 0.01, nilai K = 5 dan menggunakan data hasil balancing.

Sementara model klasifikasi Support Vector Machine hanya mendapatkan akurasi sebesar 89,29% dengan menggunakan atribut dan variasi yang sama.

Berdasarkan hasil pengujian, dapat diketahui bahwa semakin banyak atribut yang digunakan dalam pengujian maka hasil akurasi akan semakin baik. Hal ini dapat dilihat pada gambar grafik 4.11 dimana pada penggunaan 1 atribut hanya menghasilkan akurasi sebesar 87.98% dan 87.87%.

66

Gambar 4. 11 Grafik akurasi terbaik (sumbu x: banyak atribut, sumbu y: akurasi)

4.7. Antarmuka Pengguna

Gambar 4.12 berikut merupakan antarmuka yang digunakan dalam penelitian ini. Di dalam antarmuka tersebut terdapat beberapa bagian yang dapat digunakan oleh user.

67

Gambar 4. 12 Tampilan antarmuka pengguna

Berikut merupakan langkah-langkah dari penggunaan antarmuka : 1. Memasukan data

Mencari data pada direktori komputer (format excel) dengan cara menekan tobol telusuri. Setelah data dipilih maka data akan dibaca oleh program dan ditampilkan pada Tabel.

2. Pemilihan atribut

Memilih atribut yang akan digunakan oleh user. Pada list atribut telah dilakukan perankingan dari bobot yang terkecil hingga terbesar. Setelah atribut dipilih, user dapat menekan tombol seleksi untuk menampilkan data atribut yang telah dipilih pada Tabel.

3. Pelatihan model

68

User memilih nilai optimisasi model klasifikasi yang berupa kernel, C dan k-fold yang akan digunakan. Lalu menekan tombol train untuk mendapatkan akurasi data training.

4. Uji data tunggal

User memasukan nilai sesuai dengan field atribut yang telah dipilih sebelumnya, lalu menekan tombol klasifikasi untuk mendapatkan luaran dari input yang dimasukan.

69 BAB V PENUTUP

5.1. Kesimpulan

Berdasarkan dari penelitian yang telah dilakukan, maka didapatkan kesimpulan sebagai berikut :

1. Metode Support Vector Machine dan metode Adaboost dapat dipergunakan untuk memprediksi mahasiswa berprestasi rendah Universitas Sanata Dharma Fakultas Sains dan Teknologi.

2. Pada penelitian prediksi mahasiswa berprestasi rendah ini didapatkan akurasi terbaik pada penggunaan model klasifikasi Adaboost sebesar 93,24% dengan menggunakan optimasi SVM pada kernel polynomial, nilai C = 0,01, nilai k-fold = 5, data hasil balancing, dan meggunakan 9 atribut terbaik (PenalaranVerbal, KemampuanNumerik, BahasaInggris, SKS1, IPS1, SKS2, IPS2, SKS3, IPS3). Sementara dengan menggunakan variasi pengujian yang sama, model klasifikasi SVM hanya mendapatkan akurasi sebesar 89,29%.

3. Dalam penelitian prediksi mahasiswa berprestasi rendah Universitas Sanata Dharma Fakultas Sains dan Teknologi, penggunaan algoritma SMOTE pada model klasifikasi Support Vector Machine tidak meningkatkan akurasi pada klasifikasi terhadap data imbalance.

4. Nilai C pada optimasi model klasifikasi SVM berdampak pada akurasi, namun perlu penelitian lebih lanjut mengenai nilai C yang terbaik untuk kasus prediksi mahasiswa berprestasi rendah Fakultas Sains dan Teknologi Universitas Sanata Dharma Fakultas Sains dan Teknologi.

Selain itu, pada penelitian ini dapat diketahui bahwa kernel polynomial menghasilkan rata-rata akurasi tertinggi pada klasifikasi data mahasiswa berprestasi rendah Universitas Sanata Dharma Fakultas Sains dan Teknologi.

70 5.2. Saran

Saran yang diberikan dari penelitian ini adalah :

1. Menggunakan nilai optimasi SVM lain seperti epsilon dan gamma (𝛾) untuk memaksimalkan kerja klasifikasi SVM.

2. Menggunakan algoritma balancing selain SMOTE atau menggunakan teknik kombinasi oversampling dan undersampling untuk meningkatkan akurasi pada model klasifikasi.

3. Menggunakan algoritma boosting lain.

4. Menggunakan nilai k-fold yang berbeda.

5. Menggunakan nilai C yang berbeda

6. Menggunakan model klasifikasi lain untuk pembanding akurasi.

66

DAFTAR PUSTAKA

Arwan , et. al. (2018). Synthetic Minority Over-samplingTechnique (SMOTE)

Algorithm for Handling Imbalanced Data.

https://mti.binus.ac.id/2018/06/08/synthetic-minority-over-sampling-technique-smote-algorithm-for-handling-imbalanced-data/.

Asogbon, et. al. (2016). A Multi-class Support Vector Machine Approach For

Students Academic Performance Prediction.

https://www.researchgate.net/publication/299279712_A_Multi-class_Support_Vector_Machine_Approach_for_Students_Academic_Perfor mance_Prediction.

Badan Akreditasi Nasional Perguruan Tinggi. (2011). Buku II Standar dan Prosedur Perguruan Tinggi.

Bisri, Achmad. (2015). Penerapan Adaboost untuk Penyelesaian Ketidakseimbangan Kelas pada Penentuan Kelulusan Mahasiswa dengan Metode Decision Tree.

Efraim, Turban, Rainer, Kelly R and Potter, Richard. (2005). “Introduction to Information Thecnology”. 3rd Edition. USA : John Willey & Sons, Inc.

Enri, Ultach. (2018). Optimasi Parameter Support Vector Machines Untukprediksi Nilai Tukar Rupiah Terhadap Dollar Amerikaserikat.

67

Indrawati, et. al. (2016). Analisis Faktor Penentu Prestasi Belajar Mahasiswa Fakultas Ekonomi Dan Bisnis Universitas Udyana.

https://media.neliti.com/media/publications/100427-ID-analisis-faktor-penentu-prestasi-belajar.pdf.

Kamber, M., & Han, J. (2006). Data mining Concept and Techniques.San Fransisco: Morgan Kauffman.

Koco, Hariyo. (2012). Implementasi Algoritma Reduct Based Decision Tree Untuk Mengenali Pola Klasifikasi Mahasiswa yang Terkena Sisip Program.

Diakses dari: https://repository.usd.ac.id.

Kurniawan, D. (2013). Optimasi Algoritma Support Vector Machine (SVM) Menggunakan Adaboost Untuk Penilaian Resiko Kredit.

Kumar. (2021). Stop using SMOTE to handle all your Imbalanced Data.

https://towardsdatascience.com/stop-using-smote-to-handle-all-your-imbalanced-data-34403399d3be.

Larose, Daniel T. (2005). Discovering Knowledge in Data: An Introduction to Data mining.John Willey & Sons. Inc.

Listiana & Muslim. (2017). Penerapan Adaboost Untuk Klasifikasi Support Vector Machine Guna Meningkatkan Akurasi Pada Diagnosa Chronic Kidney Disease. https://docplayer.info/54258949-Penerapan-adaboost- untuk-klasifikasi-support-vector-machine-guna-meningkatkan-akurasi-pada-diagnosa-chronic-kidney-disease.html.

Meiryani. (2019). Memahami apa itu data mining?. Diakses dari https://accounting.binus.ac.id/2019/10/03/memahami-apa-itu-data-mining/.

Mulyati & Setiani. (2018). Indentifying Students` Academic And Personality

Types With Naive Bayes Classification.

https://media.neliti.com/media/publications/268944-identifying-students-academic-achievemen-a6c7c526.pdf.

68

Mulyati, Sri., Yulianti., Saifudin, Aries. (2017). Penerapan Resampling dan Adaboost untuk Penangganan Ketidakseimbangan Kelas Berbasis Naive Bayes Pada Prediksi Churn Pelanggan.

Nasrullah, Asmaul Husnah. (2018). Penerapan Metode C4.5 Untuk Klasifikasi

Mahasiswa Berpotensi Drop Out. Diakses dari:

http://download.garuda.ristekdikti.go.id.

Nugroho, Witarto, & Handoko. (2003). Support Vector Machine Teori dan Aplikasinya. http://asnugroho.net/papers/ikcsvm.pdf.

Nurhayati, Siti., Kusrini, & Luthfi, Emha Taufiq. (2015). Prediksi Mahasiswa Drop Out Menggunakan Metode Support Vector Machine. Diakses dari:

https://www.neliti.com/id/.

Prapat et. al. (2018). Penerapan Metode Support Vector Machine (SVM) Pada Klasifikasi Penyimpangan Tumbuh Kembang Anak.

Prasetyo, E., (2014). Data mining Konsep dan Apliksi Menggunakan MATLAB, Andi, Yogyakarta.

Ratnasih, Ni Luh. (2019). Penerapan Algoritma K-Nearest Neighbour (K-NN) Untuk penentuan Mahasiswa Drop Out. Diakses dari:

https://jurnal.undhirabali.ac.id.

Riadi, Muchilisin. (2017). Pengertian, Fungsi, Proses dan Tahapan Data mining.

Diakses dari https://www.kajianpustaka.com/2017/09/data-mining.html.

Setiawan, Wahyudi. (2012). Sistem Deteksi Retinopati Diabetik Menggunakan Support Vector Machine (Tesis). Diakses dari: core.ac.uk.

Siringoringo, R. (2018). Klasifikasi Data Tidak Seimbang Menggunakan

Algoritma SMOTE dan K-Nearest Neighbor.

https://ejournal.medan.uph.edu/index.php/isd/article/viewFile/177/63.

69

Suyanto. (2019). Data Mining untuk Klasifikasi dan Klaterisasi Data. Bandung:

Penerbit INFORMATIKA.

Tempola, et. al. (2018). Perbandingan Klasifikasi Antara KNN Dan Naive Bayes Pada Penentuan Status Gunung Berapi Dengan K-Fold Cross Validation.

https://jtiik.ub.ac.id/index.php/jtiik/article/view/983/pdf.

Wibowo, Antoni. (2017). 10 Fold-Cross Validation.

https://mti.binus.ac.id/2017/11/24/10-fold-cross-validation/.

Windrawati, Anastasia Novia. (2020). Klasifikasi Varietas Kopi Arabika Menggunakan Metode Support Vector Machine (SVM) (Skripsi). Diakses dari : repository.usd.ac.id.

Zhou, Z.-H., & Yu, Y. (2009). The Top Ten Algorithms in Data mining. (X. Wu,

& V. Kumar, Eds.) Florida: Chapman & Hall/CRC.

Dokumen terkait