• Tidak ada hasil yang ditemukan

BENCHMARKING ALGORITMA PEMILIHAN ATRIBUT PADA KLASIFIKASI DATA MINING

N/A
N/A
Protected

Academic year: 2021

Membagikan "BENCHMARKING ALGORITMA PEMILIHAN ATRIBUT PADA KLASIFIKASI DATA MINING"

Copied!
8
0
0

Teks penuh

(1)

Teknik Informatika / Universitas Surabaya

Halaman C-47

BENCHMARKING ALGORITMA PEMILIHAN ATRIBUT PADA

KLASIFIKASI DATA MINING

Intan Yuniar Purbasari1, Budi Nugroho2

1,2

Jurusan Teknik Informatika, Fakultas Teknologi Industri, UPN “Veteran” Jatim Jl. Rungkut Madya, Surabaya

email : [email protected], [email protected], [email protected]

Abstract: In data mining, the process of information retrieval success is influenced by several factors. One key

factor is the quality of the data. If the data has too much noise, or a lot of data is redundant and irrelevant, the training process of information discovery will be troublesome. Attribute selection technique is one technique for selecting data attributes to identify and eliminate irrelevant and redundant information. This study compared the performance of six attribute selection algorithms available in Weka to classify 25 datasets, using two classification algorithms: Naïve Bayes and C4.5. From the test results, it obtained Wrapper technique which has the best performance on both types of classification algorithms, which provides improved correct datasets classification on 13 and 8, respectively.

Keywords: benchmarking, attribute selection algorithms, data mining, classification

1. PENDAHULUAN

Di dalam data mining, kesuksesan proses penemuan informasi dipengaruhi oleh beberapa faktor. Salah satu faktor kuncinya adalah kualitas data. Jika data memiliki terlalu banyak noise, atau banyak data yang redundant dan tidak relevan, proses pelatihan penemuan informasi akan mengalami kesulitan.

Teknik pemilihan atribut adalah salah satu teknik untuk menseleksi atribut data dengan mengidentifikasi dan menghilangkan informasi yang tidak relevan dan redundan. Dengan mengurangi dimensi data, ruang hipotesis akan mengecil dan algoritma learning akan berjalan lebih cepat. Dengan demikian, pemilihan teknik seleksi atribut yang tepat akan mempercepat proses pembelajaran pada klasifikasi data pada data mining. Banyak algoritma pemilihan atribut yang menggunakan pendekatan permasalahan searching dimana setiap subset dari solusi permasalahan merupakan kelompok atribut yang terpilih [1]. Ukuran ruang hipotesis yang eksponensial menjadikan diperlukannya pencarian heuristik untuk seluruh dataset. Dalam prosesnya, setelah sejumlah atribut terpilih menjadi kandidat, diperlukan evaluator tingkat utilitas atribut untuk menilai kelayakan terpilihnya kandidat atribut tersebut. Ini menyebabkan terbentuknya permutasi yang sangat besar sehingga proses penilaian atribut ini akan memakan waktu yang cukup lama. Hal inilah yang menyebabkan tidak banyaknya studi yang dilakukan tentang benchmarking algoritma pemilihan atribut pada dataset nontrivial.

Beberapa studi yang telah dilakukan antara lain di [1], [2], dan [3]. Di [2], dataset yang digunakan adalah dataset artifisial yang berukuran kecil dan beberapa algoritma pemilihan atribut dinilai kekurangan dan kelebihannya terhadap noise, perbedaan tipe atribut, dataset multiclass, dan kompleksitas waktu komputasi. Pada [3], percobaan dilakukan pada 25 dataset UCI1 yang sering digunakan pada proses klasifikasi dan mengujicobanya dengan menggunakan algoritma klasifikasi Naïve-Bayes dan C45.

Penelitian ini membandingkan kinerja enam algoritma seleksi atribut dalam meningkatkan kesuksesan hasil klasifikasi dengan menggunakan algoritma klasifikasi Naïve-Bayes dan C4.5. Penelitian ini banyak mengacu pada tahapan-tahapan yang dilakukan di [3], dalam hal dataset yang digunakan, algoritma pemilihan atribut, dan algoritma klasifikasi yang digunakan dengan penambahan 10 dataset baru untuk memberikan referensi yang lebih lengkap tentang performa setiap algoritma pemilihan atribut yang ada terhadap dataset yang lebih banyak.

2. MODEL, ANALISIS, DESAIN, DAN IMPLEMENTASI

Penelitian ini menggunakan software tool untuk data mining Weka2 versi 3.6.6, yang merupakan software gratis yang memiliki fitur lengkap untuk machine learning dan data mining.

Berikut dibahas secara singkat tentang dataset yang digunakan serta masing-masing algoritma pemilihan atribut yang digunakan dalam penelitian ini.

(2)

Teknik Informatika / Universitas Surabaya

Halaman C-48

2.1. Dataset

Penelitian sebelumnya menggunakan dataset UCI1, namun dataset tersedia dalam beberapa versi dan dalam format C4.5 (dengan ekstensi .data dan .names). Karena Weka paling baik bekerja pada dataset berekstensi .arff, beberapa dataset mengalami kesulitan ketika di-load ke dalam Weka, walaupun telah menggunakan converter yang disediakan. Oleh karena itu, dataset yang sama dengan ekstensi .arff telah diperoleh dari [4] sebanyak 25 dataset seperti pada tabel 1.

2.2. Tahap pra-pemrosesan

Tiga dari enam teknik pemilihan atribut pada tabel 1 hanya beroperasi pada atribut yang bertipe diskrit. Oleh karena itu, agar teknik tersebut dapat dioperasikan pada atribut bertipe numerik, perlu dilakukan tahap diskretisasi sebagai tahap pra-pemrosesan. Penelitian ini menggunakan teknik supervised discretization yang digagas oleh Fayyad dan Irani [5] yang telah tersedia di dalam Weka pada class weka.filters.supervised.attribute.Discretize sebagai teknik diskretisasi default.

Tabel 1. Dataset

Data Set Train size Test size Num. Nom. Classes

anneal 898 CV 6 32 5

audiology 226 CV 0 70 24

autos 205 CV 16 10 2

breast-c 286 CV 0 9 2

car 1728 CV 0 7 4

credit-g (German credit data) 1000 CV 7 13 2

dermatology 366 CV 1 33 6 diabetes 768 CV 8 0 2 glass-2 214 CV 9 0 7 horse colic 300 CV 7 15 2 heart-c(cleve) 303 CV 6 7 2 heart-stat 270 CV 13 0 2 hepatitis 155 CV 6 13 2 ionosphere 351 CV 34 0 2 iris 150 CV 4 0 3 labor-neg 57 CV 8 8 2 lymph 148 CV 3 15 4 segment 2310 CV 19 0 7 sonar 208 CV 60 0 2 soybean 683 CV 0 35 19 tic-tac-toe 958 CV 0 9 2 train 10 CV 0 32 2 vote 435 CV 0 16 2 vowel 990 CV 6 3 11 zoo 101 CV 1 16 7

2.3. Teknik Seleksi Atribut

Menurut [3], ada dua kategori utama pada teknik seleksi atribut: filter dan wrapper. Teknik filter menggunakan karakteristik umum dari data untuk mengevaluasi atribut dan beroperasi secara independen terhadap sembarang algoritma pembelajaran. Teknik wrapper mengevaluasi atribut dengan menggunakan estimasi akurasi dari algoritma pembelajaran target.

Jenis kategori yang lain membagi teknik seleksi atribut menjadi kategori teknik yang mengevaluasi atribut secara individual dan kategori yang mengevaluasi subset atribut sekaligus.

Weka menyediakan beberapa evaluator atribut dan metode pencarian yang digunakan. Metode pencarian

BestFirst merupakan metode pencarian hill climbing dengan opsi backtracking. Metode GreedyStepwise

melakukan teknik greedy dengan menambahkan satu-persatu atribut ke dalam subset solusi dan berhenti ketika penambahan atribut baru menyebabkan penurunan pada penilaian evaluasi atribut. Metode

(3)

Teknik Informatika / Universitas Surabaya

Halaman C-49

LinearForwardSelection merupakan modifikasi dari BestFirst dengan penambahan sejumlah k atribut ke dalam

penilaian. Metode RankSearch melakukan perangkingan atribut dengan menggunakan evaluator atribut/subset.

2.3.1 Teknik Information Gain (IG)

Teknik ini merangking atribut dengan menghitung entropi dari sebuah kelas C sebelum dan setelah mengamati sebuah atribut A. Nilai penurunan entropi disebut information gain. Persamaan (1) dan (2) menghitung entropi kelas sebelum dan sesudah pengamatan terhadap atribut A. Setiap atribut diberikan sebuah skor berdasarkan information gain-nya. Rumus perhitungan information gain terdapat pada persamaan (3).

(1)

(2)

(3)

Teknik ini mengharuskan data numerik didiskritkan terlebih dahulu. Pada Weka, fungsi ini tersedia dalam class weka.attributeSelection.InfoGainAttributeEval dan dipasangkan dengan metode pencarian

Ranker.

2.3.2 Relief (RLF)

Relief adalah metode perangkingan atribut berbasis instance yang secara acak mengambil sampel sebuah

instance data dan mencari nearest neighbor pada class yang sama dan berlawanan. Pada awalnya, metode ini

digunakan pada permasalahan klasifikasi 2 class. Nilai atribut dari nearest neighbor dibandingkan dengan sampel instance data dan digunakan untuk menghasilkan skor untuk setiap atribut. Proses ini diulangi untuk m

instance, dimana nilai m dapat ditentukan oleh user.

Versi pengembangan dari Relief adalah ReliefF dan dapat digunakan untuk menangani noise dan dataset dengan banyak class. Noise data dihaluskan dengan merata-rata kontribusi dari k nearest neighbors dari class yang sama dan berlawanan dari setiap sampel instance. Pada Weka, teknik ini tersedia dalam class weka.attributeSelection.ReliefFAttributeEval dan dipasangkan dengan metode pencarian

Ranker. Gambar 1 merupakan algoritma dari ReliefF.

Gambar 1. Algoritma ReliefF

2.3.3 Principal Component (PC)

Analisis Principal Component menggunakan perhitungan statistik untuk mengurangi dimensionalitas data dengan menghasilkan eigenvector dari atribut. Eigenvector tersebut lalu dirangking berdasarkan jumlah variasi dalam data asli yang mereka wakili. Hanya sedikit dari beberapa atribut pertama yang berkontribusi terhadap variasi data yang akan diambil.

Pada Weka, teknik ini terdapat dalam class

weka.attributeSelection.PrincipalComponents dan dipasangkan dengan metode pencarian

(4)

Teknik Informatika / Universitas Surabaya

Halaman C-50

2.3.4 Correlation-Based Feature Selection (CFS)

Teknik ini termasuk ke dalam kategori seleksi fitur yang mengevaluasi subset dari atribut. Teknik ini mempertimbangkan kegunaan atribut individual untuk memprediksi class dan juga level inter-korelasi di antara mereka. Sebuah fungsi heuristik (4) memberikan skor tinggi kepada subset yang berisi atribut-atribut yang berkorelasi tinggi dengan class-nya dan memiliki inter-korelasi rendah dengan satu sama lain.

(4)

CFS mengharuskan atribut numerik didiskritkan terlebih dahulu sebelum menggunakan symmetrical

uncertainty untuk mengestimasi derajat asosiasi antara dua fitur diskrit. Pada Weka, teknik ini tersedia dalam class weka.attributeSelection.CfsSubsetEval dan dipasangkan dengan metode pencarian

ForwardSelection.

2.3.5 Consistency-Based Subset Evaluation (CNS)

Teknik ini menggunakan konsistensi class sebagai metrik evaluasi (5) yang mencari kombinasi atribut yang nilainya membagi data ke dalam subset yang berisi class mayoritas tunggal yang kuat.

(5)

Teknik ini juga mengharuskan atribut numerik didiskritkan terlebih dahulu sebelum diproses. Dalam Weka, fitur ini tersedia dalam class weka.attributeSelection.ConsistencySubsetEval dan dipasangkan dengan metode pencarian ForwardSelection.

2.3.6 Wrapper Subset Evaluation (WRP)

Pada implementasi teknik ini di Weka, dilakukan 5-fold cross validation untuk estimasi akurasi. Cross

validation diulangi selama standar deviasi yang didapat lebih besar dari 1% dari rata-rata akurasi atau hingga

lima repetisi telah dilakukan. Pada Weka, teknik ini tersedia di class

weka.attributeSelection.WrapperSubsetEval dan dipasangkan dengan metode pencarian

ForwardSelection.

2.4. Reduksi Dimensionalitas

Sebelum dataset diberikan kepada algoritma learning, setiap selektor atribut mengurangi dimensionalitas berdasarkan ranking atribut. Karena metode 10-fold cross validation digunakan, setiap training set dari pemisahan set train-test digunakan untuk mengestimasi kelayakan dari n rangking atribut tertinggi untuk dipilih sebagai subset atribut terbaik. Nilai n didapat dengan menggunakan forward selection hill climbing search untuk mencari subset atribut terbaik.

2.5. Algoritma Klasifikasi C4.5 dan Naïve-Bayes

Mengikuti teknik yang diterapkan pada [3], digunakan 2 jenis algoritma klasifikasi, yakni C4.5 dan Naïve-Bayes. Alasan digunakan 2 jenis ini adalah karena keduanya menggunakan pendekatan yang berbeda dan memiliki waktu running yang relatif cepat, serta keduanya telah tersedia di dalam Weka.

Algoritma Naïve-Bayes menghitung probabilitas nilai atribut secara independen di dalam setiap class dari

training instance. Ketika sebuah training instance datang, probabilitas posterior dari setiap class dihitung

menggunakan nilai atribut dari instance tersebut dan instance akan dimasukkan ke dalam class yang memiliki probabilitas tertinggi.

Sementara itu, algoritma C4.5 secara rekursif mempartisi training data berdasarkan tes yang dilakukan pada nilai atribut untuk memisahkan class. Tes atribut ini dipilih satu-persatu dengan pendekatan greedy dan bergantung pada hasil yang didapat dari tes sebelumnya.

2.6. Metodologi

Seluruh 25 dataset diberikan perlakuan yang sama dengan menerapkan 6 teknik pemilihan atribut untuk masing-masing dataset. Setelah atribut diseleksi, dataset diproses dengan 2 algoritma learning, yakni

(5)

Naïve-Teknik Informatika / Universitas Surabaya

Halaman C-51

Bayes dan C4.5. Dataset ini bervariasi dari segi ukuran, mulai puluhan hingga ribuan, yang masing-masingnya memiliki kurang dari 100 atribut.

Untuk membandingkan hasil klasifikasi, digunakan mode Weka Experimenter pada Weka. Persentase kebenaran klasifikasi dirata-rata dari 10 kali 10-fold cross validation dan untuk setiap tekniknya, dibandingkan antara hasil sebelum dan sesudah dilakukan pemilihan atribut. Weka memiliki class

weka.classifiers.meta.AttributeSelectedClassifier yang memungkinkan untuk menerapkan teknik pemilihan atribut dan mengurangi dimensi data sebelum dilewatkan pada sebuah algoritma

classifier. Setting parameter yang akan digunakan pada penelitian ini adalah setting default dari Weka.

3. HASIL DAN PEMBAHASAN

Seperti yang telah dijelaskan pada subbab metodologi, penerapan teknik pemilihan atribut dan hasil klasifikasi dilakukan dalam mode Weka Experimenter. Untuk keduapuluhlima dataset, persentase kebenaran klasifikasi dari masing-masing algoritma learning dirata-rata dari 10 kali 10-fold cross validation. Tabel 2 menunjukkan hasil benchmark dari 6 algoritma terhadap 25 dataset dengan menggunakan algoritma klasifikasi Naïve-Bayes dan Tabel 4 menunjukkan hasil benchmark dengan menggunakan algoritma klasifikasi C4.5.

Tabel 2. Hasil untuk Seleksi Atribut dengan Naïve Bayes

No (1) Dataset (2) NB (3) IG (4) RLF (5) PC (6) CNS (7) CFS (8) WRP (9) 1 anneal 86.59 96.13 v 96.13 v 93.73 * 97.02 v 97.70 v 98.30 v 2 audiology 72.64 72.64 72.64 54.01 * 72.29 69.36 * 74.00 v 3 autos 57.41 70.59 v 70.59 v 72.75 v 77.43 v 76.74 v 77.71 v 4 breast-cancer 72.70 72.70 72.70 68.17 * 73.04 71.74 72.40 5 car 85.46 85.46 85.46 85.72 85.46 85.46 85.26 6 horse-colic 78.70 79.68 79.68 78.89 83.46 v 82.72 v 83.18 v 7 german_credit 75.16 75.43 75.43 71.04 * 73.74 * 74.37 73.88 * 8 dermatology 97.43 97.93 97.93 95.36 * 98.09 95.05 * 97.73 9 pima_diabetes 75.75 77.85 v 77.85 v 76.83 v 79.41 v 77.85 v 78.27 v 10 Glass 49.45 74.39 v 74.39 v 71.63 v 73.19 v 74.12 v 75.04 v 11 cleve-heart-disease 83.34 83.97 83.97 81.44 * 83.24 83.67 80.93 * 12 heart-statlog 83.59 83.74 83.74 81.78 83.3 83.74 82.78 13 hepatitis 83.81 85.12 v 85.12 v 84.63 85.36 v 84.92 v 86.39 v 14 ionosphere 82.17 90.77 v 90.77 v 88.64 v 91.65 v 91.29 v 92.00 v 15 iris 95.53 94.47 * 94.47 * 94.67 95.27 94.80 93.53 * 16 labor 93.57 92.53 * 92.53 * 89.27 * 84.1 * 87.87 * 85.03 * 17 lymphography 83.13 84.97 v 84.97 v 80.99 * 81.01 * 80.77 * 81.74 * 18 segment 80.17 91.71 v 91.71 84.56 * 93.67 v 93.43 v 94.37 v 19 sonar 67.71 85.16 v 85.16 v 82.47 v 82.28 v 81.46 v 77.90 v 20 soybean 92.94 92.94 92.94 91.83 * 92.15 83.15 * 92.65 21 tic-tac-toe 69.62 69.64 69.64 74.54 v 71.84 v 72.34 v 71.26 v 22 trains 70.00 70.00 70.00 40.00 * 60.00 * 40.00 * 70.00 23 vote 90.02 90.02 90.02 90.09 94.57 v 91.98 v 95.29 v 24 vowel 62.90 65.23 v 65.23 v 65.00 v 66.07 v 64.14 v 68.64 v 25 zoo 94.97 93.21 * 93.21 * 68.05 * 92.49 * 40.61 * 92.12 *

v=menaik secara signifikan, *=menurun secara signifikan

Tabel 2 menunjukkan perbandingan performa masing-masing algoritma (kolom 4-9) terhadap tiap dataset dalam melakukan klasifikasi dengan Naïve Bayes dibandingkan dengan yang tanpa menggunakan seleksi fitur sama sekali (kolom 3). Keterangan “*” dan “v” menunjukkan selisih yang signifikan secara statistik (lebih dari 1%), sesuai hasil uji-t 2 pasang. Dari tabel 2, dapat dilihat bahwa hasil terbaik dilakukan oleh Wrapper yang memberikan peningkatan kebenaran klasifikasi pada 13 dataset dan penurunan pada 6 dataset. CNS berada pada peringkat kedua, dengan kenaikan pada 12 dataset dan penurunan pada 5 dataset. Peringkat ketiga adalah CFS dengan kenaikan pada 12 dataset dan penurunan pada 7 dataset. Metode Information Gain (IG) memberikan kenaikan pada 10 dataset dan penurunan pada 3 dataset sedangkan RLF naik untuk 9 dataset dan turun untuk 3

(6)

Teknik Informatika / Universitas Surabaya

Halaman C-52

dataset.

Tabel 3 menggambarkan ranking dari seluruh teknik seleksi atribut terhadap keakuratan kebenaran klasifikasi dengan algoritma Naïve Bayes pada 25 dataset. Beberapa teknik seleksi atribut memiliki kebenaran klasifikasi yang sama dan tertinggi di antara yang lain, sehingga teknik-teknik seleksi tersebut dihitung bersama-sama sebagai pemenang. Dari tabel 3, terlihat bahwa Wrapper tetap yang paling unggul dibandingkan metode lainnya dengan 10 kemenangan, sedangkan CFS secara mengejutkan berada pada posisi terakhir dengan hanya menang di 1 dataset saja (dataset 12) bersama-sama dengan IG dan RLF.

Tabel 3. Ranking Teknik Seleksi Atribut pada algoritma Naïve Bayes Teknik Menang WRP 10 IG 8 RLF 8 NB 6 CNS 3 PC 2 CFS 1

Tabel 4 menunjukkan hasil benchmark dari 6 teknik seleksi atribut dan tanpa seleksi atribut dengan menggunakan algoritma klasifikasi C4.5 terhadap 25 dataset.

Tabel 4. Hasil untuk Seleksi Atribut dengan C4.5

No (1) Dataset (2) NB (3) IG (4) RLF (5) PC (6) CNS (7) CFS (8) WRP (9) 1 anneal 98.57 98.75 98.75 96.54 * 97.33 * 98.41 98.80 2 audiology 77.26 77.36 77.35 58.89 * 76.86 73.76 * 76.99 3 autos 81.77 82.29 82.53 76.27 * 75.05 * 76.30 * 75.56 * 4 breast-cancer 74.28 74.28 74.28 67.94 * 73.08 * 72.59 * 75.11 5 car 92.22 92.22 92.22 88.33 * 92.22 92.22 92.67 6 horse-colic 85.16 85.13 85.13 72.53 * 81.77 * 85.13 84.37 7 german_credit 71.25 72.16 72.19 68.49 * 73.20 v 72.46 v 70.51 8 dermatology 94.10 94.26 94.26 94.29 93.66 91.64 * 93.77 9 pima_diabetes 74.49 77.34 v 77.34 v 77.08 v 79.09 v 77.34 v 77.28 v 10 Glass 67.63 75.23 v 75.23 v 75.68 v 73.84 v 74.63 v 71.35 v 11 cleve-heart-disease 76.94 77.66 77.92 78.97 v 79.50 v 78.15 v 77.59 12 heart-statlog 78.15 82.19 v 82.22 v 82.48 v 82.89 v 82.26 v 82.52 v 13 hepatitis 79.22 82.15 v 82.15 v 82.13 v 82.87 v 82.83 v 82.70 v 14 ionosphere 89.74 89.43 89.43 88.38 * 90.63 90.51 91.45 v 15 iris 94.73 93.87 94.80 93.13 * 93.87 93.87 93.67 16 labor 78.60 87.90 v 87.90 v 89.07 v 84.63 v 81.17 v 82.33 v 17 lymphography 75.84 76.71 76.51 75.16 73.99 * 73.89 * 77.75 v 18 segment 96.79 95.20 * 95.19 * 88.76 * 95.58 * 95.66 * 95.71 * 19 sonar 73.61 80.74 v 80.55 v 78.28 v 79.02 v 77.89 v 75.57 v 20 soybean 91.78 91.77 91.77 86.76 * 90.20 * 83.53 * 91.74 21 tic-tac-toe 85.28 85.35 85.35 85.08 77.43 * 83.62 * 85.19 22 trains 90.00 90.00 90.00 40.00 * 90.00 0.00 * 82.00 * 23 vote 96.57 96.57 96.57 90.27 * 95.63 96.32 95.40 * 24 vowel 80.20 79.24 79.31 72.37 * 72.45 * 79.72 80.30 25 zoo 92.61 91.11 * 91.11 * 81.39 * 93.28 40.61 * 91.47 *

v=menaik secara signifikan, *=menurun secara signifikan

Tabel 4 menunjukkan perbandingan performa masing-masing algoritma (kolom 4-9) terhadap tiap dataset dalam melakukan klasifikasi dengan C4.5 dibandingkan dengan yang tanpa menggunakan seleksi atribut sama sekali (kolom 3). Wrapper masih merupakan teknik seleksi atribut yang terunggul dibandingkan yang lainnya

(7)

Teknik Informatika / Universitas Surabaya

Halaman C-53

dengan memberikan kenaikan kebenaran klasifikasi pada 8 dataset dan penurunan pada 5 dataset. CNS menjadi yang terbaik kedua dengan memberikan kenaikan pada 8 dataset dan penurunan pada 9 dataset, sedangkan CFS berada sedikit di bawah CNS dengan kenaikan pada 8 dataset dan penurunan pada 10 dataset. Dua teknik memiliki posisi yang sama, yakni IG dan RLF, yang sama-sama memiliki kenaikan pada 6 dataset dan penurunan pada 2 dataset. Di posisi terbawah adalah PC dengan kenaikan pada 7 dataset dan penurunan pada 15 dataset.

Walaupun IG dan RLF sama-sama memiliki nilai kenaikan dataset yang lebih rendah dibandingkan Wrapper, namun keduanya memiliki selisih naik-turun yang terbesar (yakni 4) dibandingkan dengan Wrapper yang sebesar 3.

Tabel 5 menggambarkan ranking dari seluruh teknik seleksi atribut terhadap keakuratan kebenaran klasifikasi dengan algoritma C4.5 pada 25 dataset. Beberapa teknik seleksi atribut memiliki kebenaran klasifikasi yang sama dan tertinggi di antara yang lain, sehingga teknik-teknik seleksi tersebut dihitung bersama-sama sebagai pemenang.

Tabel 5. Ranking Teknik Seleksi Atribut pada algoritma C4.5 Teknik Menang WRP 7 CNS 6 RLF 5 C4.5 4 PC 3 IG 1 CFS 1

Dari tabel 5, dapat dilihat bahwa Wrapper masih lebih unggul dari teknik lainnya dengan menang pada 7 dataset, sedangkan CFS kembali menempati posisi terakhir dengan unggul hanya pada 1 dataset saja (dataset 7).

Hasil ini sedikit berbeda dengan [3] dimana yang menjadi pemenang adalah RLF. Hal ini dimungkinkan karena adanya perbedaan pada jumlah dataset yang dijadikan ujicoba. Setiap dataset memiliki karakteristik tersendiri yang dapat mempengaruhi baik tidaknya kinerja teknik seleksi atribut yang diterapkan. Kemungkinan penyebab lain adalah penggunaan metode pencarian yang berbeda. Pada penelitian ini, untuk IG, RLF, dan PC digunakan metode pencarian Ranker, karena metode tersebut adalah satu-satunya metode pencarian pada Weka yang dapat dipasangkan dengan ketiganya. Sedangkan untuk CFS, CNS, dan WRP digunakan metode pencarian

Linear Forward Selection sesuai dengan metode yang digunakan pada [3] dan merupakan pendekatan greedy

sederhana yang secara sekuensial menambahkan sebuah atribut yang memiliki nilai tertinggi ketika dikombinasikan dengan sejumlah atribut lain yang sudah terpilih.

Sebagai perbandingan pula dari segi running time, percobaan pertama dengan 25 dataset, 6 algoritma seleksi atribut dan menggunakan algoritma klasifikasi Naïve Bayes, dibutuhkan waktu 2 jam dan 37 menit. Sedangkan percobaan kedua dengan jumlah dataset dan algoritma seleksi atribut yang sama dan menggunakan algoritma klasifikasi C4.5, dibutuhkan waktu 4 jam dan 56 menit. Proses dengan algoritma C4.5 membutuhkan waktu lebih lama karena algoritma tersebut membangun model tree terlebih dahulu dari dataset yang ada, baru kemudian melakukan proses klasifikasi. Semakin banyak jumlah atribut dari sebuah dataset, semakin lama proses menghasilkan model tree-nya. Lingkungan ujicoba penelitian ini menggunakan prosesor Intel 1.8GHz dengan memori 4GB.

4. KESIMPULAN

Penelitian ini telah melakukan studi perbandingan terhadap kinerja 6 teknik seleksi atribut pada 25 dataset. Berdasarkan hasil ujicoba yang telah dilakukan, diperoleh kesimpulan bahwa teknik seleksi atribut Wrapper adalah yang terbaik dari 5 teknik lainnya, sekaligus merupakan teknik yang membutuhkan waktu paling lama, baik dengan algoritma klasifikasi Naïve Bayes maupun C4.5.

Hasil yang diperoleh tidak menjustifikasi bahwa teknik Wrapper adalah yang paling baik digunakan pada dataset apapun, namun hanya memberikan rujukan umum bagi peneliti yang akan menerapkan teknik seleksi atribut pada datasetnya.

(8)

Teknik Informatika / Universitas Surabaya

Halaman C-54

5. SARAN

Proses ujicoba yang cukup memakan waktu merupakan salah satu kendala yang menyebabkan kurang menyeluruhnya pembandingan faktor-faktor lainnya untuk dilakukan, selain ketepatan hasil klasifikasi, seperti sensitivitas masing-masing teknik terhadap missing data serta noise, juga jumlah tree yang dihasilkan oleh tiap teknik pada penggunaan algoritma klasifikasi C4.5. Untuk selanjutnya, peneliti akan memasukkan faktor-faktor tersebut sebagai kinerja yang diukur pada penelitian berikutnya.

6. Daftar Pustaka

[1] A. Blum and P. Langley, “Selection of Relevant Features and Examples in Machine Learning,” Artificial Intelligence, vol. 97, nos. 1-2, pp. 245-271, 1997.

[2] M. Dash and H. Liu, “Feature Selection for Classification,” Intelligent Data Analysis, vol. 1, no. 3, 1997. [3] Hall and Holmes, “Benchmarking Attribute Selection Techniques for Discrete Class Data Mining”, IEEE

Transactions on Knowledge and Data Engineering, Vol. 15, No. 6, IEEE Computer Society, 2003.

[4] Repository of Software Environment for the Advancement of Scholarly Research (SEASR). [Online]. Available: http://repository.seasr.org/Datasets/UCI/arff/.

[5] U.M. Fayyad and K.B. Irani, Multiinterval Discretisation of Continuous-Valued Attributes, Proc. 13th Int’l Joint Conf. Artificial Intelligence, pp. 1022-1027, 1993.

, E., Brohee, S. & van Helden, J., "Regulatory Sequence Analysis Tools (RSAT) Nucleic Acids Res.,” 2008. Available: http://rsat.ulb.ac.be/.

Acids Res.," 2008. Available: http://rsat.ulb.ac.be/.

Gambar

Tabel 1. Dataset
Tabel 2. Hasil untuk Seleksi Atribut dengan Naïve Bayes
Tabel 3. Ranking Teknik Seleksi Atribut pada algoritma Naïve Bayes

Referensi

Dokumen terkait

Berdasarkan hasil penelitian dan pembahasan, maka dapat disimpulkan hal-hal sebagai berikut: Pertama, secara individual (parsial) diantara tiga variabel independen

temperatur pada pelat ini bertujuan untuk mengetahui distribusi temperatur setiap titik ketebalan IEB hingga sepanjang pelat elemen bakar selama proses perolan panas

Kementerian Pemuda dan Olahraga melaksanakan urusan pemerintahan untuk membangun, mengembangkan, dan meningkatkan peran kepemudaan dan keolahragaan dalam rangka

Meningka#kan penyer#aan dan memberi pe!uang kepada "#K mengikuti program akademik dan bukan akademik bersama-sama murid di arus perdana% PPI $uga memberi

(2017) melakukan seleksi forward selection untuk menentukan atribut yang berpengaruh pada klasifikasi kelulusan mahasiswa menggunakan algoritma Naive Bayes dan

Pelaksanaan strategi pertumbuhan yang memerlukan dana yang cukup besar seperti untuk investasi pembangunan pabrik, pembangunan gerai baru, dan pembelian mesin baru untuk

dekskriptif dengan pendekatan kualitatif dan rancangan penelitianya adalah crossectional. Perbedaanya terletak pada pembahasanya yaitu pada penelitian sebelumnya membahas

Menurut Gagne, Wager, Goal, & Keller [6] menyatakan bahwa terdapat enam asusmsi dasar dalam desain instruksional. Keenam asumsi dasar tersebut dapat dijelaskan