• Tidak ada hasil yang ditemukan

BAB 3 METODOLOGI PENELITIAN

3.5 Siklus Algoritma Genetika

3.5 Siklus Algoritma Genetika

Berikut ini akan dijelaskan contoh penyelesaian masalah menggunakan algoritma genetika.

1. Populasi Awal dan Evaluasi Fitness 3 3 5 5 1 = 17

26

2 1 3 4 2 à 2 4 5 1 2 à 2 4 5 1 2 4 4 5 1 3 à 4 1 3 4 3 à 4 1 3 4 5

3 2 3 1 3 à 3 4 5 1 3 à 3 4 5 1 3 4 4 5 1 3 à 4 2 3 1 3 à 4 2 3 1 5

4 2 3 1 5 à 4 3 4 1 5 à 2 3 4 1 5 3 3 4 1 3 à 3 2 3 1 3 à 4 2 3 1 4

2 3 2 5 1 à 2 3 4 1 1 à 2 3 4 1 5 3 3 4 1 3 à 3 3 2 5 3 à 3 3 2 5 3 Individu sesudah di crossover:

3 3 5 5 1 2 4 5 1 2 4 1 3 4 5 3 4 5 1 3 4 2 3 1 5 4 2 3 1 5 3 3 1 5 5 2 3 4 1 5 4 2 3 1 4 2 3 4 1 5 3 3 2 5 3

27

4. Mutasi

Misalkan nilai Probability Mutation (Pm = 0.1)

Maka jumlah gen yang dimutasi = Jumlah_Individu x Panjang_Gen x Pm = 11 x 5 x 0.1 = 5.5 à 5

Sehingga jumlah gen yang dimutasi adalah 5 3 3 5 5 1

2 4 5 1 2 4 1 3 4 5

3 4 5 1 3 à 3 4 5 3 2 4 2 3 1 5 à 4 2 3 3 5 4 2 3 1 5

3 3 1 5 5

2 3 4 1 5 à 2 3 4 4 1 4 2 3 1 4

2 3 4 1 5 3 3 2 5 3

5. Populasi Baru

Nilai Fitness untuk populasi baru adalah 173 3 3 5 5 1 = 17

2 4 5 1 2 = 14

28

4 2 3 1 5 = 15 3 3 1 5 5 = 17 2 3 4 4 1 = 14 4 2 3 1 4 = 14

2 3 4 1 5 = 15 3 3 2 5 3 = 16

Nilai Fitness untuk populasi baru mengalami peningkatan yang cukup baik tetapi penilaian akhir masih tetap pada akurasi klasifikasi pada decision tree, populasi baru ini akan diterjemahkan lagi menjadi nilai atributnya masing-masing, kemudian dihitung lagi entropi untuk menentukan atribut paling berpengaruh berdasarkan information gain-nya.

BAB 4

HASIL DAN PEMBAHASAN

4.1. Pendahuluan

Proses pengujian dilakukan untuk mengetahui akurasi pembelajaran decision tree dengan algoritma genetika. Pada penelitian ini ditampilkan hasil dari akurasi pembelajaran yang dihasilkan dari proses pembelajaran dan pengujian data.

4.2. Dataset

Data yang digunakan adalah Data Set German Credit Data yang diperoleh dari UCI Machine Learning Repository, jumlah atribut Data Set German Credit Data adalah 21 (7 numerical, 14 categorical), jadi jumlah instances adalah 1000 data, salah satu atribut data set ini adalah label class yaitu Good dan Bad. Data Set German Credit Data dibagi dua, yaitu, 95% -nya menjadi data training dan 10%-nya menjadi data testing.

4.3. Pengujian Akurasi Pembelajaran Dengan Decision Tree

Sebelum melakukan training, data terlebih dahulu divalidasi agar nantinya model yang dihasilkan benar-benar memberikan pengklasifikasian yang baik, selanjutnya data dilatih dengan Decision Tree dengan algoritma C4.5, hasil training ini berupa pohon keputusan yang selanjutnya dapat dirubah menjadi rule-rule.

30

keputusan. Atribut yang menjadi root adalah Status of existing checking account, atribut ini adalah atribut yang paling berpengaruh dan memiliki nilai information gain tertinggi, atribut Status of existing checking account memiliki nilai atribut A11, A12, A13 dan A14. Simpul di cabang A11, A12 dan A14, entropinya bernilai nol, sehingga dapat dipastikan semua data di masing-masing cabang tersebut menjadi daun atau node terminal. Property menjadi simpul internal di cabang A13 memiliki beberapa cabang, dan seterusnya, pohon keputusan pembelajaran decision tree dapat dilihat pada gambar 4.1.

31

32

Rule Set dari pohon keputusan pembelajaran dengan decision tree adalah sebagai berikut:

if Status of existing checking account = A11 then Good (128 / 128) if Status of existing checking account = A12 then Good (154 / 99) if Status of existing checking account = A13 and Property = A121 and Installment rate in percentage of disposable income > 3.500 and

Present residence since > 1.500 then Bad (0 / 4)

if Status of existing checking account = A13 and Property = A121 and Installment rate in percentage of disposable income > 3.500 and

Present residence since ≤ 1.500 then Good (1 / 1)

if Status of existing checking account = A13 and Property = A121 and Installment rate in percentage of disposable income ≤ 3.500 and Age in years > 35 then Good (7 / 0)

if Status of existing checking account = A13 and Property = A121 and Installment rate in percentage of disposable income ≤ 3.500 and Age in years ≤ 35 and Personal status and sex = A92 then Bad (0 / 2) if Status of existing checking account = A13 and Property = A121 and Installment rate in percentage of disposable income ≤ 3.500 and Age in years ≤ 35 and Personal status and sex = A93 then Good (3 / 1) if Status of existing checking account = A13 and Property = A121 and Installment rate in percentage of disposable income ≤ 3.500 and Age in years ≤ 35 and Personal status and sex = A94 then Good (2 / 0) if Status of existing checking account = A13 and Property = A122 then Good (11 / 0)

if Status of existing checking account = A13 and Property = A123 and Present employment since = A72 then Bad (1 / 2)

if Status of existing checking account = A13 and Property = A123 and Present employment since = A73 then Good (10 / 0)

if Status of existing checking account = A13 and Property = A123 and Present employment since = A74 then Good (2 / 0)

if Status of existing checking account = A13 and Property = A123 and Present employment since = A75 then Good (5 / 0)

if Status of existing checking account = A13 and Property = A124 and Credit amount > 1324 then Good (5 / 0)

if Status of existing checking account = A13 and Property = A124 and Credit amount ≤ 1324 then Bad (0 / 3)

if Status of existing checking account = A14 then Good (336 / 45)

33

Hasil akurasi klasifikasi pembelajaran dengan decision tree dari data testing disajikan pada tabel 4.1.

Tabel 4.1 Matriks Confusion Pembelajaran Dengan Decision Tree Akurasi: 68.00% True Good True Bad Class Precission

Pred Good 34 15 69.39%

4.4. Pengujian Akurasi Pembelajaran Decision Tree Dengan Seleksi atribut Sebelum dilakukan pembelajaran dengan decision tree, algoritma genetika digunakan sebagai pengoptimasi dan penyeleksi atribut pada data training, penilaian menggunakan nilai fitness tertinggi. Tahapan-tahapan pada algoritma genetika yaitu selection menggunakan tournament dan pmx crossover (Partial Mapping Crossover).

Dari hasil pembelajaran decision tree dengan seleksi atribut, didapat sembilan atribut yang dianggap memenuhi kriteria nilai information gain, sebagai penyusun pohon keputusan. Atribut yang menjadi root adalah Status of existing checking account, atribut ini adalah atribut yang paling berpengaruh dan memiliki nilai information gain tertinggi, atribut Status of existing checking account memiliki nilai atribut A11, A12, A13 dan A14. Simpul di cabang A11, A12 dan A14, entropinya bernilai nol, sehingga dapat dipastikan semua data di masing-masing cabang tersebut

34

Gambar 4.2 Pohon Keputusan Pembelajaran Decision Tree Dengan Seleksi Atribut

35

Rule Set dari pohon keputusan pembelajaran decision tree dengan seleksi atribut adalah sebagai berikut:

if Status of existing checking account = A11 then Good (134 / 131) if Status of existing checking account = A12 then Good (158 / 99) if Status of existing checking account = A13 and Property = A121 and Installment rate in percentage of disposable income > 3.500 and

Present residence since > 1.500 then Bad (0 / 3)

if Status of existing checking account = A13 and Property = A121 and Installment rate in percentage of disposable income > 3.500 and

Present residence since ≤ 1.500 then Good (1 / 1)

if Status of existing checking account = A13 and Property = A121 and Installment rate in percentage of disposable income ≤ 3.500 and

Personal status and sex = A91 then Good (2 / 0)

if Status of existing checking account = A13 and Property = A121 and Installment rate in percentage of disposable income ≤ 3.500 and

Personal status and sex = A92 and Age in years > 35 then Good (2 / 0)

if Status of existing checking account = A13 and Property = A121 and Installment rate in percentage of disposable income ≤ 3.500 and

Personal status and sex = A92 and Age in years ≤ 35 then Bad (0 / 2)

if Status of existing checking account = A13 and Property = A121 and Installment rate in percentage of disposable income ≤ 3.500 and

Personal status and sex = A93 then Good (5 / 0)

if Status of existing checking account = A13 and Property = A121 and Installment rate in percentage of disposable income ≤ 3.500 and

Personal status and sex = A94 then Good (2 / 0)

if Status of existing checking account = A13 and Property = A122 then Good (12 / 0)

if Status of existing checking account = A13 and Property = A123 and Present employment since = A72 then Bad (1 / 2)

if Status of existing checking account = A13 and Property = A123 and Present employment since = A73 then Good (10 / 1)

if Status of existing checking account = A13 and Property = A123 and Present employment since = A74 then Good (2 / 0)

if Status of existing checking account = A13 and Property = A123 and Present employment since = A75 then Good (4 / 0)

36

if Status of existing checking account = A13 and Property = A124 and Credit amount ≤ 1324 and Credit history = A34 then Good (1 / 1) if Status of existing checking account = A14 then Good (326 / 43)

Hasil akurasi klasifikasi pembelajaran decision tree dengan seleksi atribut dari data testing disajikan pada tabel 4.1.

Tabel 4.2 Matriks Confusion Pembelajaran Decision Tree Dengan Seleksi Atribut

Akurasi: 74.00% True A True B Class Precission

Pred A 35 13 72.92%

Perd B 0 2 100.00%

Class Recall 100.00% 13.33%

𝑎𝑘𝑢𝑟𝑎𝑠𝑖 = 𝐽𝑢𝑚𝑙𝑎ℎ 𝑑𝑎𝑡𝑎 𝑑𝑖𝑝𝑟𝑒𝑑𝑖𝑘𝑠𝑖 𝑏𝑒𝑛𝑎𝑟

𝐽𝑢𝑚𝑙𝑎ℎ 𝑑𝑎𝑡𝑎 𝑝𝑟𝑒𝑑𝑖𝑘𝑠𝑖 𝑦𝑎𝑛𝑔 𝑑𝑖𝑙𝑎𝑘𝑢𝑘𝑎𝑛𝑥100%

𝑎𝑘𝑢𝑟𝑎𝑠𝑖 =

!"!!"!!!! !" ! !

𝑥 100%

𝑎𝑘𝑢𝑟𝑎𝑠𝑖 = 74.00%

BAB 5

KESIMPULAN DAN SARAN

5.1 Kesimpulan

Terdapat beberapa kesimpulan yang dapat diambil dari penelitian dalam penyusunan tesis ini, yaitu:

1. Algoritma decision tree dihasilkan tingkat akurasi sebesar 68.00%, persentasi sesudah dilakukan pengoptimasian meningkat menjadi 74.00%.

2. Atribut yang dihasilkan pada pohon keputusan dengan pembelajaran decision tree berjumlah 8 atribut, sesudah dilakukan seleksi atribut dengan algoritma genetika berjumlah menjadi 9 atribut, sehingga rule yang dihasilkan lebih detail lagi untuk mengklasifikasi data.

3. Model yang dihasilkan cukup baik dilihat dari nilai akurasi Karena dapat mengenali data yang belum memiliki label kelas, walaupun belum 100%

sempurna.

1.2 Saran

Saran yang diberikan berkaitan dengan penelitian ini adalah sebagai berikut:

1. Penelitian ini dapat dianalisis kembali dengan menggunakan parameter-parameter yang nilai atributnya sama panjang, untuk menghindari nilai missing value pada nilai atribut apabila pengkodean yang digunakan adalah diskrit desimal dan jenis atributnya kategorikal.

2. Penelitian selanjutnya dapat dilakukan dengan menggunakan teknik-teknik pengoptimasian seperti Particle Swarm Optimization (PSO) dan yang lainnya.

DAFTAR PUSTAKA

Cagnoni, S., Lutton, E., & Olague, G. 2007. Genetic and Evolutionary for Image Processing and Analysis. EURASIP Book Series on Signal Processing and Communication. Vol. 8. Hindawi Publishing Coorperation: USA.

Camilleri, M. & Neri, F. 2014. Parameter Optimization in Decision Tree Learning by using Simple Genetic Algorithms. E-ISSN: 2224-2872, Volume 13.

Cha, S. -H. & Tappert, C. 2009. A Genetic Algorithm for Constructing Compact Binary Decision Trees. Journal Of Pattern Recognition Research 1: 1 – 13.

Carvalho, D. R. & Freitas, A. A. New Result For A Hybrid Decision Tree /Genetic Algorithm For Data Mining. Computer Science Dept. Universidade Tuiuti do Parana, Computing Laboratory University Of Kent At Canterbury.

Englebrecht , A. P. 2007. An Intoduction: Computational Intelligence. 2nd Edition.

John Wiley & Sons, Ltd: England.

Fu, Z., Golden, B. L., Lele, S., Raghavan, S., Wasil., E. A. 2003. A Genetic Algortihm -Based Approach For Building Accurate Decision Tree. Journal On Computing. Vol. 15, No. 1, pp. 3-22.

Han, J. & Kamber, M. 2001. Data Mining: Concept and Techniques. Morgan Kaufmann Publisher: United States of America.

Liu, D. -S. & Fan, S. -J. 2014. A Modified Decision Tree Algorithm Based on Genetic Algorithm for Mobile User Classification Problem. The Scientific World Journal: Volume 2014, Article ID 468324, 11 pages. (Online) http://dx.doi.org/10.1155/2014/468324, Hindawi Publishing Corporation.

Mola, F., Miele, R. & Conversano, C. 2008. Evolutionary Algorithms in Decision Tree Induction. In Book Edited by: Kosinski, W,. Advances In Evolutionary Algorithms. ISBN 978-953-7619-11-4. pp. 468. Tech Education and Publishing: Vienna, Austria.

Stein, G., Chen, B., Wu, A. Hua, K. A. Decision Tree Classifier For Network Intrusion Detection With GA-Based Feature Selection. Computer Science University of Central Florida.

Zheng, M. –C. 2007. A Comparative Analysis of Classifying Algorithms in Data Mining Technology, Lanzhou University of Finance and Economics.

Dokumen terkait