Classification
–
Decision Tree
Universitas Putra Indonesia YPTK PadangClassification
–
Decision Tree
Pengertian Pohon Keputusan
Pohon keputusan adalah pemetaan mengenai alternatif
pemecahan masalah, menganalisa resiko dan dapat mencari penyelesaian terbaik dengan
Classification
–
Decision Tree
Classification
–
Decision Tree
Manfaat pohon keputusan:
• Mem-break down (memecah) proses pengambilan keputusan yang kompleks menjadi lebih simpel sehingga pengambil keputusan akan lebih
menginterpretasikan solusi dari permasalahan
Classification
–
Decision Tree
Kelebihan Pohon Keputusan
- Keputusan yang sebelumnya kompleks dan global,
diubah menjadi simpel dan spesifik.
- Meng-eliminasi perhitungan yang tidak diperlukan,
karena sample yang diuji hanya berdasarkan kriteria atau kelas tertentu.
- Fleksibel untuk memilih fitur dari internal node
yang berbeda, meningkatkan kualitas keputusan
- Menghindari munculnya permasalahan karena
Classification
–
Decision Tree
Kekurangan Pohon Keputusan
- Terjadi overlap, ketika kelas-kelas dan kriteria yang
digunakan jumlahnya sangat banyak.
- Pengakumulasian jumlah error yang besar dari
setiap tingkat dalam satu pohon keputusan.
- Kualitas keputusan yang dihasilkan sangat
Classification
–
Decision Tree
Algoritma C 4.5
Salah satu algoritma induksi pohon keputusan yaitu
ID3 (Iterative Dichotomiser 3).
ID3 dikembangkan oleh J. Ross Quinlan. Dalam prosedur algoritma ID3, input berupa sampel
training, label training dan atribut.
Algoritma C 4.5
Algoritma C 4.5 :
1. Pilih atribut sebagai akar
2. Buat cabang untuk tiap-tiap nilai 3. Bagi kasus di dalam cabang
Algoritma C 4.5
Untuk memilih atribut akar, didasarkan pada nilai GAIN
tertinggi dari atribut-atribut yang ada.
Algoritma C 4.5
Rumus Entropy :
Keterangan :
S = Himpunan Kasus n = Jumlah Partisi S
Algoritma C 4.5
Rumus Gain :
Keterangan :
S = Himpunan Kasus A = Atribut
n = Jumlah Partisi Atribut A
Algoritma C 4.5
Algoritma C 4.5
Solusi :
a. Hitung Jumlah Kasus
b. Hitung Jumlah Keputusan “Yes” c. Hitung Jumlah Keputusan “No” d. Hitung :
- Entropy (Total),
- Entropy (Outlook),
- Entropy (Temperature),
- Entropy (Humidity), dan
Algoritma C 4.5
e. Hitung :
- Gain (Total, Outlook)
- Gain (Total, Temperature)
- Gain (Total, Humidity)
Algoritma C 4.5
Dari tabel diatas, Gain Tertinggi adalah HUMIDITY dan menjadi node akar.
Maka diperoleh bentuk pohon keputusan awal seperti :
1. HUMIDITY
1.1
????? Yes
Algoritma C 4.5
f. Hitung :
- Entropy (Humidity-High),
- Entropy (Outlook),
- Entropy (Temperature), dan
- Entropy (Windy)
h. Hitung :
- Gain (Humidity-High, Outlook)
- Gain (Humidity-High, Temperature)
Algoritma C 4.5
Dari tabel diatas, Gain
Tertinggi adalah OUTLOOK
Algoritma C 4.5
i. Hitung :
- Entropy (Outlook-Rainy),
- Entropy (Temperature), dan
- Entropy (Windy)
j. Hitung :
- Gain (Outlook-Rainy, Temperature)
Algoritma C 4.5
Dari tabel diatas,
Gain Tertinggi
adalah WINDY
dan menjadi