• Tidak ada hasil yang ditemukan

METODE PENELITIAN HASIL DAN PEMBAHASAN

N/A
N/A
Protected

Academic year: 2021

Membagikan "METODE PENELITIAN HASIL DAN PEMBAHASAN"

Copied!
9
0
0

Teks penuh

(1)

rendah. Oleh karena itu untuk meningkatkan akurasinya, proses learning harus dihentikan lebih awal atau melakukan pemotongan tree secara umum. Untuk itu diberikan 2 (dua) buah threshold yang harus dipenuhi jika tree akan diekspansi, yaitu:

 Fuzziness control threshold (FCT) /  Jika proporsi dari himpunan data dari kelas

Ck lebih besar atau sama dengan nilai threshold, maka hentikan ekspansi tree. Sebagai contoh: jika pada sebuah

sub-dataset rasio dari kelas 1 adalah 90%, maka kelas 2 adalah 10% dan  adalah 85%, maka hentikan ekspansi tree.  Leaf decision threshold (LDT) / 

Jika banyaknya anggota himpunan data pada suatu node lebih kecil dari threshold , hentikan ekspansi tree. Sebagai contoh: sebuah himpunan data memiliki 600 contoh dengan  adalah 2%. Jika jumlah data contoh pada sebuah node lebih kecil dari 12 (2% dari 600), maka hentikan ekspansi tree.

K-fold Cross Validation

K-fold cross validation dilakukan untuk membagi training set dan test set. K-fold cross

validation mengulang k-kali untuk membagi

sebuah himpunan contoh secara acak menjadi k subset yang paling bebas, setiap ulangan disisakan satu subset untuk pengujian dan

subset lainnya untuk pelatihan (Fu 1994).

METODE PENELITIAN

Data

Penelitian ini menggunakan data diabetes yang merupakan hasil pemeriksaan laboratorium pasien dari sebuah rumah sakit. Data hasil pemeriksaan lab pasien yang digunakan dalam penelitian ini meliputi GLUN (Glukosa Darah Puasa), GPOST (Glukosa Darah 2 Jam Pasca Puasa), HDL (Kolesterol HDL), TG (Trigliserida), serta diagnosa pasien berdasarkan nilai GLUN, GPOST, HDL dan TG. Nilai GLUN, GPOST, HDL, TG dinyatakan dalam satuan Mg/DL. Diagnosa pasien ditransformasi menjadi dua kategori, yaitu negatif diabetes yang direpresentasikan dengan angka 1 dan positif diabetes yang direpresentasikan dengan angka 2. Total data yang digunakan dalam penelitian ini berjumlah 290 record.

Metode

Tahapan penelitian yang digunakan dapat dilihat pada Gambar 3. Proses pembersihan

data tidak dilakukan, karena tahapan ini telah dilakukan pada penelitian sebelumnya. Dalam penelitian ini, percobaan dibagi ke dalam tiga kelompok seperti dalam Tabel 1.

Lingkup Pengembangan Sistem

Perangkat keras yang digunakan berupa

notebook dengan spesifikasi:

• processor: Intel Core 2 Duo 2.0 GHz, • memori: 1 GB, dan

• harddisk: 120 GB.

Perangkat lunak yang digunakan yaitu: • sistem operasi: Window XP,

• Matlab 7.0.1 sebagai bahasa pemrograman, dan

• Microsoft Excel 2007 sebagai tempat penyimpanan data.

Tabel 1 Kelompok percobaan Kelompok Algoritme yang digunakan Fungsi Keanggotaan FDT Fuzzy ID3 s-shaped, gaussian, p-shaped PFDT(1) Probabilistic Fuzzy ID3 triangle, trapezoid PFDT(2) Probabilistic Fuzzy ID3 s-shaped, gaussian, p-shaped

HASIL DAN PEMBAHASAN

Data yang digunakan dalam penelitian ini menggunakan data dari penelitian sebelumnya (Romansyah 2007). Data ini terdiri dari 6 buah kolom yaitu, no.RM (nomor rekam medis/MRN), GLUN, GPOST, HDL, TG dan diagutama (hasil pemeriksaan lab / diagnosis). Transformasi Data

Pada penelitian ini, teknik data mining yang digunakan adalah fuzzy decision tree (FDT) dan probabilistic fuzzy decision tree (PFDT), oleh karena itu data yang digunakan harus direpresentasikan ke dalam bentuk himpunan fuzzy. Dari 5 (lima) atribut yang digunakan pada penelitian ini 4 diantaranya merupakan atribut yang kontinu, yaitu GLUN, GPOST, HDL, dan TG. Berdasarkan hasil laboratorium range normal untuk atribut GLUN, GPOST, HDL, dan TG diperlihatkan pada Tabel 2.

(2)

Tabel 2 Daftar range normal untuk setiap atribut Kode Pemeriksaan Satuan Nilai Normal GLUN Mg/DL 70 – 100 GPOST Mg/DL 100 – 140 HDL Mg/DL 40 – 60 TG Mg/DL 50 – 150

Gambar 3 Diagram alur proses klasifikasi PFDT.

Atribut-atribut pada Tabel 2 ditransformasikan ke dalam himpunan fuzzy dengan menggunakan dua pendekatan yaitu dengan pendekatan well-defined sample space dan without well-defined sample space. Fungsi keanggotaan dibuat menggunakan

toolbox fuzzy dalam Matlab 7.0.1. Fungsi keanggotaan untuk penelitian sebelumnya dapat dilihat pada Lampiran 1 (Romansyah 2007).

Pendekatan Without Well-Defined Sample Space

Dalam pendekatan without well-defined

sample space jumlah derajat keanggotaan suatu objek dalam setiap himpunan fuzzy adalah tidak sama dengan 1. Berikut adalah bentuk-bentuk himpunan fuzzy untuk setiap atribut.

 Atribut GLUN

Atribut GLUN dibagi menjadi 4 kelompok atau linguistic term, yaitu rendah (GLUN < 70 mg/DL), sedang (70 mg/DL <= GLUN < 110 mg/DL), tinggi (110 mg/DL <= GLUN < 140 mg/DL), dan sangat tinggi (GLUN >= 140 mg/DL) (Herwanto 2006). Dari pembagian itu dapat ditentukan membership function dari himpunan fuzzy rendah, sedang, tinggi, dan sangat tinggi untuk atribut GLUN yaitu:

Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped, untuk

linguistic term sedang dan tinggi

menggunakan kurva Gaussian sedangkan untuk linguistic term sangat tinggi menggunakan kurva s-shaped. Gambar 4 menunjukkan himpunan fuzzy untuk atribut GLUN.

Gambar 4 Himpunan fuzzy atribut GLUN untuk FDT.

 Atribut GPOST

Atribut GPOST dibagi menjadi 4 kelompok atau linguistic term, yaitu rendah (GPOST < 100 mg/DL), sedang (100 mg/DL <= GPOST < 140 mg/DL), tinggi (140 mg/DL <= GPOST < 200 mg/DL), dan sangat tinggi (GPOST >= 200 mg/DL) (Herwanto 2006). rendah sedang tinggi sangatTinggi *rendahx   ; x ≤65 1-2Nx-65 10 O 2 ; 65≤x≤70 2N75-x 10 O 2 ; 70≤x≤75 0 ;x≥75 *sedangH  

e

-  6 P QR S 2σ2 *tinggiH  

e

-  6 P 4T S 2σ2 *,UVUWX$VV$H  Y Z H [ \] ^ NH . \]Y O4 Z \] [ H [ _Y  . ^ N`] . HY O4 Z _Y [ H [ _] Y Z H a _]

(3)

Dari pembagian itu dapat ditentukan

membership function dari himpunan fuzzy rendah, sedang, tinggi, dan sangat tinggi untuk atribut GPOST yaitu:

Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped, untuk

linguistic term sedang dan tinggi

menggunakan kurva Gaussian sedangkan untuk linguistic term sangat tinggi menggunakan kurva s-shaped. Gambar 5 menunjukkan himpunan fuzzy untuk atribut GPOST.

Gambar 5 Himpunan fuzzy atribut GPOST untuk FDT.

 Atribut HDL

Atribut HDL dibagi menjadi 3 kelompok atau linguistic term, yaitu rendah (HDL < 40 mg/DL), sedang (40 mg/DL <= HDL < 60 mg/DL), dan tinggi (HDL >= 60 mg/DL) (Herwanto 2006). Dari pembagian itu dapat ditentukan membership function dari himpunan fuzzy rendah, sedang, dan tinggi untuk atribut HDL yaitu:

Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped, untuk

linguistic term sedang menggunakan kurva

Gaussian sedangkan untuk linguistic term tinggi menggunakan kurva s-shaped. Gambar 6 menunjukkan himpunan fuzzy untuk atribut HDL.

Gambar 6 Himpunan fuzzy atribut HDL untuk FDT.

 Atribut TG

Atribut TG dibagi menjadi 3 kelompok atau linguistic term, yaitu rendah (TG < 50 mg/DL), sedang (50 mg/DL <= TG < 150 mg/DL), dan tinggi (TG >= 150 mg/DL) (Herwanto 2006). Dari pembagian itu dapat ditentukan membership function dari himpunan fuzzy rendah, sedang, dan tinggi untuk atribut TG yaitu:

Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped, untuk

linguistic term sedang menggunakan kurva

Gaussian sedangkan untuk linguistic term tinggi menggunakan kurva s-shaped. Gambar *bcUdH   Z H [ \]  . ^ NH . \]Y O4 Z \] [ H [ _Y ^ N_] . HY O4 Z _Y [ H [ _] Y Z H a _] *,bcUVH  

e

P 6 f TR 4gS S *W$VV$H  Y Z H [ ]] ^ NH . h]Y O4 Z ]] [ H [ hY  . ^ Nh] . HY O4 Z hY [ H [ h] Y Z H a h] *bcUdH   Z H [ _]  . ^ NH . _]Y O4 Z _] [ H [ ]Y ^ N]] . HY O4 Z ]Y [ H [ ]] Y Z H a ]] *,bcUVH  

e

f 6 f RR 4gS S *W$VV$H  Y ZH [ _] ^ NH . _]Y O4 Z _] [ H [ ]Y  . ^ N]] . HY O4 Z ]Y [ H [ ]] Y Z H a ]] rendah sedang tinggi

rendah sedang tinggi sangatTinggi *bcUdH 

 Z H [ i]  . ^ NH . i]Y O4 Z i] [ H [ YY ^ NY] . HY O4 Z YY [ H [ Y] Y ZH a Y] *,bcUVH  

e

f  6 P 4R 4gS S

*W$VV$H  

e

f 6 f jR 4gS S

*,UVUWX$VV$H 

Y Z H [ i] ^ NH . ^Y]Y O4 Z i] [ H [ ^YY  . ^ N^Y] . HY O4Z ^YY [ H [ ^Y] Y Z H a ^Y]

(4)

*W$VV$H  Y ZH [ \] ^ NH . \].\] O4 Z \] [ H [ ]^k]  . ^ N`Y . H\] O4 Z ]^k] [ H [ `Y  . ^ NH . `Y\] O4 Z `Y [ H [ l`k] ^ N^Y] . H\] O4 Z l`k] [ H [ ^Y] Y Z H a ^Y] 7 menunjukkan himpunan fuzzy untuk atribut

TG.

Gambar 7 Himpunan fuzzy atribut TG untuk FDT.

Pendekatan Well-Defined Sample Space Dalam pendekatan well-defined sample

space jumlah derajat keanggotaan suatu objek

dalam setiap himpunan fuzzy adalah sama dengan 1. Berikut adalah bentuk-bentuk himpunan fuzzy untuk setiap atribut.

 Atribut GLUN

Atribut GLUN dibagi menjadi 4 kelompok atau linguistic term, yaitu rendah, sedang, tinggi, dan sangat tinggi (Herwanto 2006). Dari pembagian itu dapat ditentukan

membership function dari himpunan fuzzy rendah, sedang, tinggi, dan sangat tinggi untuk atribut GLUN yaitu:

Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped,

linguistic term sedang dan tinggi

menggunakan kurva phi-shaped, dan untuk

linguistic term sangat tinggi menggunakan kurva s-shaped. Gambar 8 menunjukkan himpunan fuzzy untuk atribut GLUN.

Gambar 8 Himpunan fuzzy atribut GLUN untuk PFDT.

 Atribut GPOST

Atribut GPOST dibagi menjadi 4 kelompok atau linguistic term, yaitu rendah, sedang, tinggi, dan sangat tinggi (Herwanto 2006). Dari pembagian itu dapat ditentukan

membership function dari himpunan fuzzy rendah, sedang, tinggi, dan sangat tinggi untuk atribut GPOST yaitu:

*bcUdH   Z H [ h]  . ^ NH . h]Y O4 Z h] [ H [ `Y ^ N`] . HY O4 Z `Y [ H [ `] Y ZH a `] *W$VV$H  Y Z H [ Y] ^ NH . Y].^Y O4 Z Y] [ H [ ]  . ^ N^] . H^Y O4 Z ] [ H [ ^]  . ^ NH . ^]^Y O4 Z ^] [ H [ \] ^ N_] . H^Y O4 Z \] [ H [ _] Y Z H a _] *,UVUWX$VV$H  Y Z H [ \] ^ NH . \]Y O4 Z \] [ H [ _Y  . ^ N`] . HY O4 Z _Y [ H [ _] Y ZH a _] *bcUdH   Z H [ i]  . ^ NH . i]Y O4 Z i] [ H [ YY ^ NY] . HY O4 Z YY [ H [ Y] Y Z H a Y]

*,UVUWX$VV$H 

Y Z H [ i] ^ NH . ^Y]Y O4 Z i] [ H [ ^YY  . ^ N^Y] . HY O4Z ^YY [ H [ ^Y] Y ZH a ^Y]

*,bcUVH 

Y Z H [ i] ^ NH . i].^] O4 Z i] [ H [ Y`k]  . ^ N^Y . H^] O4 Z Y`k] [ H [ ^Y  . ^ NH . ^Y^] O4 Z ^Y [ H [ \^k] ^ N_] . H^] O4 Z \^k] [ H [ _] Y Z H a _] rendah sedang tinggi sangatTinggi

rendah sedang tinggi

*,bcUVH  Y Z H [ h] ^ NH . h].^] O4 Z h] [ H [ ``k]  . ^ NiY . H^] O4 Z ``k] [ H [ iY  . ^ NH . iY^] O4 Z iY [ H [ Y^k] ^ N] . H^] O4 Z Y^k] [ H [ ] Y Z H a ]

(5)

*,bcUVH  Y Z H [ _] ^ NH . _].]] O4 Z _] [ H [ `^k]  . ^ NYY . H]] O4 Z `^k] [ H [ YY  . ^ NH . YY]] O4 Z YY [ H [ ^`k] ^ N]] . H]] O4 Z ^`k] [ H [ ]] Y ZH a ]] *,bcUVH  Y Z H [ \] ^ NH . \].] O4 Z \] [ H [ _^k]  . ^ N]Y . H] O4 Z _^k] [ H [ ]Y  . ^ NH . ]Y] O4 Z ]Y [ H [ ]`k] ^ Nh] . H] O4 Z ]`k] [ H [ h] Y ZH a h] Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped,

linguistic term sedang dan tinggi

menggunakan kurva phi-shaped, dan untuk

linguistic term sangat tinggi menggunakan kurva s-shaped. Gambar 9 menunjukkan himpunan fuzzy untuk atribut GPOST.

Gambar 9 Himpunan fuzzy atribut HDL untuk PFDT.

 Atribut HDL

Atribut HDL dibagi menjadi 3 kelompok atau linguistic term, yaitu rendah, sedang, dan tinggi (Herwanto 2006). Dari pembagian itu dapat ditentukan membership function dari himpunan fuzzy rendah, sedang, dan tinggi untuk atribut HDL yaitu:

Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped, linguistic term sedang menggunakan kurva

phi-shaped, dan untuk linguistic term tinggi menggunakan kurva s-shaped. Gambar 10 menunjukkan himpunan fuzzy untuk atribut HDL.

Gambar 10 Himpunan fuzzy atribut HDL untuk PFDT.

 Atribut TG

Atribut TG dibagi menjadi 3 kelompok atau linguistic term, yaitu rendah, sedang, dan tinggi (Herwanto 2006). Dari pembagian itu dapat ditentukan membership function dari himpunan fuzzy rendah, sedang, dan tinggi untuk atribut TG yaitu:

Himpunan fuzzy untuk linguistic term rendah menggunakan kurva z-shaped, linguistic term sedang menggunakan kurva

phi-shaped, dan untuk linguistic term tinggi menggunakan kurva s-shaped. Gambar 11 menunjukkan himpunan fuzzy untuk atribut TG.

Gambar 11 Himpunan fuzzy atribut TG untuk PFDT. *W$VV$H  Y Z H [ ]] ^ NH . h]Y O4 Z ]] [ H [ hY  . ^ Nh] . HY O4 Z hY [ H [ h] Y Z H a h] *bcUdH   Z H [ \]  . ^ NH . \]Y O4 Z \] [ H [ _Y ^ N_] . HY O4 Z _Y [ H [ _] Y Z H a _] *bcUdH   Z H [ _]  . ^ NH . _]Y O4 Z _] [ H [ ]Y ^ N]] . HY O4 Z ]Y [ H [ ]] Y Z H a ]] *W$VV$H  Y ZH [ _] ^ NH . _]Y O4 Z _] [ H [ ]Y  . ^ N]] . HY O4 Z ]Y [ H [ ]] Y Z H a ]] rendah sedang tinggi sangatTinggi

rendah sedang tinggi

(6)

 Atribut Diagnosis

Atribut Diagnosis selanjutnya akan disebut sebagai CLASS, direpresentasikan oleh dua buah peubah linguistik yaitu “negatif diabetes” dan “positif diabetes”. Kedua

linguistic term-nya didefinisikan sebagai berikut:

“negatif diabetes” = 0 “positif diabetes” = 1

Untuk atribut diagnosis ini tidak ada perbedaan antara FDT dan PFDT.

Nilai setiap record atribut GLUN, GPOST, HDL, dan TG kemudian akan ditransformasi ke dalam bentuk himpunan

fuzzy dengan menggunakan program Matlab. Nilai-nilai dari atribut CLASS yang awalnya berisi hasil diagnosis laboratorium akan ditransformasikan menjadi 2 (dua) kategori saja, yaitu negatif diabetes yang direpresentasikan dengan angka 1, dan positif diabetes yang direpresentasikan dengan angka 2.

Data Mining

Pada tahap ini dilakukan teknik data

mining menggunakan algoritma FID3 untuk membangun fuzzy decision tree (FDT) dan algoritma PFID3 untuk membangun

probabilistic fuzzy decision tree (PFDT). Proses data mining ini dilakukan dengan menggunakan program Matlab 7.0.1 yang telah dibuat oleh peneliti sebelumnya (Romansyah 2007). Program untuk membangun PFDT ini sama dengan program untuk membangun FDT karena tidak ada perbedaan coding antara FDT dan PFDT.

Training set dan testing set yang digunakan sama persis dengan penelitian sebelumnya, hal ini bertujuan membandingkan hasil antara penelitian sebelumnya (PFDT(1)), FDT, dan PFDT(2). Untuk selanjutnya hasil penelitian sebelumnya dituliskan dengan PFDT(1), sedangkan PFDT(2) untuk penelitian saat ini. Perbedaan PFDT(1) dengan PFDT(2) adalah PFDT(1) menggunakan fungsi membership

function dengan kurva berbentuk trapesium sedangkan PFDT(2) menggunakan z-shaped,

phi-shaped, dan s-shaped (Liang 2005). • Fase Pembentukan Pohon Keputusan

Fase training dilakukan untuk membangun FDT dan PFDT dengan algoritma FID3 dan PFID3. Proses training dilakukan sama dengan proses training yang dilakukan pada penelitian sebelumnya (Romansyah 2007).

Proses training dilakukan sebanyak 480 kali, untuk masing-masing metode (FDT dan

PFDT) sebanyak 240 kali. Untuk tiap training

set, proses training dilakukan sebanyak 24 kali, dengan mengubah nilai  sebanyak 6 kali yaitu 75%, 80%, 85%, 90%, 95%, dan 98%, dan untuk masing-masing nilai  yang sama diberikan nilai  yang berbeda-beda yaitu 3%, 5%, 8%, dan 10%. Jumlah aturan dan waktu eksekusi untuk masing-masing

training set secara keseluruhan dapat dilihat pada Lampiran 2 dan Lampiran 3 secara berturut-turut. Perbandingan rata-rata jumlah aturan yang dihasilkan pada proses training dan waktu eksekusi yang dibutuhkan dapat dilihat pada Tabel 3, Tabel 4, dan Tabel 5. Tabel 3 Rata-rata jumlah aturan FDT

FCT () LDT () 3% 5% 8% 10% 75% 4 4 4 4 80% 7 7 6 6 85% 10 10 10 9 90% 18 18 17 16 95% 27 27 26 24 98% 41 40 39 37

Tabel 4 Rata-rata jumlah aturan PFDT(1) FCT () LDT () 3% 5% 8% 10% 75% 4 4 4 4 80% 7 7 7 6 85% 11 10 10 8 90% 12 11 10 8 95% 20 18 15 11 98% 27 24 20 16

Tabel 5 Rata-rata jumlah aturan PFDT(2) FCT () LDT () 3% 5% 8% 10% 75% 4 4 4 4 80% 7 7 7 6 85% 10 10 9 8 90% 11 10 10 8 95% 21 18 15 12 98% 26 23 20 16

Dari Tabel 3, Tabel 4, dan Tabel 5 dapat dilihat perbandingan rata-rata jumlah aturan yang dihasilkan oleh masing-masing metode. Hasil PFDT(1) dan PFDT(2) tidak mengalami perubahan yang siginifikan dalam jumlah

(7)

aturan, sedangkan jika dibandingkan dengan hasil FDT terdapat perbedaan rata-rata jumlah aturan yang cukup mencolok. Hal ini disebabkan pada training set FDT, jumlah nilai dari membership function tidak sama dengan satu, sedangkan pada PFDT jumlah nilai dari membership function untuk masing-masing atribut sama dengan satu. Hal ini berimplikasi pada proses ekspansi dalam pembentukan tree yang menghasilkan aturan. Proses ekspansi ini juga dipengaruhi oleh leaf

decision threshold (). Pada kasus ini,

training set PFDT memiliki beberapa nilai

linguistic term sama dengan nol, sedangkan pada FDT dapat memiliki sebuah nilai yang bernilai nol pada PFDT. Contoh perbedaan hasil FDT dan PFDT pada training set 30 dan 33 dapat dilihat pada Tabel 6. Perbedaan hasil ini menyebabkan jumlah data yang tersisa pada FDT menjadi lebih banyak dibandingkan dengan PFDT. Jika jumlah record dalam suatu node lebih banyak, maka kemungkinan besar program melakukan ekspansi node tersebut karena tidak memenuhi leaf decision threshold ().

Tabel 6 Contoh perbandingan hasil FDT dan PFDT Derajat Keanggotaan No. Data Training Nilai Atribut GLUN FDT PFDT Rendah 30 262 0 0 33 130 0 0 Sedang 30 262 8.09E-11 0 33 130 0.284572 0 Tinggi 30 262 3.96E-07 0 33 130 0.980555 1 Sangat Tinggi 30 262 1 1 33 130 0 0 Jika diamati dengan seksama pada Tabel 3, 4, dan 5, walaupun nilai LDT () ditingkatkan, jumlah aturan yang dihasilkan tidak mengalami penurunan yang signifikan. Berdasarkan pengamatan yang dilakukan pada penelitian sebelumnya, ternyata karakteristik data pada training set yang digunakan tidak terlalu berbeda, pada saat terjadi ekspansi tree data tidak akan terlalu menyebar, karenanya jumlah data yang ada pada sub-node tidak berbeda jauh dengan jumlah data yang ada pada root-node. Dengan adanya situasi yang demikian, syarat untuk menghentikan ekspansi tree yaitu jumlah data atau record pada sub-node harus lebih kecil dari nilai  sulit untuk tercapai.

Nilai  yang terlalu rendah dan atau  yang terlalu tinggi akan menghasilkan tree dengan ukuran yang kecil sehingga jumlah aturan yang dihasilkan juga sangat sedikit. Hal

ini terjadi karena tree yang sedang dibangun mengalami pemangkasan (pruning) pada saat model masih mempelajari struktur dari

training set. Sebaliknya, nilai  yang terlalu tinggi dan atau  yang terlalu rendah kadang kala akan menyebabkan FDT dan PFDT berperilaku seperti decision tree biasa yang tidak memerlukan adanya threshold sehingga menghasilkan tree dengan ukuran sangat besar dan jumlah aturan yang juga sangat banyak, karena tree akan terus diekspansi sampai

leaf-node terdalam.

Gambar 12 Perbandingan rata-rata jumlah aturan untuk nilai  sebesar 10%.

Gambar 12 menunjukkan perbandingan rata-rata jumlah aturan yang dihasilkan oleh FDT, PFDT(1), dan PFDT(2) pada proses

training untuk LDT () 10%. Dapat terlihat bahwa dalam semua metode yang metode yang digunakan semakin tinggi nilai  akan menyebabkan jumlah aturan yang dihasilkan juga meningkat dan peningkatan yang signifikan terjadi pada FDT.

Gambar 13 Perbandingan rata-rata waktu eksekusi proses training untuk nilai  sebesar 10%.

Dari Gambar 12 dan Gambar 13, dapat disimpulkan bahwa, semakin tinggi nilai  yang digunakan akan menghasilkan jumlah aturan yang semakin banyak sehingga waktu yang dibutuhkan untuk menghasilkan aturan-aturan tersebut juga meningkat. Hal ini terjadi karena proses yang harus dilakukan untuk membangun tree semakin banyak.

Dari Tabel 3, Tabel 4, dan Tabel 5 dapat dilihat bahwa untuk nilai FCT () sebesar 98% dan LDT () sebesar 3% dapat

(8)

disimpulkan bahwa rata-rata jumlah aturan yang dihasilkan oleh FDT dan PFDT jauh berbeda. Rata-rata aturan yang dihasilkan FDT sebanyak 41 aturan, PFDT(1) sebanyak 27 aturan, dan PFDT(2) sebanyak 26 aturan. • Akurasi FDT, PFDT(1), dan PFDT(2)

Untuk mengukur tingkat akurasi dari model yang dihasilkan pada fase training, proses testing dilakukan sebanyak 480 kali, masing-masing 240 kali untuk model FDT dan PFDT(2). Proses testing dilakukan dengan cara memasukkan aturan yang diperoleh dari proses training ke dalam sebuah FIS Mamdani untuk menentukan kelas dari masing-masing record dan test set. Untuk satu kali proses training dilakukan satu kali proses

testing. Hasil proses testing secara keseluruhan dari masing-masing model dapat dilihat pada Lampiran 4.

Gambar 14 Perbandingan rata-rata akurasi untuk nilai  sebesar 10%. Dengan melihat Gambar 14 dapat disimpulkan bahwa nilai akurasi pada metode FDT dan PFDT tidak jauh berbeda untuk kasus ini. Hal ini dikarenakan data training dan testing yang digunakan terlalu seragam.

Training set yang digunakan mayoritas (90%) merupakan kelas negatif diabetes, sehingga aturan yang dihasilkan hanya memiliki keluaran kelas negatif diabetes. Apabila aturan yang dihasilkan semuanya memiliki kelas negatif diabetes, maka ketika melakukan proses testing akan menghasilkan keluaran yang seragam yaitu negatif diabetes. Perbandingan evaluasi kinerja dari algoritma FID3 dan PFID3 pada nilai  dan  yang berbeda dapat dilihat pada Tabel 7, Tabel 8, dan Tabel 9. Gambar 15 menunjukkan perbandingan rata-rata akurasi FDT, PFDT(1), dan PFDT(2) untuk  10%.

Dari Tabel 7, Tabel 8, Tabel 9, dan Gambar 15 dapat disimpulkan bahwa nilai akurasi pada masing-masing metode tidak jauh berbeda. Akurasi algoritma FID3 dan PFID3 mengalami penurunan jika nilai  semakin besar dan atau nilai  semakin kecil,

walaupun penurunan yang terjadi tidaklah signifikan sehingga masih dapat ditoleransi. Tabel 7 Rata-rata akurasi FDT

FCT () LDT () 3% 5% 8% 10% 75% 94.1% 94.1% 94.1% 94.1% 80% 93.1% 93.1% 93.5% 93.5% 85% 93.1% 93.1% 93.5% 93.5% 90% 93.1% 93.1% 93.5% 93.5% 95% 93.1% 93.1% 93.5% 93.5% 98% 92.8% 93.1% 93.5% 93.5% Tabel 8 Rata-rata akurasi PFDT(1)

FCT () LDT () 3% 5% 8% 10% 75% 94.14% 94.14% 94.15% 94.15% 80% 92.07% 92.07% 93.45% 93.45% 85% 92.07% 92.07% 93.45% 93.45% 90% 92.07% 92.07% 93.45% 93.45% 95% 90.69% 91.73% 93.10% 93.45% 98% 90.69% 91.73% 93.10% 93.45% Tabel 9 Rata-rata akurasi PFDT(2)

FCT () LDT () 3% 5% 8% 10% 75% 94.14% 94.14% 94.14% 94.14% 80% 92.07% 92.07% 93.45% 93.45% 85% 92.07% 92.07% 93.45% 93.45% 90% 92.07% 92.07% 93.45% 93.45% 95% 90.00% 91.72% 93.10% 93.45% 98% 90.00% 91.72% 93.10% 93.45%

Gambar 15 Akurasi FDT, PFDT(1), dan PFDT(2) untuk nilai  sebesar 10%.

Dari Tabel 7, Tabel 8, dan Tabel 9 juga dapat dilihat untuk nilai FCT () sebesar 98% dan LDT () sebesar 3% dapat disimpulkan bahwa rata-rata akurasi FDT lebih besar dari PFDT walaupun tidak terlalu

(9)

jauh berbeda. Rata-rata akurasi untuk FDT sebesar 92.8%, PFDT(1) sebesar 90.69%, dan PFDT(2) sebesar 90%.

Representasi Pengetahuan

Model hasil proses training digunakan untuk mengetahui label kelas pada data yang baru. Model tersebut dipilih berdasarkan 3 (tiga) kriteria berikut yang diurutkan berdasarkan prioritas (Romansyah 2007): 1 Model yang mencakup semua kelas target

yang mungkin muncul dalam test set, dalam penelitian ini kelas target yang mungkin muncul yaitu kelas target 1 (negatif diabetes) dan kelas 2 (positif diabetes).

2 Model dengan akurasi yang tinggi, semakin tinggi akurasinya maka semakin baik model tersebut.

3 Model dengan jumlah aturan yang paling banyak.

Berdasarkan kriteria tersebut maka model yang dipilih adalah hasil training dengan nilai  dan  masing-masing 98% dan 3 % dari pasangan training set dan test set ke-8 untuk FDT dan ke-10 untuk PFDT(2).

• Aturan-Aturan dari FDT

Terdapat 46 aturan yang dihasilkan dari FDT, dimana hanya 1 aturan yang mengandung kelas target positif diabetes. Model yang dihasilkan dapat dilihat pada Lampiran 5.

• Aturan-aturan dari PFDT(2)

Terdapat 30 aturan yang dihasilkan PFDT(2), dimana hanya 1 aturan yang mengandung kelas target positif diabetes. Model yang dihasilkan dapat dilihat pada Lampiran 6.

KESIMPULAN DAN SARAN

Kesimpulan

Dari berbagai percobaan yang dilakukan dengan menggunakan data training dan

testing yang sama dengan penelitian

sebelumya, dapat disimpulkan bahwa pembentukan pohon keputusan dengan menggunakan algoritma FID3 dengan pendekatan tanpa well-defined sample space pada fungsi keanggotaan dan algoritma PFID3 dengan pendekatan well-defined sample space memiliki jumlah aturan yang berbeda.

Jumlah aturan yang dihasilkan FDT lebih banyak dari jumlah aturan PFDT. Untuk nilai

FCT () sebesar 98% dan LDT () sebesar 3%, jumlah rata-rata aturan yang dihasilkan FDT sebanyak 41 aturan, PFDT(1) sebanyak 27 aturan, dan PFDT(2) sebanyak 26 aturan. Nilai akurasi FDT lebih besar dari PFDT denagn rata-rata akurasi FDT sebesar 92.8%, PFDT(1) sebesar 90.69%, dan PFDT(2) sebesar 90%. Hal ini disebabkan karena adanya perbedaan jumlah aturan yang dihasilkan oleh FDT lebih banyak dari PFDT(1) dan PFDT(2) sehingga nilai akurasi yang memiliki jumlah aturan yang banyak akan mempunyai nilai akurasi yang lebih besar.

Saran

Pada penelitian ini masih terdapat beberapa kekurangan yang dapat diperbaiki pada penelitian selanjutnya. Pada penelitian ini, data yang digunakan kurang representatif karena jumlah data yang positif diabetes hanya 17 record, sedangkan yang negatif diabetes sebanyak 273 record. Dengan data yang ada, belum dapat dinyatakan bahwa PFDT tidak lebih baik dibandingkan dengan FDT. Pada penelitian selanjutnya diharapkan menggunakan data yang lebih representatif dengan perbandingan jumlah data yang positif dan negatif diabetes yang sama besar, sehingga aturan klasifikasi yang dihasilkan memiliki akurasi yang lebih baik lagi.

DAFTAR PUSTAKA

Cox E. 2005. Fuzzy Modeling and Genetic

Algorithms for Data Mining and Exploration. USA: Academic Press. Han J, Kamber M. 2001. Data Mining:

Concepts and Techniques. USA:

Academic Press.

Herwanto. 2006. Pengembangan Sistem Data

Mining untuk Diagnosis Penyakit

Diabetes Menggunakan Algoritme

Classification Based Association

[Tesis]. Bogor. Departemen Ilmu Komputer Fakultas Matematika dan Ilmu Pengetahuan Alam Institut Pertanian Bogor.

Jang JSR, Sun CT, Mizutani Eiji. 1997.

Neuro-Fuzzy and Soft Computing.

London: Prentice-Hall International, Inc.

Kantardzic M. 2003. Data Mining: Concepts,

Models, Methods, and Algorithms.

Gambar

Tabel 1 Kelompok percobaan  Kelompok  Algoritme yang  digunakan  Fungsi  Keanggotaan  FDT  Fuzzy ID3  s-shaped,  gaussian,  p-shaped  PFDT(1)  Probabilistic  Fuzzy ID3  triangle,  trapezoid  PFDT(2)  Probabilistic  Fuzzy ID3  s-shaped,  gaussian,  p-shaped
Tabel  2  Daftar  range  normal  untuk  setiap  atribut  Kode  Pemeriksaan  Satuan  Nilai  Normal  GLUN  Mg/DL  70 – 100  GPOST  Mg/DL  100 – 140  HDL  Mg/DL  40 – 60  TG  Mg/DL  50 – 150
Gambar  5  Himpunan  fuzzy  atribut  GPOST  untuk FDT.
Gambar  7  Himpunan  fuzzy  atribut  TG  untuk  FDT.
+5

Referensi

Dokumen terkait

Guru sebagai sumber daya manusia (SDM) yang ada di SMP Negeri 1 Ketahun merupakan bagian penting sebuah kunci keberhasilan dan mempunyai peranan yang menentukan

Dari semua teknik seni grafis, cetak tinggi ini relatif yang paling mudah untuk dimengerti dibandingkan dengan teknik lain, dari segi alat bahan dan juga tahap demi

Hal ini dipengaruhi oleh trend perumahan saat ini yang masih menampilkan style/langgam minimalis dalam desain rumah, dan juga dari marketing rumah melalui iklan-iklan

Faktanya, ternyata dengan diimplementasikannya strategi untuk pengembangan wilayah pesisir dan pulau kecil di Kabupaten Sampang secara berkelanjutan yang telah

Di lapangan, PKDTK diaplikasikan sebagai program yang dirancang melalui proses peningkatan pengetahuan, sikap, perilaku dan keterampilan (pendidikan), dari, oleh, untuk dan bersama

Sementara dari sisi Quality Rate, mesin ini sempurna karena tidak ada kegagalan pengujian sarna sekali, berarti pelaksana sudah terlatih dengan benar dan mesin mampu

larut dan pengencer organik terhadap koefisien dlstrlbusi Uranium, te- lah diJakukan percobaan ]radiasi dengan sinar y Co terhadap campuran 30? TBP - 70!? n. Selain itu dilaku-

Jika daftar program yang diinstal tidak berisi program yang akan dihapus, Anda dapat menggunakan File Explorer pada perangkat untuk mencari program dan menghapusnya dengan