• Tidak ada hasil yang ditemukan

BAB III PEMBAHASAN. 1. Arsitektur Fuzzy Radial Basis Function Neural Network (FRBFNN) Fuzzy Radial Basis Function Neural Network (FRBFNN) merupakan

N/A
N/A
Protected

Academic year: 2021

Membagikan "BAB III PEMBAHASAN. 1. Arsitektur Fuzzy Radial Basis Function Neural Network (FRBFNN) Fuzzy Radial Basis Function Neural Network (FRBFNN) merupakan"

Copied!
63
0
0

Teks penuh

(1)

38 BAB III PEMBAHASAN A. Fuzzy Radial Basis Function (FRBFNN)

1. Arsitektur Fuzzy Radial Basis Function Neural Network (FRBFNN)

Fuzzy Radial Basis Function Neural Network (FRBFNN) merupakan gabungan dari sistem fuzzy, Radial Basis Function (RBF) dan Neural Network (NN). FRBFNN adalah model RBFNN dengan input, bobot atau output yang berupa himpunan fuzzy. Pendekatan FRBFNN dibangun atas dasar meminimalkan kuadrat dari total perbedaan antara output pengamatan dan output perkiraan. (Pehlivan & Apaydin, 2016: 61).

Prinsip model Fuzzy Radial Basis Function Neural Network (FRBFNN) mengacu pada model Radial Basis Function Neural Network (RBFNN). Arsitektur model RBFNN terdiri dari 3 lapisan, yaitu lapisan input (input layer), lapisan tersembunyi (hidden layer) dan lapisan output (output layer). Lapisan input menerima suatu vektor input x yang kemudian dibawa ke lapisan tersembunyi. Pada lapisan tersembunyi dilakukan transformasi nonlinear terhadap data dari lapisan input menggunakan fungsi basis radial sebelum diproses secara linear pada lapisan output (Wei et al, 2011:65). Hal tersebut menjadi salah satu acuan pada model FRBFNN. Namun, terdapat hal mendasar yang membedakan antara kedua model tersebut yaitu adanya penambahan proses fuzzifikasi nilai input pada input layer yang terdapat pada model FRBFNN. Pada tugas akhir ini hanya menggunakan satu neuron output, maka pada Gambar 3.1 berikut merupakan arsitektur jaringan dari model FRBFNN dengan 1 neuron output:

(2)

39

Gambar 3.1 Arsitektur Fuzzy Radial Basis Function Neural Network (FRBFNN)

Berdasarkan Gambar 3.2, 𝑥1, 𝑥2, … , 𝑥𝑝 adalah neuron pada lapisan input

yang berupa bilangan crisp. 𝜇1.1(𝑥1), 𝜇2.1(𝑥1), … , 𝜇𝑙.𝑗(𝑥𝑙), . . . , 𝜇𝑞.𝑝(𝑥𝑝)adalah

neuron pada lapisan input yang berupa bilangan fuzzy, 𝜑1, 𝜑2, … , 𝜑𝑟 adalah

neuron pada lapisan tersembunyi dan 𝑦 adalah neuron pada lapisan output, sedangkan 𝑤𝑘 adalah bobot pada lapisan tersembunyi dan lapisan output. Dalam arsitektur FRBFNN juga ditambahkan sebuah neuron bias pada lapisan tersembunyi. Bias tersebut berfungsi untuk membantu neural network dalam mengolah informasi dengan lebih baik.

Input Layer: Crisp Input Input Layer: Fuzzy Input Hidden Layer Output Layer bias 𝑤1 𝑤0 𝑤𝑟 𝑤3 𝑤2 𝜑1 𝜑2 𝜑3 … 𝜑𝑟 1 y … … … … 𝑥1 𝜇1.1(𝑥1) 𝑥2 𝑥𝑝 𝜇2.1(𝑥1) 𝜇𝑞.1(𝑥1) 𝜇1.2(𝑥2) 𝜇2.2(𝑥2) 𝜇𝑞.2(𝑥2) 𝜇1.𝑝(𝑥𝑝) 𝜇2.𝑝(𝑥𝑝) 𝜇𝑞.𝑝(𝑥𝑝)

(3)

40

2. Model Fuzzy Radial Basis Function Neural Network (FRBFNN)

Model Fuzzy Radial Basis Function Neural Network (FRBFNN) mengacu pada model Radial Basis Function Neural Network (RBFNN) yang menggunakan fungsi basis sebagai fungsi aktivasi untuk setiap neuron pada lapisan tersembunyi. Beberapa fungsi radial basis adalah sebagai berikut (Andrew, 2002: 74).

a. Fungsi Gaussian

𝜑[𝜇(𝑥)] = 𝑒𝑥𝑝 (−(𝝁(𝒙)−𝑐)2

𝑟2 ) (3.1)

b. Fungsi Multikuadratik

𝜑[𝜇(𝑥)] = √(𝜇(𝑥) − 𝑐)2+ 𝑟2 (3.2)

c. Fungsi Invers Multikuadratik

𝜑[𝜇(𝑥)] = 𝑟 √(𝜇(𝑥)−𝑐)2+𝑟 𝑟2 (3.3) d. Fungsi Cauchy 𝜑[𝜇(𝑥)] =((𝜇(𝑥)−𝑐)2+𝑟2) −1 𝑟 (3.4) dengan,

𝑟 = jarak pada neuron tersembunyi dari variabel input ke cluster 𝝁(𝒙) = nilai input himpunan fuzzy

𝑐 = nilai pusat pada neuron tersembunyi dari variabel input ke cluster 𝜑[𝝁(𝒙)] = fungsi aktivasi neuron tersembunyi

Hasil output y yang dihasilkan dari model FRBFNN merupakan kombinasi linear dari bobot 𝑤𝑘 dengan fungsi aktivasi 𝜑𝑘[𝝁(𝒙)] dan bobot bias 𝑤0. Vektor

output 𝑦 dirumuskan sebagai berikut (Orr, 1996:11):

(4)

41 dengan, 𝜑𝑘[𝝁(𝒙)] = 𝑒𝑥𝑝 (− ∑ ∑ (𝜇𝑙.𝑗(𝑥𝑗)−𝑐𝑘(𝑙.𝑗))2 𝑟𝑘2 𝑞 𝑙=1 𝑝 𝑗=1 )

𝑟𝑘 = jarak maksimum pada cluster ke-k

𝑐𝑘(𝑙.𝑗) = pusat cluster ke-k untuk nilai input fuzzy ke-l dan variabel ke-j 𝑤𝑘 = bobot dari neuron lapisan tersembunyi ke-k menuju neuron output

𝑤0 = bobot bias dari neuron lapisan tersembunyi ke-k menuju neuron output 𝜑0 = fungsi aktivasi bias dimana nilainya adalah 1

𝜑𝑘[𝝁(𝒙)] = fungsi aktivasi neuron tersembunyi ke-k

𝝁(𝒙) = [𝜇1.1(𝑥1), 𝜇2.1(𝑥1), … , 𝜇𝑙.𝑗(𝑥𝑙), . . . , 𝜇𝑞.𝑝(𝑥𝑝)] merupakan vektor input

berupa himpunan fuzzy 𝑗 = 1,2, … 𝑝 banyaknya variabel X 𝑙 = 1,2, … 𝑞 banyaknya himpunan fuzzy

𝑘 = 1,2, … 𝑟 banyaknya neuron pada hidden layer

Karena 𝜑0 = 1 maka persamaan (3.5) dapat ditulis sebagai berikut:

𝑦 = ∑𝑟𝑘=1𝑤𝑘𝜑𝑘[𝝁(𝒙)] + 𝑤0 (3.6) Pada tugas akhir ini, fungsi keanggotaan yang digunakan yaitu fungsi keanggotaan segitiga, sedangkan fungsi basis sebagai fungsi aktivasi pada lapisan tersembunyi menggunakan fungsi basis Gaussian (persamaan 3.1) serta menggunakan fungsi aktivasi linear (persamaan 2.9) pada lapisan output.

3. Algoritma Pembelajaran Fuzzy Radial Basis Function Neural Network (FRBFNN)

Konsep dasar dari model Fuzzy Radial Basis Function Neural Network (FRBFNN) ini adalah penerapan aplikasi teori fuzzy ke dalam model dasar

(5)

42

jaringan syaraf Radial Basis Function (RBF). Model Fuzzy Radial Basis Function Neural Network (FRBFNN) adalah model unsupervised-supervised learning (Chi & Hsu, 2001: 2808). Metode pembelajaran tidak terawasi (unsupervised learning) digunakan pada proses dari lapisan input menuju lapisan tersembunyi dan metode pembelajaran terawasi (supervised learning) digunakan pada proses yang terjadi dari lapisan tersembunyi menuju lapisan output (Chen et al, 2005: 323).

Algoritma pembelajaran FRBFNN yang pertama adalah melakukan proses fuzzifikasi yaitu mengubah nilai input yang berupa bilangan crisp menjadi bilangan fuzzy. Selanjutnya dilakukan normalisasi terhadap data input hasil fuzzifikasi tersebut. Prosedur pembelajaran FRBFNN selanjutnya mengacu pada algoritma pembelajaran RBFNN yang terbagi menjadi tiga bagian, yaitu (Andrew, 2002: 80):

a. Menentukan pusat dan jarak pada setiap fungsi basis. Pada penelitian ini, pusat dan jarak dari setiap fungsi basis dicari menggunakan metode K-means Clustering. Algoritma K-Means merupakan metode clustering yang pada awalnya mengambil komponen populasi untuk dijadikan pusat cluster awal. Pada tahap ini pusat cluster dipilih secara acak dari sekumpulan populasi data. Berikutnya K-Means menguji masing-masing komponen di dalam populasi data dan menandai komponen tersebut ke salah satu pusat cluster yang telah didefinisikan tergantung dari jarak minimum antar komponen dengan tiap-tiap cluster. Posisi pusat cluster akan dihitung kembali sampai semua komponen data digolongkan kedalam tiap-tiap pusat cluster dan terakhir akan terbentuk posisi pusat cluster yang baru (Metisen & Sari, 2015: 113).

(6)

43

Berikut ini adalah ilustrasi penggunaan algoritma K‐means untuk menentukan cluster dari 4 buah obyek dengan 2 atribut, seperti ditunjukkan dalam Tabel 3.1 berikut.

Tabel 3. 1 Tabel Sampel Data Obyek Atribut 1 (X): indeks berat Atribut 2 (Y): pH Obat A 1 1 Obat B 2 1 Obat C 4 3 Obat D 5 4

Clustering akan dilakukan untuk membentuk 2 cluster jenis obat berdasarkan atributnya. Langkah‐langkah algoritma K‐Means clustering adalah sebagai berikut:

1) Penentuan nilai awal titik tengah

Misalkan obat A dan obat B masing‐masing menjadi titik tengah (centroid) dari cluster yang akan dibentuk, sehingga diperoleh koordinat kedua centroid tersebut yaitu 𝑐1 = (1,1) dan 𝑐2 = (2,1).

2) Menghitung jarak obyek ke centroid dengan menggunakan rumus jarak Euclid

Misal akan dihitung jarak obat D ke centroid pertama 𝑐1 = (1,1) dan centroid kedua 𝑐2 = (2,1) dengan menggunakan jarak Euclide seperti

pada persamaan 2.13. Berikut ini merupakan hasil perhitungannya: 𝑑(𝐷, 𝑐1) = √(5 − 1)2 + (4 − 1)2 = 5

(7)

44

𝐴 𝐵 𝐶 𝐷

𝐴 𝐵 𝐶 𝐷

𝐴 𝐵 𝐶 𝐷

Proses perhitungan tersebut juga diterapkan untuk menghitung jarak obat A, B, C ke centroid pertama dan centroid kedua. Hasil perhitungan jarak ini disimpan dalam bentuk matriks 𝑘 𝑥 𝑛, dengan 𝑘 banyaknya cluster dan 𝑛 banyak obyek. Setiap kolom dalam matriks tersebut menunjukkan obyek sedangkan baris pertama menunjukkan jarak ke centroid pertama, baris kedua menunjukkan jarak ke centroid kedua. Matriks jarak setelah iterasi ke‐0 adalah sebagai berikut:

𝐷0 = [0 1 3,61 5 1 0 2,83 4,24]

𝑐𝑙𝑢𝑠𝑡𝑒𝑟 1 𝑐𝑙𝑢𝑠𝑡𝑒𝑟 2

Gambar 3.2 berikut merupakan gambar ilustrasi untuk iterasi ke- 0 pada metode K-Means clustering.

Gambar 3. 2 Gambar Ilustrasi untuk Iterasi 0

3) Clustering obyek: Memasukkan setiap obyek ke dalam cluster berdasarkan jarak minimumnya. Jadi obat A dimasukkan ke cluster 1, dan obat B, C dan D dimasukkan ke cluster 2. Keanggotaan obyek ke dalam cluster dinyatakan dengan matrik, elemen dari matriks bernilai 1 jika sebuah

Atribut 1 (X): indeks berat

A tr ib ut 2 ( Y ): pH

(8)

45 𝐴 𝐵 𝐶 𝐷

𝐴 𝐵 𝐶 𝐷

𝐴 𝐵 𝐶 𝐷

obyek menjadi anggota grup. Berikut adalah matriks keanggotaan yang baru.

𝐺0 = [1 0 0 0 0 1 1 1]

𝑐𝑙𝑢𝑠𝑡𝑒𝑟 1 𝑐𝑙𝑢𝑠𝑡𝑒𝑟 2

4) Iterasi-1, menentukan centroid: Berdasarkan anggota masing‐masing cluster, selanjutnya ditentukan centroid baru. Cluster 1 hanya berisi 1 obyek, sehingga centroidnya tetap 𝑐1 = (1,1). Cluster 2 mempunyai 3

anggota, sehingga centroidnya ditentukan berdasarkan rata‐rata koordinat ketiga anggota tersebut:

𝑐2 = (2+4+5 3 , 1+3+4 3 ) = ( 11 3 , 8 3)

5) Iterasi‐1, menghitung jarak obyek ke centroid: selanjutnya, jarak antara centroid baru dengan seluruh obyek dalam cluster dihitung kembali sehingga diperoleh matriks jarak sebagai berikut:

𝐷1 = [ 0 1 3,61 5 3,14 2,36 0,47 1,89]

𝑐𝑙𝑢𝑠𝑡𝑒𝑟 1 𝑐𝑙𝑢𝑠𝑡𝑒𝑟 2

6) Iterasi‐1, clustering obyek: langkah ke‐3 diulang kembali, menentukan keanggotaan cluster berdasarkan jarak minimumnya. Berdasarkan matriks jarak yang baru, maka obat B harus dipindah ke cluster 2. Berikut adalah matriks keanggotaan yang baru.

𝐺1 = [1 1 0 0

0 0 1 1]

𝑐𝑙𝑢𝑠𝑡𝑒𝑟 1 𝑐𝑙𝑢𝑠𝑡𝑒𝑟 2

Gambar 3.3 berikut merupakan gambar ilustrasi untuk iterasi ke- 1 pada metode K-Means clustering.

(9)

46

𝐴 𝐵 𝐶 𝐷

𝐴 𝐵 𝐶 𝐷

Gambar 3. 3 Gambar Ilustrasi untuk Iterasi 1

7) Iterasi‐2, menentukan centroid: langkah ke‐4 diulang kembali untuk menentukan centroid baru berdasarkan keanggotaan cluster yang baru. Cluster 1 dan cluster 2 masing‐masing mempunyai 2 anggota, sehingga centroidnya menjadi 𝑐1 = (1+2 2 , 1+1 2 ) = (1 1 2, 1)dan 𝑐2 = ( 4+5 2 , 3+4 2 ) = (41 2, 3 1 2).

8) Iterasi‐2, menghitung jarak obyek ke centroid : ulangi langkah ke‐2, sehingga diperoleh matriks jarak sebagai berikut:

𝐷2 = [0,5 0,5 3,20 4,61 4,30 3,54 0,71 0,71]

𝑐𝑙𝑢𝑠𝑡𝑒𝑟 1 𝑐𝑙𝑢𝑠𝑡𝑒𝑟 2

9) Iterasi‐2, clustering obyek: mengelompokkan tiap‐tiap obyek berdasarkan jarak minimumnya, diperoleh:

𝐺2 = [1 1 0 0 0 0 1 1] 𝑐𝑙𝑢𝑠𝑡𝑒𝑟 1 𝑐𝑙𝑢𝑠𝑡𝑒𝑟 2 A tr ib ut 2 ( Y ): pH

(10)

47

Atribut 1 (X): indeks berat

Gambar 3.4 berikut merupakan gambar ilustrasi untuk iterasi ke- 2 pada metode K-Means clustering.

Gambar 3. 4 Gambar Ilustrasi untuk Iterasi 2

Hasil pengelompokkan pada iterasi terakhir dibandingkan dengan hasil sebelumnya, diperoleh 𝐺1 = 𝐺2. Hasil ini menunjukkan bahwa tidak ada lagi obyek yang berpindah cluster, dan algoritma telah stabil. Hasil akhir clustering ditunjukkan dalam Tabel 3.2 berikut:

Tabel 3. 2 Hasil Clustering Obyek Atribut 1 (X): indeks berat Atribut 2 (Y): pH Hasil cluster Obat A 1 1 1 Obat B 2 1 1 Obat C 4 3 2 Obat D 5 4 2

b. Menentukan jumlah fungsi basis (neuron pada lapisan tersembunyi) dilakukan dengan metode trial and error.

A tr ib ut 2 ( Y ): pH

(11)

48

c. Menentukan bobot output layer jaringan optimum. Bobot output layer jaringan optimum ditentukan dengan menggunakan metode global ridge regression. Metode global ridge digunakan untuk mengestimasi bobot dengan cara menambahkan parameter regulasi yang bernilai positif pada sum square error (SSE). Estimasi bobot terbaik didapatkan dari hasil akhir dengan SSE terkecil. Untuk mendapatkan SSE terkecil, dilakukan metode untuk meminimalkan SSE yaitu dengan metode kuadrat terkecil (least square) yang bertujuan mempermudah dalam penyelesaian masalah optimum.

Pada tugas akhir ini metode least square yang digunakan untuk menentukan nilai bobot dengan menghasilkan akurasi maksimum. Model linear yang digunakan adalah 𝑦 = ∑𝑟𝑘=1𝑤𝑘𝜑𝑘[𝝁(𝒙)] + 𝑤0. Berikut adalah perumusan dari metode least square:

𝑆𝑆𝐸 = ∑𝑛 (𝑦𝑖 − 𝑦̂𝑖)2

𝑖=1 (3.7)

dengan,

𝑖 = 1,2, … , 𝑛 banyaknya data pengamatan 𝑦̂𝑖 = nilai klasifikasi variabel output ke-i 𝑦𝑖 = target output ke-i

Untuk menentukan nilai optimum bobot (𝑤𝑘), dapat ditentukan

dengan cara menurunkan SSE terhadap bobot-bobotnya, sehingga diperoleh:

𝜕𝑆𝑆𝐸 𝜕𝑤𝑘 = 2 ∑ (𝑦𝑖 − 𝑛 𝑖=1 𝑦̂𝑖) 𝜕𝑦 𝜕𝑤𝑘 (3.8)

Berdasarkan persamaan (3.6) diperoleh:

𝜕𝑦

(12)

49

Persamaan (3.9) disubstitusikan ke persamaan (3.8) dengan hasil sama dengan nol, sehingga diperoleh:

2 ∑𝑛𝑖=1(𝑦𝑖−𝑦̂𝑖)𝜑𝑘[𝝁(𝒙)] = 0 (3.10)

2 ∑𝑛𝑖=1𝑦𝑖 𝜑𝑘[𝝁(𝒙)] = 2 ∑𝑛𝑖=1𝑦̂𝑖𝜑𝑘[𝝁(𝒙)] (3.11) ∑𝑛 𝑦𝑖 𝜑𝑘[𝝁(𝒙)] = ∑𝑛𝑖=1𝑦̂𝑖𝜑𝑘[𝝁(𝒙)]

𝑖=1 (3.12)

Karena k = 1,2,...,r maka diperoleh r persamaan seperti (3.12) untuk menentukan r bobot. Untuk memperoleh penyelesaian tunggal, persamaan (3.12) ditulis dengan notasi vektor, sehingga diperoleh:

𝛗𝑘𝑇𝐲 = 𝛗𝑘𝑇𝐲̂ (3.13) dengan, 𝛗𝑘 = [ 𝜑𝑘[𝝁(𝒙)]1 𝜑𝑘[𝝁(𝒙)]2 ⋮ 𝜑𝑘[𝝁(𝒙)]𝑛 ] , 𝐲 = [ 𝑦1 𝑦2 ⋮ 𝑦𝑛 ] , 𝐲̂ = [ 𝑦̂1 𝑦̂2 ⋮ 𝑦̂𝑛 ]

Karena terdapat r persamaan untuk setiap nilai k, maka persamaan (3.13) dapat ditulis sebagai berikut:

[ 𝛗1𝑇𝐲 𝛗2𝑇𝐲 ⋮ 𝛗𝑟𝑇𝐲] = [ 𝛗1𝑇𝐲̂ 𝛗2𝑇𝐲̂ ⋮ 𝛗𝑟𝑇𝐲̂] 𝛗𝑇𝐲 = 𝛗𝑇𝐲̂ (3.14) dengan, 𝛗 = [𝝋𝟏 𝝋𝟐 … 𝝋𝒓 𝝋𝒃𝒊𝒂𝒔] 𝛗 = [ 𝜑1[𝝁(𝒙)]1 𝜑2[𝝁(𝒙)]1 … 𝜑𝑟[𝝁(𝒙)]1 1 𝜑1[𝝁(𝒙)]2 𝜑2[𝝁(𝒙)]2 … 𝜑𝑟[𝝁(𝒙)]2 1 ⋮ 𝜑1[𝝁(𝒙)]𝑛 ⋮ 𝜑2[𝝁(𝒙)]𝑛 ⋮ 1 … 𝜑𝑟[𝝁(𝒙)]𝑛 1 ]

(13)

50

Matriks 𝛗 merupakan matriks fungsi aktivasi. Komponen ke-i dari y saat bobot pada nilai optimum adalah (Orr, 1994: 43):

𝒚𝒊= ∑𝑟𝑘=1𝑤𝑘𝜑𝑘[𝝁(𝒙)] = 𝛗̅𝐢𝐓𝐰̂ (3.15) dengan, 𝝋̅𝒊= [ 𝜑1[𝝁(𝒙)]1 𝜑2[𝝁(𝒙)]2 ⋮ 𝜑𝑟[𝝁(𝒙)]𝑛 1 ]

Akibat 𝛗𝑘 adalah salah satu kolom dari 𝛗 dan 𝛗̅𝐢𝐓 adalah salah satu baris dari 𝛗. Oleh karena itu, berdasarkan persamaan (3.15) diperoleh:

𝒚 = [ 𝑦1 𝑦2 ⋮ 𝑦𝑛 ] = [ 𝜑1𝑇𝐰̂ 𝜑2𝑇𝐰̂ ⋮ 𝜑𝑛𝑇𝐰̂] = 𝛗𝐰̂ (3.16)

Persamaan (3.16) disubstitusikan ke persamaan (3.14) menjadi:

𝛗𝑇𝐲 = 𝛗𝑇𝐲̂ (3.17)

𝛗𝑇𝛗𝐰̂ = 𝛗𝑇𝐲̂ (3.18)

Jika nilai invers dari 𝛗𝑇𝛗 dapat ditentukan, maka nilai bobot optimum dapat

dicari dengan:

𝐰̂ = (𝛗𝑇𝛗)−1𝛗𝑇𝐲̂ (3.19)

𝐰̂ = 𝐀−𝟏𝛗𝑇𝐲̂ (3.20)

𝐰̂ merupakan nilai bobot dan A adalah matriks perkalian 𝛗𝑇 dengan 𝛗.

Selanjutnya ditambahkan parameter regulasi yang bernilai positif pada SSE sehingga diperoleh fungsi (Orr, 1996: 24):

(14)

51 dengan,

𝑦̂𝑖 = nilai klasifikasi variabel output ke-i 𝑦𝑖 = target output ke-i

𝑖 = 1,2, … , 𝑛 banyaknya data pengamatan 𝜆 = parameter regulasi

𝑤𝑘 = bobot dari neuron lapisan tersembunyi ke-k menuju neuron output Bobot yang optimum diperoleh dengan mendiferensialkan persamaan (3.21) dengan variabel bebas yang kemudian ditentukan penyelesaiannya untuk diferensial sama dengan nol, maka didapatkan (Orr, 1996: 41-43):

𝜕𝐶 𝜕𝑤𝑘= 2 ∑ (𝑦𝑖− 𝑦̂)𝑖 𝜕𝑦𝑖 𝜕𝑤𝑘+ 2 𝑛 𝑖=1 𝜆𝑤𝑘 (3.22) 𝜕𝐶 𝜕𝑤𝑘= 2 ∑ 𝑦𝑖 𝜕𝑦𝑖 𝜕𝑤𝑘− 2 𝑛 𝑖=1 ∑ 𝑦̂𝑖 𝜕𝑦𝑖 𝜕𝑤𝑘 𝑛 𝑖=1 + 2𝜆𝑤𝑘 (3.23) Substitusikan 𝜕𝐶

𝜕𝑤𝑘 = 0 pada persamaan (3.23) sehingga diperoleh:

2 ∑ 𝑦𝑖 𝜕𝑦𝑖 𝜕𝑤𝑘− 2 𝑛 𝑖=1 ∑ 𝑦̂𝑖 𝜕𝑦𝑖 𝜕𝑤𝑘 𝑛 𝑖=1 + 2𝜆𝑤𝑘 = 0 (3.24) ∑ 𝑦𝑖 𝜕𝑦𝑖 𝜕𝑤𝑘− 𝑛 𝑖=1 ∑ 𝑦̂𝑖 𝜕𝑦𝑖 𝜕𝑤𝑘 𝑛 𝑖=1 + 𝜆𝑤𝑘 = 0 (3.25) ∑ 𝑦𝑖 𝜕𝑦𝑖 𝜕𝑤𝑘+ 𝑛 𝑖=1 𝜆𝑤𝑘 = ∑ 𝑦̂𝑖 𝜕𝑦𝑖 𝜕𝑤𝑘 𝑛 𝑖=1 (3.26) Misalkan 𝜕𝑦𝑖 𝜕𝑤𝑘 = 𝜑𝑘[𝝁(𝒙)], maka didapatkan: ∑𝑛𝑖=1𝑦𝑖𝜑𝑘[𝝁(𝒙)] +𝜆𝑤𝑘 = ∑𝑛𝑖=1𝑦̂𝜑𝑖 𝑘[𝝁(𝒙)] (3.27) sehingga dalam notasi vektor adalah sebagai berikut:

(15)

52 Dengan, 𝛗𝑘 = [ 𝜑𝑘[𝝁(𝒙)]1 𝜑𝑘[𝝁(𝒙)]2 ⋮ 𝜑𝑘[𝝁(𝒙)]𝑛 ] , 𝐲 = [ 𝑦1 𝑦2 ⋮ 𝑦𝑛 ] , 𝐲̂ = [ 𝑦̂1 𝑦̂2 ⋮ 𝑦̂𝑛 ]

Terdapat r persamaan untuk setiap nilai k, maka persamaan (3.28) dapat ditulis sebagai berikut: [ 𝛗1𝑇𝐲 𝛗2𝑇𝐲 ⋮ 𝛗𝑟𝑇𝐲] + [ 𝜆𝑤̂1 𝜆𝑤̂2 ⋮ 𝜆𝑤̂𝑟 ] = [ 𝛗1𝑇𝐲̂ 𝛗2𝑇𝐲̂ ⋮ 𝛗𝑟𝑇𝐲̂] 𝛗𝑇𝐲 + 𝜆𝐰̂𝑘 = 𝛗𝑇𝐲̂ (3.29) dengan, 𝜆 = parameter regulasi 𝐰̂ = vektor bobot klasifikasi 𝐲̂ = vektor target klasifikasi

𝛗 = Matriks fungsi aktivasi dengan {𝜑𝑘}𝑘=1𝑟 sebagai kolom

𝒚 = perkalian matriks fungsi aktivasi dan vektor bobot

Matriks 𝛗 merupakan matriks fungsi aktivasi. Komponen ke-i dari y saat bobot pada nilai optimum adalah (Orr, 1994: 43):

𝑦[𝝁(𝒙)]𝑖 = ∑𝑟𝑘=1𝑤̂𝑘𝜑𝑘[𝝁(𝒙)]𝑖 = 𝛗̅𝑖𝑇𝐰̂ (3.30) dengan, 𝝋̅𝒊= [ 𝜑1[𝝁(𝒙)]1 𝜑2[𝝁(𝒙)]2 ⋮ 𝜑𝑟[𝝁(𝒙)]𝑛 1 ]

(16)

53 𝐲 = [ 𝑦1 𝑦2 ⋮ 𝑦𝑛 ] = [ 𝜑̅1𝑇𝑤̂ 𝜑̅2𝑇𝑤̂ ⋮ 𝜑̅𝑛𝑇𝑤̂] = 𝛗𝐰̂ (3.31)

Berdasarkan definisi-definisi yang telah disebutkan di atas diperoleh:

𝛗𝑇𝐲̂ = 𝛗𝑇𝐲 + 𝜆𝐰̂ (3.32)

= 𝛗𝑇𝛗𝐰̂ + 𝜆𝐰̂

= (𝛗𝑇𝛗 + 𝜆)𝐰̂

Jadi diperoleh perasamaan normal untuk bobot pengklasifikasian sebagai berikut:

𝐰̂ = (𝛗𝑇𝛗 + 𝜆𝐼𝑛)−1 𝛗𝑇𝐲̂ (3.33)

Metode Global Ridge Regression digunakan untuk menentukan estimasi bobot optimum. Pada tugas akhir ini, kriteria pemilihan model digunakan yaitu kriteria Generalised Cross-Validation (GCV) untuk menghitung prediksi error. Rumus untuk kriteria GCV adalah sebagai berikut (Orr, 1996: 20). 𝜎̂𝐺𝐶𝑉2 = 𝑛𝒚̂𝑇𝐏2𝒚̂ (𝑡𝑟𝑎𝑐𝑒 (𝐏))2 (3.34) dengan, 𝑷 = 𝐼𝑛− 𝝋(𝝋𝑻𝝋)−1𝝋𝑻 𝑛 = banyak data P = matriks proyeksi 𝒚

(17)

54

B. Prosedur Pemodelan Fuzzy Radial Basis Function Neural Network (FRBFNN) untuk Klasifikasi Kanker Payudara

Berikut adalah prosedur pemodelan Fuzzy Radial Basis Function Neural Network (FRBFNN) untuk klasifikasi stadium kanker payudara pada data Wisconsin Breast Cancer Database (WBCD) dan data Wisconsin Diagnostic Breast Cancer (WDBC):

1. Menentukan Variabel Input dan Output

Variabel input yang digunakan dalam tugas akhir ini adalah nilai-nilai variabel hasil Fine-needle Aspirate (FNA) biopsy payudara yang diperoleh dari University of Wisconsin Hospital. Banyaknya variabel input menentukan banyaknya neuron pada lapisan input. Sedangkan target jaringan atau output berupa klasifikasi atau diagnosa dari kanker payudara. Klasifikasi kanker payudara pada tugas akhir ini menggunakan target jaringan, yaitu 0 untuk benign (tumor) dan 1 untuk malignant (kanker). Banyaknya variabel output akan menentukan banyaknya neuron pada lapisan output.

2. Pembagian Data Training dan Testing

Setelah dilakukan penentuan variabel input dan output, selanjutnya data input dibagi menjadi dua, yaitu data pembelajaran (training) dan data pengujian (testing). Data training digunakan untuk mencari model terbaik, sedangkan data testing digunakan untuk menguji ketepatan model hasil data training.

(18)

55

Terdapat beberapa perbandingan dalam pembagian data menjadi data training maupun testing yang sering digunakan, antara lain (Deb Rajib et al, 2015):

a. 60% untuk data training dan 40% untuk data testing. b. 75% untuk data training dan 25% untuk data testing. c. 80% untuk data training dan 20% untuk data testing.

Pada tugas akhir ini, menggunakan pembagian data 80% untuk data training dan 20% untuk data testing.

3. Pembelajaran Fuzzy Radial Basis Function Neural Network (FRBFNN) Berikut merupakan langkah-langkah dalam pembelajaran FRBFNN:

a. Melakukan proses fuzzifikasi pada nilai input

Variabel input diperoleh dari hasil fuzzifikasi terhadap variabel yang diperoleh dari data Wisconsin Breast Cancer Database (WBCD) dan Wisconsin Diagnostic Breast Cancer (WDBC). Proses fuzzifikasi pada tugas akhir ini menggunakan fungsi keanggotaan segitiga (Persamaan 2.5) dengan 3 himpunan fuzzy. Hasil dari proses fuzzifikasi tersebut selanjutnya disebut sebagai derajat keanggotaan. Derajat keanggotaan digunakan sebagai input pada proses pembelajaran model FRBFNN.

b. Menormalisasi data

Setelah diperoleh data input fuzzy dari proses fuzzifikasi, langkah selanjutnya adalah data harus dinormalisasi terlebih dahulu. Normalisasi data merupakan penskalaan terhadap data-data input sehingga data input masuk dalam satu range tertentu, sehingga data input menjadi lebih seragam. Data tersebut

(19)

56

dibawa ke bentuk normal yang memiliki mean = 0 dan standar deviasi = 1. Menurut Samarasinghe (2007: 53 253), pendekatan sederhana untuk normalisasi data adalah dengan bantuan mean dan standar deviasi sebagai berikut:

1) Perhitungan nilai rata-rata 𝑥̅𝑙.𝑗 = 1

𝑛∑ [𝜇𝑙.𝑗(𝑥𝑗)]𝑖 𝑛

𝑖=1 (3.38)

dengan

𝑥̅𝑙.𝑗 adalah rata-rata nilai data pada himpunan fuzzy ke-l dan variabel ke-j [𝜇𝑙.𝑗(𝑥𝑗)]𝑖 adalah nilai input fuzzy pada data ke-i, himpunan fuzzy ke-l dan

variabel ke-j

𝑖 = 1,2, … , 𝑛 banyaknya data. 𝑗 = 1,2, … 𝑝 banyaknya variabel X 𝑙 = 1,2, … 𝑞 banyaknya himpunan fuzzy 2) Perhitungan nilai varians

𝑠2𝑙.𝑗 = 1 n−1∑ ([𝜇𝑙.𝑗(𝑥𝑗)]𝑖 − 𝑥̅𝑙.𝑗) 2 𝑛 𝑖=1 (3.39) dengan

𝑠2𝑙.𝑗 adalah nilai varians data pada himpunan fuzzy ke-l dan variabel ke-j [𝜇𝑙.𝑗(𝑥𝑗)]𝑖 adalah nilai input fuzzy pada data ke-i, himpunan fuzzy ke-l dan variabel ke-j

𝑖 = 1,2, … , 𝑛 banyaknya data. 𝑗 = 1,2, … 𝑝 banyaknya variabel X 𝑙 = 1,2, … 𝑞 banyaknya himpunan fuzzy 3) Perhitungan normalisasi

[𝜇𝑙.𝑗(𝑥𝑗)]𝑖∗ =

[𝜇𝑙.𝑗(𝑥𝑗)]𝑖−𝑥̅𝑙.𝑗

(20)

57 dengan

𝑠𝑙.𝑗 adalah nilai standar deviasi data pada himpunan fuzzy ke-l dan variabel ke-j

𝑥̅𝑙.𝑗 adalah rata-rata nilai data pada himpunan fuzzy ke-l dan variabel ke-j [𝜇𝑙.𝑗(𝑥𝑗)]𝑖 adalah nilai input fuzzy pada data ke-i, himpunan fuzzy ke-l dan

variabel ke-j

Pada MATLAB, normalisasi dengan mean dan standar deviasi menggunakan perintah prestd yang akan membawa data ke dalam bentuk normal dengan mean = 0 dan standar deviasi =1 dengan syntax:

[Pn,meanp,stdp,Tn,meant,stdt]=prestd(P,T); (3.41)

dengan,

P = matriks data input, T = matriks data target,

Pn = matriks data input yang telah dinormalisasi, Tn = matriks data target yang telah dinormalisasi,

Meanp = rata-rata pada matriks data input sebelum dinormalisasi, Stdp = standar deviasi pada matriks data input sebelum dinormalisasi, Meant = rata-rata pada matriks target sebelum dinormalisasi,

Stdt = standar deviasi pada matriks target sebelum dinormalisasi. c. Menentukan pusat dan jarak dari setiap fungsi basis.

Dalam tugas akhir ini, metode yang digunakan dalam menentukan pusat dan jarak dari setiap fungsi basis yaitu menggunakan metode K-means clustering. Dalam proses pengelompokkan data (clustering), sebelumnya ditentukan nilai

(21)

58

suatu jarak untuk mengukur kemiripan dari objek-objek yang diamati. Jarak yang umumnya digunakan yaitu jarak Euclide. Semakin kecil nilai jarak Euclide, semakin tinggi tingkat kemiripan, begitu pula sebaliknya, semakin besar nilai jarak Euclide maka semakin rendah tingkat kemiripannya. Setelah ukuran kemiripan ditemukan, maka dapat dilakukan pengelompokan (Brodjol, 2008).

K-Means merupakan salah satu metode clustering non hierarchy yang berusaha mempartisi data yang ada ke dalam bentuk satu atau lebih cluster/kelompok. Metode ini mempartisi data ke dalam cluster/kelompok sehingga data yang memiliki karakteristik yang sama dikelompokkan ke dalam satu cluster yang sama dan data yang mempunyai karakteristik yang berbeda dikelompokkan ke dalam kelompok yang lain (Agusta, 2007: 47).

Algoritma metode K-Means clustering adalah sebagai berikut (Johnson & Wichern, 2007: 696):

1) Partisi data kedalam K cluster

2) Tempatkan setiap data/obyek ke cluster terdekat. Kedekatan dua obyek ditentukan berdasarkan jarak kedua obyek tersebut. Jarak biasanya dihitung dengan menggunakan jarak Euclide. Persamaan jarak Euclide antara dua titik sebarang P dan Q dengan koordinat P (𝑥1, 𝑥2,… , 𝑥𝑛)dan Q

(𝑦1, 𝑦2,… , 𝑦𝑚)adalah sebagai berikut:

𝑑(𝑃, 𝑄) = √(𝑥1− 𝑦1)2+ (𝑥2− 𝑦2)2+ ⋯ + (𝑥𝑛− 𝑦𝑛)2 (3.42)

Hitung ulang nilai pusat untuk cluster yang menerima data baru dan cluster yang kehilangan data.

(22)

59

3) Ulangi langkah ke-2 sampai nilai pusat lama sama dengan nilai pusat baru (stabil).

Menurut Zhang dan Fang (2013: 194), metode K-Means clustering memiliki beberapa keunggulan antara lain yaitu: algoritma K-Means merupakan algoritma klasik untuk menyelesaikan masalah pengelompokkan sehingga algoritma ini relatif sederhana dan cepat; untuk data yang besar, algoritma ini relatif fleksibel dan efisien; serta dapat memberikan hasil yang relatif baik. Sedangkan kelemahan dari metode K-Means clustering dikemukakan oleh Berkhin (2002: 27) yang menyebutkan bahwa metode K-Means clustering sangat bergantung pada pemilihan nilai awal centroid, tidak jelas berapa banyak cluster K yang terbaik dan hanya bekerja pada atribut numerik.

Metode K-means ini mengelompokkan data input menjadi beberapa kelompok atau kluster sehingga nilai pusat dan varians setiap kluster dapat dihitung. Pusat cluster adalah rata-rata (mean) kluster tersebut. Banyak neuron pada lapisan tersembunyi sesuai dengan banyak cluster yang terdapat pada pengelompokan menggunakan K-means clustering.

d. Menentukan jumlah fungsi basis neuron pada lapisan tersembunyi.

Pada lapisan tersembunyi metode RBFNN, dilakukan aktivasi fungsi basis. Dalam tugas akhir ini, aktivasi fungsi basis dilakukan dengan aplikasi Matlab dengan menggunakan program rbfDesign (Sutijo, 2006:156). Program untuk rbfDesign dilampirkan pada Lampiran 13 halaman 210. Cuplikan dari Program rbfDesign adalah sebagai berikut:

(23)

60 dengan,

H = matriks desain RBFNN X = matriks input

C = matriks pusat cluster

R = matriks jarak masing-masing input terhadap pusat cluster Option = tipe aktivasi fungsi basis

Tipe aktivasi yang digunakan pada tugas akhir ini adalah fungsi Gaussian dengan ‘b’ yaitu neuron bias yang ditambahkan pada jaringan, sehingga matriks 𝜑 akan mendapatkan satu kolom tambahan.

e. Menentukan bobot dari lapisan tersembunyi ke lapisan output.

Digunakan metode global ridge-regression untuk mendapatkan bobot yang optimum. Pada tugas akhir ini penentuan bobot dengan metode global ridge-regression dilakukan dengan menggunakan aplikasi Matlab menggunakan metode global ridge (Sutijo, 2006:169). Program untuk global ridge dilampirkan pada Lampiran 14 halaman 212. Berikut adalah sebagian fungsi pada program global ridge.

lamb = globalRidge(H,T,0.05) (3.44)

dengan,

lamb = parameter regulasi H = matriks desain RBFNN T = target data input training 0.05 = nilai estimasi parameter regulasi

(24)

61 4. Menentukan Jaringan Optimum

Jaringan optimum pada FRBFNN didapatkan dengan metode trial and error. Metode ini dilakukan dengan cara menentukan hasil klasifikasi yang didapatkan menggunakan beberapa cluster yang berbeda. Model FRBFNN terbaik adalah model dengan suatu cluster tertentu yang memiliki hasil akurasi tertinggi baik pada data training maupun testing.

5. Klasifikasi

Langkah terakhir pada prosedur pemodelan FRBFNN adalah pengklasifikasian. Berdasarkan hasil output yang didapatkan, masing-masing pengamatan dapat diklasifikasikan sesuai target stadium kanker payudara. Berdasarkan prosedur pemodelan FRBFNN untuk klasifikasi stadium kanker payudara yang telah dijelaskan sebelumnya, dapat dibuat diagram prosedur pemodelan FRBFNN. Pada gambar 3.5 berikut merupakan diagram prosedur pemodelan FRBFNN.

(25)

62

Gambar 3. 5 Diagram Alur Model FRBFNN

C. Hasil Model Fuzzy Radial Basis Function Neural Network (FRBFNN) untuk Klasifikasi Stadium Kanker Payudara

Langkah-langkah klasifikasi stadium kanker payudara menggunakan model Fuzzy Radial Basis Function Neural Network dengan menggunakan data Wisconsin Breast Cancer Database (WBCD) dan data Wisconsin Diagnostis Breast Cancer (WDBC) adalah sebagai berikut.

Mulai

Menentukan Variabel Input dan Output

Pembagian Data Training dan Testing

Menentukan Jaringan Optimum Pembelajaran RBFNN Jaringan Optimum Akurasi Hasil jelek Hasil baik Model FRBFNN Terbaik Hasil Klasifikasi Kanker Payudara Selesai

(26)

63

1. Menentukan variabel input dan variabel output

Penentuan variabel input pada model FRBFNN didasarkan pada hasil fuzzifikasi terhadap data WBCD dan WDBC yang diperoleh. Sedangkan Variabel output dari model FRBFNN pada tugas akhir ini adalah klasifikasi stadium kanker payudara. Output yang diharapkan pada data WBCD dan WDBC adalah sama yaitu benign (tumor) dan malignant (kanker). Penentuan output model FRBFNN adalah berdasarkan hasil klasifikasi yang didapatkan yang berupa bilangan decimal. Pengklasifikasian dilakukan dengan membulatkan bilangan desimal tersebut dengan kriteria sebagai berikut:

1) Jika -0.5< 𝑦 < 0,5 maka dibulatkan menjadi 0, sehingga hasil klasifikasi adalah benign (tumor).

2) Jika 0,5 ≤ 𝑦 ≤ 1,5 maka dibulatkan menjadi 1, sehingga hasil klasifikasi adalah malignant (kanker).

a. Wisconsin Breast Cancer Database (WBCD)

Data dari Wisconsin Breast Cancer Database atau WBCD diperoleh dari

ftp://ftp.cs.wisc.edu/math-prog/cpo-dataset/machine-learn/cancer. Database

tersebut terdiri dari 9 karakteristik dari sel payudara dan 2 atribut lainnya, yaitu nomer id dari setiap pasien dan kelas label yang sesuai dengan jenis kanker payudara (jinak atau ganas). Nilai karakteristik sel berada dalam rentang dari 1 sampai 10, dimana 1 menunjukkan nilai terdekat dengan benign sedangkan 10 merupakan nilai tertinggi dan termasuk kategori malignant. Kesembilan karakteristik tersebut terdiri dari clump thickness, uniformity of cell size, uniformity of cell shape, marginal adhesion, single epithelial cell

(27)

64

size, bare nuclei, bland chromatin, normal nucleoli dan mitoses. Pada tugas akhir ini, data yang dipilih untuk digunakan dalam model FRBFNN yaitu sebanyak 100 data pada kelas benign dan 100 data pada kelas malignant. b. Wisconsin Diagnostic Breast Cancer (WDBC)

Data dari Wisconsin Diagnostic Breast Cancer atau WDBC diperoleh dari

http://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/wdbc.data. Data tersebut terdiri dari 10 variabel yang diperoleh dari

hasil tes biopsy Fine-needle Aspirate (FNA) pada gambar digital massa payudara dan 2 atribut lainnya yang terdiri dari nomer id pasien dan hasil diagnosis (benign atau malignant). Pada tugas akhir ini, data yang dipilih untuk digunakan dalam model FRBFNN yaitu sebanyak 100 data pada kelas benign dan 100 data pada kelas malignant. Variabel-variabel yang digunakan yaitu Radius, Texture, Perimeter, Area, Smoothness, Compactness, Concavity, Concave Points, Symmetry dan Fractal Dimension.

2. Pembagian Data Training dan Testing

Ukuran pembagian data yang digunakan dalam tugas akhir ini untuk data Wisconsin Breast Cancer Database (WBCD) dan Wisconsin Diagnostic Breast Cancer (WDBC) adalah sama, yaitu 80% untuk data training dan 20% untuk data testing. Oleh karena itu, dari 100 data yang telah dipilih sebelumnya yang terdiri dari 50 data dengan klasifikasi benign (tumor) dan 50 data dengan klasifikasi malignant (kanker) dibagi menjadi data training sebanyak 80 data dan data testing sebanyak 20 data. Hasil pembagian input terlampir pada Lampiran 1 halaman 111 untuk data training WBCD dan Lampiran 2 halaman

(28)

65

118 untuk data testing WBCD. Sedangkan hasil pembagian input pada data WDBC terlampir pada Lampiran 3 halaman 120 untuk data training dan Lampiran 4 halaman 126 untuk data testing.

3. Pembelajaran Fuzzy Radial Basis Function Neural Network

Proses pembelajaran FRBFNN yang pertama yaitu mengubah bilangan crisp pada input layer menjadi bilangan fuzzy atau yang biasa disebut proses fuzzifikasi. Berikut merupakan pembelajaran FRBFNN pada proses fuzzifikasi: a. Wisconsin Breast Cancer Database (WBCD)

Berdasarkan data WBCD didapatkan 9 variabel, maka banyaknya neuron pada input layer adalah 9 neuron yang berupa bilangan crisp. Selanjutnya dilakukan proses fuzzifikasi dimana pada tugas akhir ini proses fuzzifikasi menggunakan fungsi keanggotaan representasi kurva segitiga (Persamaan 2.5) dengan 3 himpunan fuzzy. Derajat keanggotaan input FRBFNN dapat dicari dengan menggunakan MATLAB R2013a. Script M-file MATLAB R2013a untuk proses fuzzifikasi ini dilampirkan pada Lampiran 5 halaman 128. Adapun langkah-langkah menentukan derajat keanggotaan secara matematis adalah sebagai berikut:

1) Menentukan himpunan universal input

Himpunan universal merupakan keseluruhan nilai yang dioperasikan dalam suatu variabel fuzzy. Berdasarkan data WBCD yang telah diperoleh sebelumnya, diketahui bahwa data tersebut memiliki 9 variabel (X1, X2, … , X8,

X9), himpunan universal input dapat diperoleh dari nilai minimum dan

(29)

66

bilangan bulat dengan interval 1 sampai 10 pada masing-masing variabelnya, maka nilai minimum dan maksimum dari 9 parameter adalah sama yaitu [1 10]. 2) Mendefinisikan himpunan fuzzy pada input

Pada penulisan tugas akhir skripsi ini, masing-masing input didefinisikan menjadi 3 himpunan fuzzy dengan fungsi keanggotaan segitiga. Penentuan banyaknya himpunan fuzzy yang dipilih pada tugas akhir ini berdasarkan trial and error. Berdasarkan 9 variabel yang terdapat pada data WBCD yang terdiri dari: Clump Thickness (𝑋1); Uniformity of Cell Size (𝑋2); Uniformity of Cell

Shape (𝑋3); Marginal Adhesion (𝑋4); Single Epithelial Cell Size (𝑋5); Bare

Nuclei (𝑋6); Bland Chromatin (𝑋7); Normal Nucleoli (𝑋8); Mitoses (𝑋9),

diperoleh nilai himpunan universal input untuk kesembilan variabel pada data WBCD adalah sama, yaitu [1 10], maka fungsi keanggotaan dengan tiga himpunan fuzzy untuk kesembilan variabel tersebut juga sama. Sehingga dapat dicari himpunan fuzzy untuk 9 variabel tersebut dengan menggunakan program MATLAB R2013a.

Gambar 3.7 berikut adalah hasil himpunan fuzzy yang diperoleh dengan menggunakan program MATLAB R2013a:

(30)

67

Gambar 3. 7 Grafik Fungsi Keanggotaan input pada Data WBCD

Berdasarkan Gambar 3.7, didapatkan 3 himpunan fuzzy untuk fungsi keanggotaan segitiga antara lain, yaitu:

1) Himpunan 𝑎1 = [−2,6 1 4,6]

2) Himpunan 𝑎2 = [1,9 5,5 9,1]

3) Himpunan 𝑎3 = [6,4 10 13,6]

Dari ketiga himpunan fuzzy tersebut, selanjutnya dapat diperoleh fungsi keanggotaan (Persamaan 2.24) sebagai berikut:

𝜇𝑎1 = { 0, 𝑥 ≤ −2,6 atau 𝑥 ≥ 4,6 𝑥−(−2,6) 3,6 , − 2,6 < 𝑥 ≤ 1 4,6−𝑥 3,6 , 1 < 𝑥 ≤ 4,6 𝜇𝑎2 = { 0, 𝑥 ≤ 1,9 atau 𝑥 ≥ 9,1 𝑥−1,9 3,6 , 1,9 < 𝑥 ≤ 5,5 9,1−𝑥 3,6 , 5,5 < 𝑥 ≤ 9,1

(31)

68 𝜇𝑎3 = { 0, 𝑥 ≤ 6,4 atau 𝑥 ≥ 13,6 𝑥−6,4 3,6 , 6,4 < 𝑥 ≤ 10 13,6−𝑥 3,6 , 10 < 𝑥 ≤ 13,6

Ketiga fungsi keanggotaan yang telah diperoleh di atas sama untuk variabel-variabel yang lain.

Selanjutnya dilakukan substitusi nilai 𝑥. Misal, pada data ke-1 variabel Clump Thickness (𝑋1) yang terdapat pada Lampiran 1 halaman 111 yaitu 5. Maka hasil substitusi dari 𝑥 = 5 pada fungsi keanggotaan di atas diperoleh 𝜇𝑎1 = 0, 𝜇𝑎2 =5−1,9

3,6 = 0,811, dan 𝜇𝑎3 = 0. Kemudian nilai

derajat keanggotaan tersebut digunakan sebagai variabel input. Sehingga nilai derajat keanggotaan untuk data yang pertama yaitu [0 0,811 0]. Selanjutnya prosedur perhitungan tersebut dilakukan untuk nilai 𝑥 yang lain sampai data terakhir pada variabel Clump Thickness. Hasil perhitungan derajat keanggotaan pada data WBCD tersebut selengkapnya dapat dilihat pada Lampiran 7 halaman 134.

Penentuan himpunan fuzzy untuk variabel-variabel lainnya yang terdapat pada data WBCD dilakukan analog seperti pada variabel Clump Thickness di atas dengan menggunakan himpunan fuzzy yang sama. Berikut merupakan hasil himpunan fuzzy yang diperoleh untuk kesembilan variabel pada data WBCD dengan menggunakan data ke-1 pada masing-masing variabel:

(32)

69 a) Clump Thickness (𝑋1)

Data ke-1 pada variabel Clump Thickness (𝑋1) yang terdapat pada Lampiran 1 halaman 111 yaitu 5. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑎1 = 0, 𝜇𝑎2 = 0,8611, dan 𝜇𝑎3 = 0.

b) Uniformity of Cell Size (𝑋2)

Data ke-1 pada variabel Uniformity of Cell Size (𝑋2) yang terdapat pada Lampiran 1 halaman 111 yaitu 1. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑏1 = 1, 𝜇𝑏2 = 0, dan 𝜇𝑏3 = 0.

c) Uniformity of Cell Shape (𝑋3)

Data ke-1 pada variabel Uniformity of Cell Shape (𝑋3) yang terdapat

pada Lampiran 1 halaman 111 yaitu 1. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑐1 = 1, 𝜇𝑐2 = 0, dan 𝜇𝑐3 = 0.

d) Marginal Adhesion (𝑋4)

Data ke-1 pada variabel Marginal Adhesion (𝑋4) yang terdapat pada

Lampiran 1 halaman 111 yaitu 1. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑑1 = 1, 𝜇𝑑2 = 0, dan 𝜇𝑑3 = 0.

e) Single Ephitalial (𝑋5)

Data ke-1 pada variabel Marginal Adhesion (𝑋5) yang terdapat pada Lampiran 1 halaman 111 yaitu 2. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑒1 = 0,7222, 𝜇𝑒2 = 0,0278, dan 𝜇𝑒3 = 0.

(33)

70 f) Bare Nuclei (𝑋6)

Data ke-1 pada variabel Bare Nuclei (𝑋6) yang terdapat pada Lampiran 1 halaman 111 yaitu 1. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑓1 = 1, 𝜇𝑓2 = 0, dan 𝜇𝑓3 = 0.

g) Bland Chromatin (𝑋7)

Data ke-1 pada variabel Bland Chromatin (𝑋7) yang terdapat pada Lampiran 1 halaman 111 yaitu 3. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑔1 = 0,4444, 𝜇𝑔2 = 0,3056, dan 𝜇𝑔3 = 0.

h) Normal Nucleoli (𝑋8)

Data ke-1 pada variabel Normal Nucleoli (𝑋8) yang terdapat pada

Lampiran 1 halaman 111 yaitu 1. Maka diperoleh derajat keanggotaannya adalah 𝜇1 = 1, 𝜇2 = 0, dan 𝜇3 = 0.

i) Mitoses (𝑋9)

Data ke-1 pada variabel Mitoses (𝑋9) yang terdapat pada Lampiran 1

halaman 111 yaitu 1. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑖1 = 1, 𝜇𝑖2 = 0, dan 𝜇𝑖3 = 0.

b. Wisconsin Diagnostic Breast Cancer (WDBC)

Berdasarkan data WDBC didapatkan 10 variabel, maka banyaknya neuron pada input layer adalah 10 neuron yang berupa bilangan crisp. Pada tugas akhir ini proses fuzzifikasi menggunakan fungsi keanggotaan representasi kurva segitiga (Persamaan 2.5) dengan 3 himpunan fuzzy. Derajat keanggotaan input FRBFNN dapat dicari dengan menggunakan aplikasi MATLAB R2013a. Script M-file MATLAB R2013a untuk proses fuzzifikasi ini dilampirkan pada

(34)

71

Lampiran 6 halaman 131. Adapun langkah-langkah menentukan derajat keanggotaan secara matematis adalah sebagai berikut:

1) Menentukan himpunan universal input

Himpunan universal merupakan keseluruhan nilai yang dioperasikan dalam suatu variabel fuzzy. Berdasarkan data WDBC yang telah diperoleh sebelumnya, diketahui bahwa data tersebut memiliki 10 variabel (X1, X2, … ,

X9, X10) yang terdiri dari: Radius (𝑋1); Texture (𝑋2); Perimeter (𝑋3); Area

(𝑋4); Smoothness (𝑋5); Compactness (𝑋6); Concavity (𝑋7); Concave Points

(𝑋8); Symmetry (𝑋9) dan Fractal Dimension (𝑋10). Himpunan universal input

dapat diperoleh dari nilai minimum dan maksimum dari masing-masing parameter. Sehingga diperoleh himpunan universal input untuk 10 variabel tersebut berturut-turut adalah [0,8196 31,33] ; [9,71 31,46] ; [51,71 208,6] ; [201,9 3301] ; [0,0022 0,1425] ; [0,01938 0,2839] ; [0,00069 0,4108] ; [0,00185 0,1913] ; [0,1167 0,304] dan [0,05025 0,09744].

2) Mendefinisikan himpunan fuzzy pada input

Pada penulisan tugas akhir skripsi ini, masing-masing input didefinisikan menjadi 3 himpunan fuzzy dengan fungsi keanggotaan segitiga. Penentuan himpunan fuzzy yang dipilih pada tugas akhir ini berdasarkan trial and error. Berikut adalah proses penentuan himpunan fuzzy dan perhitungan derajat keanggotaan pada data WDBC:

1) Radius (𝑋1)

Variabel radius memiliki himpunan universal yang telah diketahui sebelumnya, yaitu [8,196 31,33]. Selanjutnya dapat dicari himpunan fuzzy

(35)

72

dengan menggunakan program MATLAB R2013a. Gambar 3.8 berikut adalah hasil himpunan fuzzy yang diperoleh:

Gambar 3. 8 Grafik Fungsi Keanggotaan Input pada Data WDBC untuk Variabel Radius

Berdasarkan Gambar 3.8, didapatkan 3 himpunan fuzzy untuk fungsi keanggotaan segitiga antara lain, yaitu:

a) Himpunan 𝑎1 = [−1.058 8.196 17.45]

b) Himpunan 𝑎2 = [10.51 19.76 29.02] c) Himpunan 𝑎3 = [22.07 31.33 40.59]

Dari ketiga himpunan fuzzy tersebut, selanjutnya dapat diperoleh fungsi keanggotaan (Persamaan 2.24) sebagai berikut:

𝜇𝑎1 = { 0, 𝑥 ≤ −1.058 atau 𝑥 ≥ 17.45 𝑥−(−1.058) 9,254 , − 1.058 < 𝑥 ≤ 8.196 17.45−𝑥 9,254 , 8.196 < 𝑥 ≤ 17.45

(36)

73 𝜇𝑎2 = { 0, 𝑥 ≤ 10.51 atau 𝑥 ≥ 29.02 𝑥− 10.51 9,25 , 10.51 < 𝑥 ≤ 19.76 29.02−𝑥 9,26 , 19.76 < 𝑥 ≤ 29.02 𝜇𝑎3 = { 0, 𝑥 ≤ 22.07 atau 𝑥 ≥ 40.59 𝑥−22,07 9,26 , 22.07 < 𝑥 ≤ 31.33 40.59−𝑥 9,26 , 31.33 < 𝑥 ≤ 40.59

Setelah diperoleh ketiga fungsi keanggotaan tesebut, selanjutnya dilakukan substitusi nilai 𝑥. Misal, data ke-1 pada variabel Radius (𝑋1)

yang terdapat pada Lampiran 3 halaman 120 yaitu 13,54. Maka hasil substitusi dari 𝑥 = 13,54 pada fungsi keanggotaan di atas diperoleh 𝜇𝑎1 =17.45−13,54

9,254 = 0,4225, 𝜇𝑎2 =

13,54− 10.51

9,25 = 0,3275, dan 𝜇𝑎3 = 0.

Kemudian nilai derajat keanggotaan tersebut digunakan sebagai variabel input. Sehingga nilai derajat keanggotaan untuk data yang pertama yaitu [0,4225 0,3275 0]. Selanjutnya prosedur perhitungan tersebut dilakukan untuk nilai 𝑥 yang berbeda sampai data terakhir pada variabel radius (𝑋1). Hasil perhitungan derajat keanggotaan pada data WDBC tersebut selengkapnya dapat dilihat pada Lampiran 8 halaman 152.

Penentuan himpunan fuzzy untuk variabel-variabel lainnya yang terdapat pada data WDBC dilakukan analog seperti pada variabel radius di atas.

2) Texture (𝑋2)

Variabel Texture (𝑋2) memiliki himpunan universal yang telah diketahui sebelumnya, yaitu [9,71 31,46], sehingga didapatkan 3 himpunan fuzzy dengan fungsi keanggotaan segitiga antara lain, yaitu:

(37)

74 a) Himpunan 𝑏1 = [1,01 9,71 18,41] b) Himpunan 𝑏2 = [11,89 20,58 29,29] c) Himpunan 𝑏3 = [22,76 31,46 40,16]

Data ke-1 pada variabel Texture (𝑋2) yang terdapat pada Lampiran 3

halaman 120 yaitu 14,36. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑏1 = 0,4655, 𝜇𝑏2 = 0,2842, dan 𝜇𝑏3 = 0.

3) Perimeter (𝑋3)

Variabel Perimeter (𝑋3) memiliki himpunan universal yang telah

diketahui sebelumnya, yaitu [51,71 208,6], sehingga didapatkan 3 himpunan fuzzy dengan fungsi keanggotaan segitiga antara lain, yaitu:

a) Himpunan 𝑐1 = [−11,05 51,71 114,5]

b) Himpunan 𝑐2 = [67,44 130,1 192,9]

c) Himpunan 𝑐3 = [145,8 208,6 271,4]

Data ke-1 pada variabel Perimeter (𝑋3) yang terdapat pada Lampiran 3 halaman 120 yaitu 87,46. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑐1 = 0,4306, 𝜇𝑐2 = 0,3195, dan 𝜇𝑐3 = 0.

4) Area (𝑋4)

Variabel Area (𝑋4) memiliki himpunan universal yang telah diketahui

sebelumnya, yaitu [201,9 3301], sehingga didapatkan 3 himpunan fuzzy dengan fungsi keanggotaan segitiga antara lain, yaitu:

a) Himpunan 𝑑1 = [−1038 201,9 1442]

b) Himpunan 𝑑2 = [512,6 1750 2991]

(38)

75

Data ke-1 pada variabel Area (𝑋4) yang terdapat Lampiran 3 halaman 120 yaitu 566,3. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑑1 = 0,7061, 𝜇𝑑2 = 0,0434, dan 𝜇𝑑3 = 0.

5) Smoothness (𝑋5)

Variabel Smoothness (𝑋5) memiliki himpunan universal yang telah diketahui sebelumnya, yaitu [0,0022 0,1425], sehingga didapatkan 3 himpunan fuzzy dengan fungsi keanggotaan segitiga antara lain, yaitu:

a) Himpunan 𝑒1 = [−0,05393 0,0022 0,05834] b) Himpunan 𝑒2 = [0,01627 0,07228 0,1285] c) Himpunan 𝑒3 = [0,08632 0,1425 0,1987]

Data ke-1 pada variabel Smoothness (𝑋5) yang terdapat pada Lampiran 3

halaman 120 yaitu 0,09779. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑒1 = 0, 𝜇𝑒2 = 0,5462, dan 𝜇𝑒3 = 0,2042.

6) Compactness (𝑋6)

Variabel Compactness (𝑋6) memiliki himpunan universal yang telah diketahui sebelumnya, yaitu [0,01938 0,2839], sehingga didapatkan 3 himpunan fuzzy dengan fungsi keanggotaan segitiga antara lain, yaitu:

a) Himpunan 𝑓1 = [−0,08645 0,01938 0,1252]

b) Himpunan 𝑓2 = [0,04591 0,1515 0,2575] c) Himpunan 𝑓3 = [0,178 0,2839 0,3899]

Data ke-1 pada variabel Compactness (𝑋6) yang terdapat pada Lampiran

3 halaman 120 yaitu 0,08129. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑓1 = 0,4149, 𝜇𝑓2 = 0,3351, dan 𝜇𝑓3 = 0.

(39)

76 7) Concavity (𝑋7)

Variabel Concavity (𝑋7) memiliki himpunan universal yang telah diketahui sebelumnya, yaitu [0,00069 0,4108], sehingga didapatkan 3 himpunan fuzzy dengan fungsi keanggotaan segitiga antara lain, yaitu:

a) Himpunan 𝑔1 = [−0,1634 0,00069 0,1647]

b) Himpunan 𝑔2 = [0,0417 0,2057 0,3698] c) Himpunan 𝑔3 = [0,2468 0,4108 0,5748]

Data ke-1 pada variabel Concavity (𝑋7) yang terdapat pada Lampiran 3

halaman 120 yaitu 0,06664. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑔1 = 0,5979, 𝜇𝑔2 = 0,1521, dan 𝜇𝑔3 = 0.

8) Concave Points (𝑋8)

Variabel Concave Points (𝑋8) memiliki himpunan universal yang telah

diketahui sebelumnya, yaitu [0,00185 0,1913], sehingga didapatkan 3 himpunan fuzzy dengan fungsi keanggotaan segitiga antara lain, yaitu:

a) Himpunan ℎ1 = [−0,07393 0,00185 0,07763]

b) Himpunan ℎ2 = [0,02079 0,09658 0,1724]

c) Himpunan ℎ3 = [0,1155 0,1913 0,2671]

Data ke-1 pada variabel Concave Points (𝑋8) yang terdapat pada Lampiran 3 halaman 120 yaitu 0,04781. Maka diperoleh derajat keanggotaannya adalah 𝜇ℎ1 = 0,3932, 𝜇ℎ2 = 0,3565, dan 𝜇ℎ3 = 0.

(40)

77 9) Symmetry (𝑋9)

Variabel Symmetry (𝑋9) memiliki himpunan universal yang telah diketahui sebelumnya, yaitu [0,1167 0,304], sehingga didapatkan 3 himpunan fuzzy dengan fungsi keanggotaan segitiga antara lain, yaitu:

a) Himpunan 𝑖1 = [0,04178 0,1167 0,1916]

b) Himpunan 𝑖2 = [0,1354 0,2103 0,2853] c) Himpunan 𝑖3 = [0,2291 0,304 0,3789]

Data ke-1 pada variabel Symmetry (𝑋9) yang terdapat pada Lampiran 3

halaman 120 yaitu 0,1885. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑖1 = 0,04138, 𝜇𝑖2 = 0,7089, dan 𝜇𝑖3 = 0.

10) Fractal Dimension (𝑋10)

Variabel Fractal Dimension (𝑋10) memiliki himpunan universal yang

telah diketahui sebelumnya, yaitu [0,05025 0,09744]. , sehingga didapatkan 3 himpunan fuzzy dengan fungsi keanggotaan segitiga antara lain, yaitu:

a) Himpunan 𝑗1 = [0,03137 0,05025 0,06912]

b) Himpunan 𝑗2 = [0,05496 0,07383 0,09273]

c) Himpunan 𝑗3 = [0,07857 0,09744 0,1163]

Data ke-1 pada variabel Fractal Dimension (𝑋10) yang terdapat pada Lampiran 3 halaman 120 yaitu 0,05766. Maka diperoleh derajat keanggotaannya adalah 𝜇𝑗1 = 0,6073, 𝜇𝑗2 = 0,1431, dan 𝜇𝑗3 = 0.

Proses pembelajaran FRBFNN selanjutnya yaitu normalisasi data. Data input yang merupakan hasil fuzzifikasi dari langkah sebelumnya dinormalisasi

(41)

78

terlebih dahulu dengan membawa data ke bentuk normal baku (mean = 0, standar deviasi = 1). Berikut merupakan hasil normalisasi data WBCD dan data WDBC:

a. Wisconsin Breast Cancer Database (WBCD)

Normalisasi data training dan testing pada data WBCD dapat dilakukan dengan menggunakan Matlab R2013a. Hasil normalisasi data training secara lengkap dapat dilihat pada Lampiran 9 halaman 171 dan untuk data testing dapat dilihat di Lampiran 7 halaman 186. Contoh hasil normalisasi data pada data training WBCD yang pertama ditunjukkan pada Tabel 3.3 berikut.

Tabel 3. 3 Hasil Normalisasi Data pada Data Training WBCD yang Pertama

No. Variabel Hasil Normalisasi

1 Clump Thickness

−0,78412 1,611181 −0,60795 2 Uniformity of Cell Size

1,031405 −0,67198 −0,49191 3 Uniformity of Cell Shape

1,056959 −0,71922 −0,4866 4 Marginal Adhesion 0,915723 −0,64757 −0,39729 5 Single Epithelial Cell Size

0,822568 −0,71168 −0,39947 6 Bare Nuclei 1,05734 −0,50974 −0,69074 7 Bland Chromatin 0,205007 −0,11423 −0,43342

(42)

79

No. Variabel Hasil Normalisasi

8 Normal Nucleoli 0,872408 −0,55934 −0,50006 9 Mitoses 0,517644 −0,41687 −0,16352

b. Wisconsin Diagnostic Breast Cancer (WDBC)

Normalisasi data training dan testing pada data WDBC dapat dilakukan dengan menggunakan Matlab R2013a. Hasil normalisasi data training secara lengkap dapat dilihat pada Lampiran 11 halaman 190 dan untuk data testing dapat dilihat di Lampiran 12 halaman 205. Contoh hasil normalisasi data pada data training WDBC yang pertama ditunjukkan pada Tabel 3.4 berikut:

Tabel 3. 4 Hasil Normalisasi Data pada Data Training WDBC yang Pertama

No. Variabel Hasil Normalisasi

1 Radius 0,119227 −0,24704 −0,07906 2 Texture 1,265207 −1,1129 −0,31128 3 Perimeter 0,153412 −0,27563 −0,08227 4 Area 0,314944 −0,5453 −0,07906 5 Smoothness 0 0,153578 −0,24774

(43)

80

No. Variabel Hasil Normalisasi

6 Compactness 0,532143 −0,48358 −0,28437 7 Concavity 0,397641 −0,54297 −0,1201 8 Concave Points 0,003871 −0,11537 −0,15669 9 Symmetry −0,62422 0,53332 −0,22479 10 Fractal Dimension 0,870683 −0,87065 −0,16814

Langkah pembelajaran FRBFNN yang terakhir yaitu clustering dimana pada langkah ini data training hasil normalisasi akan digunakan pada proses clustering. Metode clustering yang digunakan pada tugas akhir ini untuk data WBCD dan WDBC adalah sama yaitu metode Means clustering. Proses K-means clustering dilakukan dengan menggunakan aplikasi Minitab sehingga didapatkan pusat masing-masing cluster dan jarak yang digunakan untuk perhitungan dalam proses pembelajaran FRBFNN selanjutnya. Penentuan banyaknya cluster berdasarkan trial and error dilihat dari hasil akurasi pembelajaran FRBFNN. Setelah masing-masing pusat cluster dan jaraknya didapatkan, selanjutnya dilakukan proses penentuan bobot pada pembelajaran FRBFNN dengan menggunakan program pada MATLAB R2013a, yaitu rbfDesign yang terlampir pada Lampiran 13 halaman 209 dan globalRidge yang terlampir pada Lampiran 14 halaman 212.

(44)

81 4. Menentukan Jaringan Optimum

Proses FRBFNN selanjutnya adalah pengoptimalan jaringan dan pengoptimalan bobot menggunakan persamaan (3.33). Penentuan jaringan optimum didasarkan oleh banyaknya neuron tersembunyi. Oleh karena itu, hal yang perlu dilakukan terlebih dahulu yaitu menentukan banyak neuron tersembunyi. Neuron tersembunyi yang dapat menghasilkan jaringan optimum adalah neuron yang dapat menghasilkan akurasi terbaik. Dengan menggunakan metode trial and eror, dicoba banyaknya cluster yang digunakan pada metode K-Means clustering dengan menggunakan program Minitab sampai menghasilkan akurasi terbaik.

a. Wisconsin Breast Cancer Database (WBCD)

Proses K-Means clustering pada data WBCD dilakukan dengan menggunakan program Minitab dan dilakukan secara trial and error untuk menentukan banyak cluster yang menghasilkan akurasi terbaik.

Tabel 3.5 berikut menunjukkan hasil akurasi dari beberapa cluster dengan menggunakan metode K-Means clustering pada pembelajaran FRBFNN.

Tabel 3. 5 Persentase Akurasi Data Training dan Data Testing pada Model FRBFNN Menggunakan Data WBCD Cluster Akurasi Training (%) Akurasi Testing (%) 4 96,875 97,5 5 97,5 97,5 6 97,5 97,5 7 97,5 100 8 97,5 97,5 9 96,25 97,5

(45)

82 Cluster Akurasi Training (%) Akurasi Testing (%) 10 96,875 97,5 11 98,75 97,5 12 96,875 97,5 13 98,125 97,5 14 96,875 97,5 15 96,25 97,5 16 96,25 97,5 17 97,5 97,5 18 97,5 97,5 19 97,5 97,5 20 97,5 97,5

Berdasarkan tabel 3.5 tersebut, banyaknya cluster yang digunakan sebagai uji coba pada metode trial and error yaitu 4 sampai 20 cluster. Dari masing-masing banyaknya cluster yang dipilih dapat dilihat hasil akurasi data training dan testing dimana secara keseluruhan hasil akurasi data training menunjukkan pola yang tidak beraturan sedangkan pada data testing hasil akurasi cenderung bernilai 97,5%.

Pada cluster 11 nilai akurasi data training merupakan nilai akurasi yang terbaik yaitu 98,75%. Sedangkan nilai akurasi terbaik untuk data testing diperoleh pada cluster 7, yaitu 100%. Berdasarkan teori kesederhanaan maka dipilih cluster 7 dengan nilai akurasi training 97,5% dan nilai akurasi testing 100% yang merupakan jaringan dengan akurasi optimum. Oleh karena itu, jaringan dengan banyak cluster 7 dipilih sebagai jaringan yang menghasilkan akurasi optimum. Nilai pusat dan jarak terlampir pada Lampiran 16 halaman 221. Dengan demikian model FRBFNN terbaik pada data WBCD untuk klasifikasi stadium kanker payudara yang digunakan pada tugas akhir ini yaitu

(46)

83

mempunyai arsitektur 9 neuron pada lapisan input, 7 neuron pada lapisan tersembunyi, dan 1 neuron pada lapisan output dengan fungsi aktivasi yang digunakan pada lapisan tersembunyi adalah fungsi aktivasi gaussian dan fungsi aktivasi yang digunakan pada lapisan output adalah fungsi linear atau identitas.

Arsitektur FRBFNN jaringan terbaik yang digunakan untuk klasifikasi stadium kanker payudara yaitu 9 neuron berupa crisp input pada input layer yaitu 𝑥1 sampai 𝑥9, 27 neuron fuzzy pada input layer, 𝜑1 sampai 𝜑7 untuk 7 neuron pada lapisan tersembunyi, dan 𝑦 untuk 1 neuron outputnya dapat dilihat pada Gambar 3.9 berikut.

Gambar 3. 9 Arsitektur FRBFNN untuk Klasifikasi Stadium Kanker Payudara pada Data WBCD Input Layer: Crisp Input Input Layer: Fuzzy Input Hidden Layer Output Layer bias 𝑤1 𝑤0 𝑤7 𝑤3 𝑤2 𝜑1 𝜑2 𝜑3 … 𝜑7 1 y … … 𝑥1 𝜇1.1(𝑥1) 𝑥2 𝑥9 𝜇2.1(𝑥1) 𝜇3.1(𝑥1) 𝜇1.2(𝑥2) 𝜇2.2(𝑥2) 𝜇3.2(𝑥2) 𝜇1.9(𝑥9) 𝜇2.9(𝑥9) 𝜇3.9(𝑥9)

(47)

84

b. Wisconsin Diagnostic Breast Cancer Database (WDBC)

Proses K-Means clustering pada data WDBC dilakukan dengan menggunakan program Minitab dan dilakukan secara trial and error untuk menentukan banyak cluster yang menghasilkan akurasi terbaik.

Tabel 3.6 berikut menunjukkan hasil akurasi dari beberapa cluster dengan menggunakan metode K-Means clustering pada pembelajaran FRBFNN. Tabel 3. 6 Persentase Akurasi Data Training dan Data Testing pada Model

FRBFNN Menggunakan Data WDBC Cluster Akurasi Training (%) Akurasi Testing (%) 4 88,75 90 5 87,5 90 6 90 87,5 7 90 90 8 90,625 90 9 89,375 87,5 10 90,625 87,5 11 91,25 85 12 92,5 85 13 91,875 92,5 14 92, 85 15 93,75 87,5 16 93,75 90 17 95 90 18 95 90 19 92,5 87,5 20 92,5 87,5

Berdasarkan tabel 3.6 tersebut, banyaknya cluster yang digunakan sebagai uji coba pada metode trial and error yaitu 4 sampai 20 cluster. Dari masing-masing banyaknya cluster yang dipilih dapat dilihat hasil akurasi data

(48)

85

training dan testing dimana secara keseluruhan hasil akurasi pada data training dan data testing menunjukkan pola yang tidak beraturan.

Pada cluster 17 dan 18 memiliki nilai akurasi data training dan testing yang sama dengan nilai akurasi data training merupakan nilai akurasi yang terbaik yaitu 95%. Sedangkan nilai akurasi terbaik untuk data testing diperoleh pada cluster 13. Akan tetapi, karena data training digunakan untuk membangun sebuah model dan mendapatkan bobot yang sesuai, sedangkan data testing digunakan hanya untuk mengetahui tingkat keakuratan hasil dengan nilai sebenarnya maka diantara cluster 17 dan cluster 18 dapat dipilih salah satu sebagai jaringan optimum. Agar menghasilkan model yang lebih sederhana, pada tugas akhir ini dipilih cluster 17 dengan nilai akurasi training 95% dan nilai akurasi testing 90% sebagai jaringan yang menghasilkan akurasi optimum. Nilai pusat dan jarak terlampir pada Lampiran 17 halaman 223. Dengan demikian model FRBFNN terbaik untuk klasifikasi stadium kanker payudara yang digunakan pada tugas akhir ini yaitu mempunyai arsitektur 10 neuron pada lapisan input, 17 neuron pada lapisan tersembunyi, dan 1 neuron pada lapisan output dengan fungsi aktivasi yang digunakan pada lapisan tersembunyi adalah fungsi aktivasi gaussian dan fungsi aktivasi yang digunakan pada lapisan output adalah fungsi linear atau identitas.

Arsitektur FRBFNN jaringan terbaik yang digunakan untuk klasifikasi stadium kanker payudara dengan menggunakan data WDBC adalah 10 neuron berupa crisp input pada input layer yaitu 𝑥1 sampai 𝑥10, 30 neuron fuzzy pada

(49)

86

input layer, 𝜑1 sampai 𝜑17 untuk 17 neuron pada lapisan tersembunyi, dan 𝑦 untuk 1 neuron outputnya dapat dilihat pada Gambar 3.10 berikut.

Gambar 3. 10 Arsitektur FRBFNN untuk Klasifikasi Stadium Kanker Payudara pada Data WDBC

5. Hasil Klasifikasi

Berdasarkan hasil pembelajaran FRBFNN sebelumnya, diperoleh arsitektur FRBFNN jaringan terbaik.

a. Wisconsin Breast Cancer Database (WBCD)

Arsitektur FRBFNN untuk klasifikasi stadium kanker payudara dengan menggunakan data WBCD menghasilkan jaringan terbaik yang terdiri dari:

Input Layer: Crisp Input Input Layer: Fuzzy Input Hidden Layer Output Layer bias 𝑤1 𝑤0 𝑤17 𝑤3 𝑤2 𝜑1 𝜑2 𝜑3 … 𝜑17 1 y … 𝑥1 𝜇1.1(𝑥1) 𝑥2 𝑥10 𝜇2.1(𝑥1) 𝜇3.1(𝑥1) 𝜇1.2(𝑥2) 𝜇2.2(𝑥2) 𝜇3.2(𝑥2) 𝜇1.10(𝑥10) 𝜇1.10(𝑥10) 𝜇3.10(𝑥10)

Referensi

Dokumen terkait

Kecerdasan emosi didefinisikan oleh Mayer, Caruso dan Salovey (2000) sebagai “kebolehan untuk mempersepsi dan meluahkan emosi, mengasimilasi emosi dalam fikiran, memahami

Berdasarkan Bab 1 Pasal I Peraturan Rektor tentang Pedoman PPL bagi mahasiswa program pendidikan Unnes, dalam peraturannya dimaksudkan bahwa PPL adalah semua

sebagai obsever maksudnya pengamat berada di luar aktivitas tetapi masih berada dalam setting peneliti. Wawancara digunakan untuk memperkuat data observasi yang

Salah satu bentuk dukungan tersebut adalah dengan memberikan kesempatan bagi mahasiswa maupun Narasumber untuk berpartisipasi dalam kegiatan akademik berupa

Tujuan penelitian ini adalah untuk menganalisis pengaruh self efficacy terhadap minat melanjutkan studi S2 pada mahasiswa Prodi Pendidikan Administrasi Perkantoran

Penelitian ini bertujuan untuk mempelajari proses amobilisasi enzim bromelin dengan metode ikatan matriks, mengkarakterisasi enzim bromelin mobil dan amobil hasil

Studi Aktivitas Enzim Lipase dari Aspergillus niger sebagai Biokatalis pada Proses Gliserolisis untuk Menghasilkan Monoasilgliserol.

Kesimpulan yang dapat ditarik dari penelitian yang dilakukan adalah Kondisi optimum amobilisasi pektinase pada matriks OPP- kitosan dicapai pada lama pengocokan 3 jam dan