• Tidak ada hasil yang ditemukan

RANCANG BANGUN SISTEM

6.2 Desain Sistem

6.2.2 Desain Proses

Proses yang terdapat dalam SINKUAL-SP terbagi menjadi empat proses, yaitu : proses input, proses prediksi, proses penilaian dan proses output. Bagan alir desain proses disajikan pada Gambar 26

.

Gambar 26. Bagan Alir Desain Proses dengan Mengintegrasikan Sistem Pakar dan Jaringan Syaraf Tiruan

a. Proses Input

Data yang tercakup dalam faktor teknikal diolah dengan menggunakan jaringan syaraf tiruan. Arsitektur jaringan yang digunakan dalam penelitian ini adalah jaringan syaraf propagasi balik (backpropagation). Jaringan ini merupakan jaringan yang popular dan terbukti keunggulannya terutama dalam hal prediksi. Proses

= Solusi dan Pemakai U ser I nt er f ace penilaian dan prediksi kualitas susu pasteurisasi I nf er ence E ngine

untuk mengolah isi

knowledge base Development Engine Exper t and Knowledge Engineer Knowledge B ase Penilaian & Prediksi Kualitas Susu Pasteurisasi

I nput data teknis proses pengolahan susu pasteurisasi Jaringan syaraf tiruan Data prediksi keragaman proses satu Domain problem kualitas = I nstruksi dan = Pengetahuan

belajar jaringan menggunakan supervised learning, karena menggunakan himpunan data input yang output aktualnya diketahui.

Fungsi Aktivasi

Fungsi aktivasi JST yang digunakan dalam penelitian ini adalah sebagai berikut :

1. Fungsi Sigmoid Bipolar (Hyperbolic Tangen Function)

Fungsi ini dalam Matlab dikenal dengan Tansig. Output dari fungsi ini memiliki

range antara 1 sampai -1. Fungsi Sigmoid Bipolar dirumuskan sebagai berikut :

x x

e

e

x

f

Y

+

=

=

1

1

)

(

2. Fungsi Sigmoid Biner (Logistic Function)

Fungsi ini dalam Matlab dikenal dengan Logsig. Output dari fungsi ini memiliki

range antara 0 sampai 1. Fungsi Sigmoid Biner dirumuskan sebagai berikut :

x

e

x

f

Y

+

=

=

1

1

)

(

3. Fungsi Linear (Indentify Function)

Fungsi ini memiliki nilai input dan output yang sama, dikenal dengan nama purelin.

Fungsi Linear dirumuskan sebagai berikut : Y= f(x)

Ketiga fungsi aktivasi tersebut diperlihatkan pada Gambar 27.

Gambar 27. Fungsi Aktivasi Jaringan Syaraf Tiruan ( Kosko, 1992)

-10 0 10

-1

0

1

2

-10 0 10

-1

0

1

2

L ogist ic F unct ion I dent ify Funct ion

(a)

-10 0 10

-1

0

1

2

Hyper bolic T angen F unct ion

Level Jaringan

Arsitektur jaringan yang dipakai adalah jaringan syaraf multilayer yang terdiri dari input layer, satu buah hidden layer dan output layer. Algoritma yang digunakan adalah backpropagation.

Level Proses Belajar (Training)

Pencatatan statistik dilakukan selama proses belajar (training) untuk mengukur performansi jaringan yang diukur dengan nilai error. Data input dan data target akan dimasukkan ke dalam jaringan selama proses belajar berlangsung secara berulang-ulang sampai error akan mendekati nol.

Testing

Testing jaringan dilakukan setelah proses belajar kemudian bobot jaringan dibekukan dan data yang belum pernah dilihat oleh jaringan dimasukkan. Jika proses belajar telah dibekukan dengan baik serta topologi jaringannya benar maka jaringan syaraf tiruan akan mempergunakan ‘pengalamannya’ pada data baru ini dan tetap menghasilkan solusi yang baik. Hal tersebut diisebut dengan kemampuan jaringan dalam melakukan generalisasi.

b. Proses Prediksi

Inisialisasi Bobot

Bobot-bobot dari lapisan input ke lapisan tersembunyi dirancang sedemikian rupa sehingga dapat meningkatkan kemampuan lapisan tersembunyi dalam melakukan proses pembelajaran. Bobot dalam jaringan terus menerus disesuaikan selama proses belajar sehingga dapat memetakan seluruh pasangan training

dengan tepat. Pada proses belajar ini, kemampuan jaringan untuk melakuan generalisasi menjadi bagian yang sangat menentukan.

Penentuan Iterasi pada Proses Belajar

Satu epoch adalah satu siklus yang melibatkan seluruh pola data training

(training pattern). Dalam proses belajar jaringan backpropagation biasanya memerlukan banyak epoch. Pada penelitian ini ditentukan banyaknya iterasi yang dilakukan pada proses belajar adalah 1000 epoch. Jumlah ini diperkirakan cukup dan dapat menghasilkan perfomansi jaringan yang baik.

Penentuan Jumlah Unit dalam Hidden Layer

Penentuan arsitektur hidden layer terdiri dari dua bagian, yaitu penentuan jumlah layer dan ukuran layer. Jumlah layer yang digunakan dalam hidden layer

adalah satu layer. Hal ini dilakukan karena dua pertimbangan, yaitu karena jumlah data training dan waktu training. Selain itu performansi dengan satu hidden layer

juga baik untuk network dengan node yang tidak begitu banyak (Medsker, 1994).

Trial dan error dilakukan pada beberapa alternatif jumlah unit input layer. Tabel 27 menyajikan perbandingan beberapa jumlah unit input layer dengan tiga kriteria error.

Tabel 27. Pemilihan Jumlah Unit Input Layer dalam Jaringan Syaraf Tiruan Jumlah Node Hidden

Kriteria Error 3 5 7 Error 0,0846111 0,00996904 0,0097874 Epoch 1000 748 473 Korelasi 0,991 1,000 1,000 RMSE Regresi 1,015 X + -1,480 1,031 X + -2,807 1,028 X + -2,410 Error 0,00994861 0,0099637 0,00999484 Epoch 880 399 332 Korelasi 0,986 0,985 0,985 MSE Regresi 0,959 X + 3,580 1,046 X + -4,365 1,043 X + -4,137 Error 0,295812 0,00969406 0,00997579 Epoch 1000 534 841 Korelasi 0,986 1,000 0,999 SSE Regresi 0,996 X + 0,212 1,015 X + -1,435 1,049 X + -4,468 Berdasarkan tabel perbandingan tersebut maka jumlah unit input layer yang memberikan performansi jaringan yang paling baik dan akan digunakan dalam proses belajar selanjutnya adalah lima buah unit input layer.

Jumlah unit yang optimal dalam hidden layer tidak dapat dinyatakan dengan pasti akan tetapi ditentukan dengan cara trial dan error dan sangat tergantung pada pengalaman desainer dalam beraplikasi dengan ANN (Mesker, 1994). Network

dijalankan dengan beberapa alternatif jumlah unit hidden layer dan dicoba pada ketiga jenis fungsi aktivasi kemudian dipilih alternatif yang memiliki performansi jaringan yang terbaik.

Trial yang dilakukan pada beberapa alternatif jumlah unit hidden. Tabel 28 menunjukan rekapitulasi perbandingan ketiga kriteria error pada ketiga fungsi aktivasi dengan sembilan unit hidden layer.

Tabel 28. Perbandingan Tiga Kriteria Error pada Tiga Fungsi Aktivasi (jumlahunit

hidden layer = 9)

Linear

Kriteria Error Tansig Logsig

(-1) – (+1) (-INF)-(+INF) Error 0,00999 0,032227 0,48626 3,68984 Epoch 668 1000 1000 1000 Korelasi 1,000 0,994 0,510 0,461 RMSE Regresi 1,063X+(-3,715) 1,022X+(-1,899) 0,440X+48,297 0,414X+50,657 Error 0,00988 0,009967 0,23646 15,2824 Epoch 402 843 1000 1000 Korelasi 0,985 0,937 0,510 0,463 MSE Regresi 1,060X+(-5,384) 0,972X+(2,486) 0,440X+48,304 0,439X+48,337 Error 0,009856 0,0144 6,62088 429,906 Epoch 591 591 1000 1000 Korelasi 1,000 0,997 0,510 0,462 SSE Regresi 1,021X+(-1,897) 1,069X+(-6,068) 0,440X+48,304 0,438X+48,473

Berdasarkan hasil perbandingan tersebut, maka jumlah unit hidden layer

yang akan digunakan adalah sembilan unit hidden layer dengan error terkecil pada fungsi aktivasi Tansig (Fungsi Sigmoid Bipolar).

Penentuan Learning Rate dan Momentum

Proses belajar jaringan dengan agoritma backpropagation standar biasanya lambat. Beberapa hal yang bisa membuat proses belajar jaringan lebih cepat adalah penambahan parameter learning rate dan momentum

Parameter learning rate menakar besarnya penyesuaian pada bobot ketika dilakukan proses belajar. Proses belajar jaringan menjadi sangat lambat jika learning rate yang digunakan terlalu kecil akan tetapi bila learning rate yang digunakan terlalu besar maka proses belajar jaringan akan berosilasi atau menyebar.

Hal di atas dapat diminimasi oleh suatu parameter yang dinamakan momentum. Dalam algoritma backpropagation dengan menggunakan momentum, perubahan bobot adalah pada arah yang merupakan kombinasi antara gradien kini dan gradien sebelumnya. Momentum akan membuat jaringan melakukan penyesuian bobot yang lebih besar selama koreksinya memiliki arah yang sama dengan pola yang ada. Sedangkan learning rate yang kecil digunakan untuk mencegah respon yang besar terhadap error dari satu pola proses belajar. Nilai

terhadap beberapa nilai learning rate dan momentum. Parameter learning rate dan momentum bernilai antara 0 dan 1.

Trial dimulai dengan nilai learning rate yang kecil, yaitu 0,005 sampai dengan 0,1. Tabel Rekapitulasi trial yang pertama dengan menggunakan fungsi aktivasi Sigmoid Bipolar (Tansig) disajikan pada Tabel 29.

Tabel 29. Hasil Training JST dengan Fungsi Aktivasi Sigmoid Bipolar (Tansig)

RMSE MSE SSE

Learning Rate

Momen

tum Error Epoch Error Epoch Error Epoch

0,005 0,9 0,009959 847 0,009999 411 0,00995 593 0,05 0,7 0,011759 1000 0,009945 119 0,009867 958 0,001 0,7 0,009978 1000 0,009960 602 0,009284 881 0,001 0,9 0,009977 876 0,009775 281 0,009720 281 0,1 0,7 0,031972 1000 0,009794 107 0,067758 1000

Hasil Trial yang pertama menunjukan bahwa performansi jaringan yang baik diperoleh pada learning rate 0,005 dengan momentum 0,9. Trial yang kedua dilakukan dengan menggunakan fungsi aktivasi Sigmoid Biner (Logsig). Hasil untuk

trial yang kedua disajikan pada Tabel 30.

Tabel 30. Hasil Training JST denganFungsi Aktivasi Sigmoid Biner (Logsig)

RMSE MSE SSE

Learning Rate

Momen

tum Error Epoch Error Epoch Error Epoch

0,005 0,9 0,044558 1000 0,009978 719 0,040957 1000 0,05 0,9 0,116593 1000 0,009939 748 0,080207 1000 0,001 0,9 0,228258 1000 0,048055 1000 1,650950 1000 0,001 0,9 0,020606 1000 0,009935 454 0,029224 1000 0,1 0,9 0,118867 1000 0,009923 435 0,31492 1000

Hasil trial yang kedua menunjukkan bahwa dengan menggunakan fungsi aktivasi Logsig, performansi jaringan tidak menjadi lebih baik dari sebelumnya. Seperti trial yang dilakukan sebelumnya, semakin besar nilai momentum yang digunakan semakin baik pula performansi jaringan. Trial-trial selanjutnya dilakukan dengan menggunakan fungsi aktivasi Linear pada range -1 sampai dengan +1 seperti yang ditunjukan pada Tabel 31.

Tabel 31. Hasil Training denganFungsi Aktivasi Linear (range -1 sampai dengan +1)

RMSE MSE SSE

Learning Rate

Momen

tum Error Epoch Error Epoch Error Epoch

0,005 0,7 0,486262 1000 0,236449 1000 6,62095 1000 0,05 0,1 0,489169 1000 0,236763 1000 6,68910 1000 0,001 0,3 0,486253 1000 0,236441 1000 6,62036 1000 0,001 0,7 0,486271 1000 0,236458 1000 6,62230 1000 0,1 0,7 0,486969 1000 0,238374 1000 6,69000 1000

Hasil performansi sementara dari Tabel 29 sampai dengan Tabel 31 menunjukkan bahwa jaringan dengan learning rate 0,005 dan momentum 0,9 dengan fungsi aktivasi Sigmoid Bipolar (Tansig) memberikan hasil terbaik dengan nilai error terkecil. Selanjutnya trial dan error dilakukan kembali pada fungsi aktivasi

Linear dengan range –inf sampai dengan +inf.

Tabel 32. Hasil Training denganFungsi Aktivasi Linear (range -inf sampai dengan +inf)

RMSE MSE SSE

Leaning Rate

Momen

tum Error Epoch Error Epoch Error Epoch

0,005 0,5 3,71366 1000 14,0253 1000 387,2020 1000 0,05 0,9 4,07875 1000 80,0782 1000 387,3720 1000 0,001 0,5 3,67625 1000 13,5864 1000 379,150 1000 0,001 0,5 3,74865 1000 14,2566 1000 454,525 1000 0,1 0,3 3,6939 1000 55,1151 1000 1790,12 1000

Dari hasil trial untuk beberapa fungsi aktivasi di atas terlihat bahwa performansi training terbaik dicapai oleh jaringan dengan nilai learning rate 0,005 dan nilai momentum 0,9 dengan menggunakan fungsi aktivasi Sigmoid Bipolar (Tansig), karena memiliki nilai error terkecil. Arsitektur JST diperlihatkan pada Gambar 28 sedangkan struktur JST yang digunakan pada penelitian disajikan pada Tabel 33.

Gambar 28. Arsitektur Jaringan Syaraf Tiruan

X f

X= ω

i

x

i