BAB 4 HASIL DAN PEMBAHASAN
4.2 Hasil Optimalisasi Komposisi Struktur BPNN
4.2.1 Hasil Setting Parameter Learning Rate dan Hidden Neuron Layer
perolehan Mean Absolute Percentage Error (MAPE) mendekati MAPE yang ditargetkan [15] dan waktu komputasi minimal. Perolehan MAPE dan waktu komputasi dipengaruhi oleh parameter iterasi, learning rate (alpha) dan hidden neuronlayer.
4.2.1 Hasil Setting Parameter Learning Rate dan Hidden Neuron Layer
terhadap MAPE
Setting parameter ini untuk mendapatkan nilai learning rate dan jumlah
hidden neuron layer optimal yang digunakan untuk melakukan prediksi kecepatan angin. Nilai learning rate dan jumlah hidden neuron layer optimal diperoleh berdasarkan MAPE yang paling terkecil. Dalam experiment ini dilakukan beberapa kombinasi parameter nilai learning rate dimulai 0.1 hingga 0.9, dan jumlah hidden neuron layer yang sebanyak 5, 10, 15, 20, 25, 50, 100, 200, 500 [27, 28]. Gambar 4.5 menampilkan hasil experiment pengaruh parameter terhadap hidden neuron layer dan learning rate.
Gambar 4.6 Grafik Pengaruh LearningRate dan HiddenNeuron terhadap MAPE
Dari hasil experiment di atas menunjukkan bahwa, nilai MAPE yang menggunakan sebanyak lima hidden neuron lebih tinggi dibandingkan dengan 10, 15, 20 dan 20 unit hidden neuron, begitu juga nilai MAPE yang dihasilkan dengan
0 1 2 3 4 5 6 7 8 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Me an A b so lu te Pe rc en tag e E rro r (% ) Learning Rate
Pengaruh Learning Rate dan Hidden Neuron terhadap MAPE
5 Neuron 10 Neuron 15 Neuron 20 Neuron 25 Neuron 50 Neuron 100 Neuron 500 Neuron
48
menggunakan 25 unit hidden neuron lebih tinggi dibandingkan dengan 100, 200 dan 500 unit hidden neuron.
Penambahan jumlah hidden neuron mempengaruhi nilai MAPE menjadi semakin kecil, hal tersebut disebabkan perolehan nilai bobot yang semakin kecil sehingga menghasilkan nilai keluaran semakin mendekati target sehingga akan membuat nilai MAPE semakin kecil. Kondisi demikian terjadi ketika dilakukan perubahan nilai learning rate, berdasarkan hasil experiment di atasmenunjukkan perolehan nilai MAPE yang menggunakan0.1, 0.2, 0.3, 0.4, 05 dan 0.6 lebih rendah jika dibandingkan menggunakan 0.7, 0.8 dan 0.9, sehingga dapat dikatakan bahwa semakin besar nilai learning rate yang digunakan akan berpengaruh pada besarnya nilai MAPE yang dihasilkan. Hal ini disebabkan oleh perubahan bobot semakin besar sehingga akan mempengaruhi hasil output yang semakin jauh dengan target yang mengakibatkan perolehan MAPE terlalu besar. Pemakaian nilai learning rate
kecil akan menyebabkan perubahan bobot semakin kecil, ini akan membuat algoritma akan lama mencapai konvergen [15]. Berdasarkan hasil experiment
tersebut maka didapatkan nilai MAPE minimal yang diperoleh adalah 3.01, 1.61, 1.11, 1.06, 0.11, 0.11, 0.1 dan 0.1.
4.2.2 Hasil Setting Parameter Learning Rate dan Hidden Neuron Layer
terhadapWaktu
Dalam experiment ini dilakukan beberapa kombinasi parameter nilai
learning rate yaitu 0.1 hingga 0.9, dan jumlah hidden neuron layer yang dimulai dengan menggunakan 5, 10, 15, 20, 25, 50, 100, dan 500 unit [27, 28], kombinasi ini untuk melihat pengaruh kedua parameter tersebut terhadap waktu. Tabel 4.1 menunjukkan durasi waktu simulasi.
Tabel 4.1 Pengaruh Learning Rate dan Hidden Neuron terhadap Waktu Jumlah Neuron Learning Rate 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 5 Neuron 10.28 10.42 10.57 10.72 10.86 11 11.15 11.3 11.44 10 Neuron 10.44 10.69 10.93 11.17 11.41 11.64 11.88 12.12 12.36
49 15 Neuron 11.66 11.79 11.91 12.04 12.16 12.28 12.4 12.53 12.65 20 Neuron 17.05 17.34 18.15 18.87 19.57 20.27 21 21.71 22.43 25 Neuron 58.04 65.01 66.89 68.76 70.6 72.41 74.3 76.17 78 50 Neuron 63.18 77.95 101.02 124.06 146.98 169.98 193.05 207.94 223.12 100 Neuron 271.97 321.05 370.05 420.04 470.03 519.93 568.51 616.7 665.59 200 Neuron 5173.9 5565.6 5956.19 6347.89 6738.47 7131.96 7524.41 7916.08 8307.69 500 Neuron 54293.7 55976.4 57653.7 59035.3 60780.1 62499.3 64201.2 65952.3 67635.6
Dari hasil experiment di atas menunjukkan bahwa, waktu komputasi menggunakan lima unit hidden neuron lebih rendah dibandingkan dengan menggunakan 10, 15 dan 20 unit hidden neuron serta menggunakan 25 unit hidden neuron lebih tinggi dibandingkan dengan 50 dan 100 hidden neuron, begitu juga menggunakan 200 unit hidden neuron dan menggunakan 500 hidden neuron.
Oleh karena itu dapat dikatakan bahwa semakin banyak menggunakan jumlah hidden neuron akan membutuhkan waktu komputasi yang lama, ini disebabkan karena perhitungan bobot pada lapisan Zj, semakin banyak neuron yang digunakan maka semakin besar waktu dibutuhkan sehingga ini akan berdampak pada waktu komputasi.
Berdasarkan hasil experiment di atas menunjukkan, penggunaan nilai
learning rate juga mempengaruhi kecepatan waktu komputasi, hal ini terlihat ketika menggunakan nilai learning rate 0.1, 0.2 dan 0.3, waktu komputasinya ang dibutuhkan lebih rendah jika dibandingkan menggunakan 0.4, 0.5, 0.6, 0.7, 0.8 dan 0.9. Untuk itu dapat dikatakan bahwa semakin besar nilai learning rate, maka semakin besar waktu komputasi dibutuhkan. Hal tersebut disebabkan karena semakin besar nilai learning rate digunakan membuat jaringan menjadi tidak stabil, ketidakstabilan ini akan menyebabkan perolehan bobot semakin besar sehingga akan menghasilkan nilai keluaran dan target yang diinginkan semakin menjauh. Untuk memperbaiki hal tersebut maka dibutuhkan waktu lama [24].
50
Berdasarkan experiment di atas didapatkan bahwa perolehan MAPE
terendah dihasilkan ketika mengggunakan jumlah hidden neuron sebanyak 25, 50, 100 dan 500 unit dengan nilai learning rate 0.6 yaitu 0.11 dengan waktu komputasi yang dibutuhkan adalah 72.41, 169.98, 519.93, 7131.96, 62499.39 milisecond.
4.2.3 Hasil Setting Parameter Iterasi dan Hidden Neuron terhadap MAPE Settingparameter ini bertujuan untuk mendapatkan jumlah iterasi optimal dan hidden neuron optimal berdasarkan perolehan MAPE mimimal. Hasil
experiment dapat dilihat pada gambar 4.7.
Gambar 4.7 Grafik Pengaruh Iterasi dan HiddenNeuron terhadap MAPE
Dari hasil experiment di atas menunjukkan bahwa variasi penggunaan jumlah iterasi mempengaruhi perolehan MAPE. Hal ini terlihat dari penggunaan sebanyak 100 iterasi, perolehan MAPE lebih besar dibandingkan dengan 300 iterasi dan 500 iterasi, kondisi yang samak terjadi ketika menggunakan sebanyak 1000 iterasi, hasil perolehan MAPE lebih tinggi rendah dibandingkan dengan 2000 dan 5000 iterasi.
Sedangkan untuk penambahan jumlah neuron pada hidden layer
51
hidden neuron lebih tinggi dibandingkan dengan menggunakan 10, 15, 20 dan 25 unit hidden neuron, begitu juga nilai MAPE yang dihasilkan dengan menggunakan 50 unit hidden neuron lebih tinggi dibandingkan dengan 100, 200 dan 500 unit
hidden neuron.
Dari simulasi tersebut didapatkan, pengaruh nilai MAPE yang sangat signifikan mulai terlihat pada 500, 1000, 2000 dan 5000 iterasi dimana jumlah
hidden neuron yang dipakai sebanyak 25 unit dengan perolehan MAPE yang dihasilkan adalah 0.11. Karena tidak ada perbedaan selisih nilai MAPE maka jumlah iterasi yang digunakan untuk prediksi kecepatan angin pada setiap lokasi menggunakan komposisi 25 neuron dan 500 iterasi. Tabel 4.2 menunjukkan komposisi jaringan yang digunakan untuk prediksi kecepatan angin.
Tabel 4.2 Komposisi ANN Untuk Simulasi Prediksi Kecepatan Angin
Alternatif Lokasi
Hidden
Neuron Learning Rate Iterasi
Sukomoro 25 0.6 500
Rejoso 25 0.6 500
Pace 25 0.6 500
Nganjuk 25 0.6 500
Lengkong 25 0.6 500
Penggunaan hidden neuron sebanyak 25 unit dikarenakan selisih waktu komputasi dengan penggunaan 50 unit hidden neuron, 100, 200 dan 500, unit
hidden neuron sangat signifikan yaitu, 97.57, 447.52, 7059.55, 62426.98 milisecod, tetapi selisih perolehan MAPE tidak jauh berbeda.
Hal yang sama juga terlihat ketika pemakaian jumlah iterasi. Penggunaan sebanyak 1000 iterasi dikarenakan selisih perolehan MAPE dengan 2000 dan 5000 iterasi sangat kecil yaitu 0.01 dan 0.03 persen.
52