BAB III METODOLOGI PENELITIAN
3.3. Metode Pengolahan Data
Berikut tahapan-tahapan yang dilakukan:
1. Melakukan analisis deskriptif masing-masing variabel.
2. Melakukan normalisasi data.
3. Data dibagi menjadi dua bagian, yaitu data pelatihan (training) dengan presentase 80% dari total data dan 20% data lainnya digunakan sebagai data pengujian (testing).
4. Langkah-langkah pada proses pelatihan ANN dengan Algoritma Backpropagation:
a. Inisialisasi target output, input dan bobot secara acak.
b.Inisialisasi maksimal epoch, target error dan fungsi aktivasi sigmoid pada hidden layer dan linear pada output layer.
c. Inisialisasi jumlah neuron pada hidden layer dan learning rate.
17 d. Hitung MSE pada pengujian neuron pada hidden layer dan nilai learning rate.
e. Proses pelatihan akan berhenti apabila nilai MSE < target error.
f. Hasil prakiraan data pelatihan dan hitung nilai MAPE.
g. Simpan bobot data pelatihan untuk proses pengujian.
5. Langkah-langkah pada proses pengujian ANN dengan Algoritma Backpropagation:
a. Inisialisasi input dari data pengujian.
b. Inisialisasi bobot hasil pelatihan.
c. Lakukan pengujian.
d. Hasil prakiraan data pengujian dan hitung nilai MAPE.
18 3.4. Alur Penelitian
Gambar 3.1 Alur proses pelatihan algoritma backpropagation
19 Gambar 3.2 Alurproses pengujian algoritma backpropagation
20
BAB IV
HASIL DAN PEMBAHASAN
4.1. Deskripsi Data
Deskriptif data bertujuan untuk melihat gambaran umum dari data yang akan diolah. Data yang digunakan adalah data dari harga pembukaan, tertinggi, terendah dan penutupan saham PT.Indofood Sukses Makmur Tbk (INDF) periode bulanan yang dimulai pada bulan Januari 2005 sampai dengan Desember 2019.
Seluruh data yang digunakan berjumlah 180 data.
Gambar 4.1. Harga Pembukaan Saham
Dari gambar 4.1 diatas dapat dilihat bahwa grafik menunjukkan untuk harga pembukaan ini memiliki harga paling tinggi dan harga yang paling rendah yaitu 8825 dan 690. Dengan rata-rata 4836.222 dan standar deviasi sebesar 2565.414.
0 2000 4000 6000 8000 10000
Jan-05 Nov-05 Sep-06 Jul-07 Mei-08 Mar-09 Jan-10 Nov-10 Sep-11 Jul-12 Mei-13 Mar-14 Jan-15 Nov-15 Sep-16 Jul-17 Mei-18 Mar-19
Harga
Bulan
Harga Pembukaan
21 Gambar 4.2. Harga Tertinggi Saham
Dari gambar 4.2 diatas dapat dilihat bahwa grafik menunjukkan untuk harga tertinggi ini memiliki harga paling tinggi dan harga yang paling rendah yaitu 9200 dan 840. Dengan rata-rata 5141.194 dan standar deviasi sebesar 2643.216.
Gambar 4.3. Harga Terendah Saham
Dari gambar 4.3 diatas dapat dilihat bahwa grafik menunjukkan untuk harga terendah ini memiliki harga paling tinggi dan harga yang paling rendah yaitu 8400 dan 670. Dengan rata-rata 4540.056 dan standar deviasi sebesar 2463.353.
0
Jan-05 Nov-05 Sep-06 Jul-07 Mei-08 Mar-09 Jan-10 Nov-10 Sep-11 Jul-12 Mei-13 Mar-14 Jan-15 Nov-15 Sep-16 Jul-17 Mei-18 Mar-19
Harga
Jan-05 Nov-05 Sep-06 Jul-07 Mei-08 Mar-09 Jan-10 Nov-10 Sep-11 Jul-12 Mei-13 Mar-14 Jan-15 Nov-15 Sep-16 Jul-17 Mei-18 Mar-19
Harga
Bulan
Harga Terendah
22 Gambar 4.4. Harga Penutupan Saham
Dari gambar 4.4 diatas dapat dilihat bahwa grafik menunjukkan untuk harga penutupan ini memiliki harga paling tinggi dan harga yang paling rendah yaitu 8750 dan 730. Dengan rata-rata 4873.056 dan standar deviasi sebesar 2555.225.
4.2. Normalisasi Data
Data saham INDF terlebih dahulu di normalisasikan. Normalisasi dilakukan menggunakan Min-Max Normalization dengan menggunakan rumus persamaan (2.3). Dimana harga pembukaan (Y1), harga tertinggi (Y2),harga terendah (Y3) dan harga penutupan (Y). Daftar tabel hasil normalisasi harga saham dapat dilihat pada Lampiran 2.
4.3. Arsitektur Artificial Neural Network Backpropagation
Pada penelitian ini arsitektur jaringan menggunakan neuron untuk input layer berjumlah tiga neuron yaitu harga pembukaan saham (Y1), harga tertinggi saham (Y2), harga terendah saham (Y3) dan harga penutupan saham sebagai target pengujian (Y) dengan membandingkan penggunaan jumlah neuron pada hidden layer dan learning rate. Jumlah neuron pada hidden layer yang digunakan satu sampai sepuluh, sedangkan nilai learning rate yang digunakan 0.1 sampai 0.9.
Fungsi aktivasi yang digunakan yaitu sigmoid biner pada hidden layer dan linear pada output layer. Maksimum epoch 10000 dan target error 0.001. Inisialisasi bobot yang digunakan yaitu inisialisasi secara random.
0
Jan-05 Nov-05 Sep-06 Jul-07 Mei-08 Mar-09 Jan-10 Nov-10 Sep-11 Jul-12 Mei-13 Mar-14 Jan-15 Nov-15 Sep-16 Jul-17 Mei-18 Mar-19
Harga
Bulan
Harga Penutupan
23 4.3.1. Penentuan Jumlah Neuron pada Hidden Layer
Membandingkan penggunaan jumlah neuron pada hidden layer dilakukan untuk mendapatkan nilai MSE terbaik yaitu dengan nilai yang paling rendah.
Jumlah neuron pada hidden layer yang dilakukan yaitu satu sampai sepuluh dengan range satu. Begitu juga dengan nilai learning rate awal yaitu 0.1 dengan lima kali percobaaan setiap jumlah neuron pada hidden layer. Berikut tabel nilai rata-rata MSE dari lima kali percobaan pada setiap jumlah neuron pada hidden layer.
Tabel 4.1. Hasil Penggunaan Jumlah Neuron Pada Hidden Layer Jumlah Neuron pada Hidden
Layer
Rata-rata MSE
1 0.000475363
2 0.000462037
3 0.000444932
4 0.000448964
5 0.000469646
6 0.000460447
7 0.000455816
8 0.000465148
9 0.000440982
10 0.00043797
Untuk mempermudah melihat perbandingan hasil penggunaan jumlah neuron pada hidden layer berdasarkan hasil pada tabel 4.1, maka dibuatlah grafik sebagai berikut:
24 Gambar 4.5. Rata-rata MSE Jumlah Neuron Pada Hidden Layer
Pada gambar 4.5 dengan bertambahnya penggunaan jumlah neuron pada hidden layer cenderung membuat nilai MSE semakin kecil. Menunjukan bahwa nilai MSE terbaik sebesar 0.00043797 didapatkan pada jumlah neuron terbanyak yaitu sepuluh neuron pada hidden layer. Selanjutnya jumlah neuron pada hidden layer yang terpilih digunakan ke tahap membandingkan penggunaan nilai learning rate.
4.3.2. Penentuan Nilai Learning Rate
Dilakukan pada nilai 0.1 sampai 0.9 dengan range 0.1 sebanyak lima kali percobaan pada masing-masing nilai. Dengan menggunakan sepuluh neuron pada hidden layer. Berikut tabel nilai rata-rata MSE dari lima kali percobaan pada setiap nilai learning rate.
Tabel 4.2. Hasil Penggunaan Nilai Learning Rate
Learning Rate Rata-rata MSE
0.1 0.00043797
Jumlah neuron pada hidden layer
25
0.7 0.000440309
0.8 0.000453132
0.9 0.000460878
Untuk mempermudah melihat perbandingan penggunaan jumlah learning rate berdasarkan hasil pada tabel 4.2, maka dibuatlah grafik sebagai berikut:
Gambar 4.6 Rata-rata MSE Nilai Learning Rate
Pada gambar 4.6 dengan bertambahnya penggunaan nilai learning rate cenderung membuat nilai MSE semakin besar. Dan menunjukan bahwa nilai MSE terbaik sebesar 0.000432291 didapatkan pada nilai learning rate 0.3.
Karena rata-rata nilai MSE dengan sepuluh neuron pada hidden layer dan learning rate 0.3 lebih kecil dari target error sebesar 0.001, maka model arsitektur jaringan yang terbentuk dapat digunakan untuk prakiraan.
4.4. Pelatihan Jaringan
Berdasarkan pelatihan jaringan yang telah dilakukan dengan rancangan arsitektur jaringan yang terdiri dari 3 lapisan yang masing-masing memiliki 3 neuron pada input layer, 10 neuron pada hidden layer dan 1 neuron pada ouput layer, maka arsitektur jaringan multi layer network yang telah dirancang sebagai berikut:
26 Selama proses pelatihan, jaringan tersebut mencapai 915 iterasi untuk melatih Artificial Neural Network tersebut hingga mencapai optimal. Artificial Neural Network yang akan digunakan untuk memprakirakan harga penutupan saham dengan data pelatihan terlebih dahulu untuk mengetahui akurasi dari jaringan tersebut sebelum dilakukannya pengujian jaringan. Untuk lebih lengkapnya pada Lampiran 5.
Tabel 4.3. Hasil Prakiraan Pelatihan Jaringan
Bulan Periode Aktual Prakiraan
Jan-05 1 870 890.0269
Feb-05 2 930 934.9988
Mar-05 3 1160 1227.156
Gambar 4.7. Arsitektur Artificial Neural Network
27
Hasil prediksi data pelatihan menggunakan model jaringan yang didapatkan seperti tabel 4.3 diatas dalam memprediksi harga saham dengan rentang waktu dalam bulan. Didapatkan nilai MAPE sebesar 3.49%. akurasi model yang dihasilkan sebesar 96.51%.
4.5. Pengujian Jaringan
Berikut data aktual dan data hasil prakiraan nilai harga penutupan saham (Y) dengan menggunakan sepuluh neuron pada hidden layer dan learning rate 0.3 periode Januari 2017 sampai dengan Desember 2019. Disajikan pada tabel 4.4 berikut ini:
Tabel 4.4. Data Aktual Dan Data Prakiraan Harga Penutupan Saham
Bulan Periode Aktual Prakiraan
Jan-17 1 7925 7865.262
28
Untuk mempermudah melihat perbedaan dari data aktual dan data prakiraan dari nilai harga penutupan saham yang ada pada tabel 4.4, maka dibuatlah grafik sebagai berikut:
29 Gambar 4.8. Grafik Data Aktual Dan Data Prakiraan Harga Penutupan Saham Bedasarkan tabel 4.4 dengan menggunakan rumus persamaan (2.18) diperoleh nilai MAPE sebesar 2.263144%. Hasil prakiraan dikatakan sangat baik jika nilai MAPE kurang dari 10%. Akurasi model prediksi yang dihasilkan 97.73686%. Model jaringan yang diperoleh dengan tingkat akurasi yang optimal terdapat pada saat pengujian jaringan. Sehingga dapat dikatakan bahwa performa jaringan yang dihasilkan sangat baik.
4.6. Hasil Prakiraan
Dengan menggunakan arsitektur Artificial Neural Network yang terpilih yaitu dengan penggunaan sepuluh neuron pada hidden layer dan learning rate sebesar 0.3, maka hasil prakiraan harag penutupan saham INDF untuk 12 periode selanjutnya yaitu pada Januari 2020 sampai Desember 2020 dapat dilihat pada tabel 4.5 sebagai berikut:
5000 5500 6000 6500 7000 7500 8000 8500 9000
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35
Harga
Periode
Aktual Prediksi
30 Tabel 4.5 Prakiraan penutupan saham INDF
Bulan Prakiraan
Jan-20 8089.02
Feb-20 6914.4
Mar-20 6447.55
Apr-20 6773.81
Mei-20 5974.43
Jun-20 6952.73
Jul-20 6729.1
Agu-20 7878.35
Sep-20 7534.53
Okt-20 7307.03
Nov-20 7303.26
Des-20 6986.29
Berdasarkan tabel 4.5 diperoleh harga penutupan saham INDF pada periode 12 bulan mendatang cenderung mengalami penurunan harga. Dan pada periode Januari 2020 sampai Desember 2020 harga penutupan saham tertinggi pada bulan Januari 2020 sebesar 8089.02 dan harga penutupan saham terendah pada bulai Mei 2020 sebesar 5974.43.
31
BAB V
KESIMPULAN DAN SARAN
5.1. Kesimpulan
Berdasarkan penelitian yang dilakukan oleh penulis untuk memprakirakan harga saham PT Indofood Sukses Makmur menggunakan Artificial Neural Network dengan Algoritma Backpropagation diperoleh beberapa kesimpulan diantaranya sebagai berikut :
1. Tingkat akurasi yang dihasilkan ketika melakukan pengujian jaringan yang diperoleh mencapai tingkat akurasi sebesar 97.73686%.
2. Hasil rancangan arsitektur jaringan syaraf tiruan multi layer network yang diperoleh terdiri dari 3 layer yang meliputi 3 neuron pada input layer, 10 neuron pada hidden layer dan 1 neuron pada output layer. Parameter-parameter yang digunakan untuk membentuk model jaringan tersebut diantaranya learning rate dengan nilai sebesar 0.3 dan fungsi aktivasi yang digunakan adalah sigmoid biner pada hidden layer dan linear pada output layer. Dan memerlukan 915 iterasi untuk melatih Artificial Neural Network tersebut hingga mencapai optimal.
5.2. Saran
Dari hasil yang telah diperoleh, terdapat beberapa saran yang dapat diberikan:
1. Untuk penelitian selanjutnya, dapat mencoba inisialisasi bobot nguyen- windrow.
2. Menambahkan penggunaan jumlah neuron pada hidden layer dan nilai learning rate.
3. Membandingkan dengan metode lainnya seperti, Extreme Learning Machine untuk memprakirakan harga saham.
32
REFERENSI
[1] E. Pardiansyah, “Investasi dalam Perspektif Ekonomi Islam: Pendekatan Teoritis dan Empiris,” Economica: Jurnal Ekonomi Islam , pp. 337-373, 2017.
[2] D. Herlianto, Manajemen Investasi Plus Jurus Mendeteksi Investasi Bodong, Yogyakarta: Pustaka Baru, 2013.
[3] R. B. Afrianto, H. Tjandrasa dan I. Arieshanti, “Prediksi Pergerakan Harga Saham Menggunakan Metode Backpropagation Neural Network,” SimanteC, pp. 132-141, 2013.
[4] D. R. Artha, N. A. Achsani dan H. Sasongko, “Analisis Fundamental, Teknikal Dan Makroekonomi,” MK, pp. 175-184, 2014.
[5] Indofood, “Dividends,” PT Indofood Sukses Makmur Tbk, [Online].
Available: https://www.indofood.com/investor-relation/dividend-history.
[Diakses 15 Agustus 2020].
[6] IDX, “Produk Syariah,” Bursa Efek Indonesia, [Online]. Available:
https://www.idx.co.id/idx-syariah/produk-syariah/. [Diakses 1 April 2019].
[7] N. P. Sakinah, I. Cholissodin dan A. W. Widodo, “Prediksi Jumlah Permintaan Koran Menggunakan Metode Jaringan Syaraf Tiruan Backpropagation,” Jurnal Pengembangan Teknologi Informasi dan Ilmu Komputer, pp. 2612-2618, 2018.
[8] G. Z. Muflih, Sunardi dan A. Yudhana, “Jaringan Saraf Tiruan Backpropagation Untuk Prediksi Curah Hujan Di Wilayah Kabupaten Wonosobo,” MUST: Journal of Mathematics Education, Science and Technology, pp. 45-56, 2019.
[9] B. B. W. Putra, M. A. Albar dan B. Irmawati, “Implementasi Jaringan Syaraf Tiruan,” JTIKA, pp. 233-244, 2019.
33 [10] IDX, “Saham,” PT Bursa Efek Indonesia, [Online]. Available:
https://www.idx.co.id/produk/saham/. [Diakses 1 April 2019].
[11] J. D. Cryer dan K.-S. Chan, Time Series Analysis With Applications in R Second Edition, New York: Pearson, 2006.
[12] Suyanto, Artificial Intelligence, Bandung: Informatika, 2007.
[13] A. Hermawan, Pengantar Jaringan Syaraf Tiruan, Teori, dan Aplikasi, Yogyakarta: Andi, 2006.
[14] D. Puspitaningrum, Pengantar Jaringan Syaraf Tiruan, Yogyakarta: Andi Offset, 2006.
[15] S. Kusumadewi, Artificial Intelligence (Teknik dan Aplikasinya), Yogyakarta:
Graha Ilmu, 2003.
[16] J. T. Hardinata, H. Okprana, A. P. Windarto dan W. Saputra, “Analisis Laju Pembelajaran dalam Mengklasifikasi Data Wine Menggunakan Algoritma Backpropagation,” Jurnal Sains Komputer & Informatika (J-SAKTI), pp. 422-432, 2019.
[17] M. S. Wibawa, “Pengaruh Fungsi Aktivasi, Optimisasi dan Jumlah Epoch Terhadap Performa Jaringan Saraf Tiruan,” Jurnal Sistem Informatika, pp.
167-174, 2017.
[18] L. Fausett, Fundamentals of Neural Networks: Achitectures, Algorithms, and Applications., New Jersey: Prentice Hall, 1994.
[19] S. Makridaki, S. Wheelwright dan V. McGee, Metode dan Aplikasi Peramalan, Jakarta: Binarupa Aksara, 2003.
[20] G. Vincent, Production Planning and Inventory Control, Jakarta: PT Gramedia Pustaka Umum, 2005.
34
LAMPIRAN
35
LAMPIRAN
Lampiran 1. Data Penelitian
Bulan Y1 Y2 Y3 Y
36
37
38
39
40 LAMPIRAN 2. Data Normalisasi
Y1 Y2 Y3 Y
0.012293 0.008373 0.01423 0.017456 0.022127 0.014354 0.021992 0.024938 0.029502 0.062201 0.033635 0.053616 0.056546 0.045455 0.043984 0.03616 0.040565 0.043062 0.03881 0.058603 0.062692 0.046651 0.049159 0.046135 0.0504 0.035885 0.051746 0.044888 0.04917 0.0311 0.009056 0.007481
0.011063 0.005981 0 0
0 0 0.002587 0.011222 0.014751 0.003589 0.016818 0.014963 0.019668 0.01555 0.021992 0.022444 0.027044 0.017943 0.019405 0.018703 0.024585 0.010766 0.020699 0.013716 0.018439 0.005981 0.018111 0.01995 0.025814 0.035885 0.02458 0.049875 0.056546 0.047847 0.027167 0.026185 0.03319 0.022727 0.021992 0.018703 0.024585 0.02512 0.025873 0.0399 0.045482 0.045455 0.043984 0.057357 0.062692 0.052632 0.058215 0.064838 0.067609 0.059809 0.072445 0.074813 0.078672 0.072967 0.082794 0.083541 0.086048 0.070574 0.07762 0.077307 0.081131 0.106459 0.078913 0.119701 0.130301 0.116029 0.100906 0.103491 0.108175 0.088517 0.090556 0.098504 0.103258 0.107656 0.109961 0.113466 0.116779 0.118421 0.124191 0.124688 0.127843 0.162679 0.137128 0.161471 0.167179 0.171651 0.162354 0.158354 0.14874 0.138756 0.115136 0.140898 0.145052 0.13756 0.142303 0.149626 0.156116 0.162679 0.152652 0.183292 0.188691 0.240431 0.188228 0.223815 0.225569 0.225478 0.223803 0.23005 0.231715 0.291268 0.233506 0.261222
41 0.265519 0.267344 0.259379 0.273691
0.262446 0.252392 0.191462 0.198878 0.200983 0.195574 0.15912 0.192643 0.194837 0.249402 0.207633 0.258105 0.259373 0.240431 0.210867 0.208229 0.213276 0.192584 0.172057 0.192643 0.188691 0.171651 0.152652 0.189526 0.185618 0.171651 0.139715 0.153367 0.156116 0.133971 0.034929 0.044888 0.059004 0.053828 0.021992 0.029925 0.039336 0.022727 0.025873 0.024938 0.029502 0.034689 0.032342 0.031172 0.03319 0.022727 0.02458 0.018703 0.018439 0.019139 0.019405 0.026185 0.028273 0.055024 0.029754 0.068579 0.068838 0.132775 0.073739 0.130923 0.136447 0.13756 0.122898 0.144638 0.147511 0.180622 0.137128 0.192643 0.20713 0.225478 0.194696 0.220698 0.219422 0.264354 0.220569 0.28616 0.280885 0.294258 0.262613 0.292394 0.293178 0.288278 0.291721 0.292394 0.296251 0.333134 0.311125 0.351621 0.351567 0.366029 0.353169 0.357855 0.35464 0.37201 0.349935 0.382793 0.379226 0.404904 0.391979 0.379676 0.388445 0.37201 0.391979 0.395262 0.391518 0.37201 0.340233 0.36409 0.35464 0.404904 0.362872 0.426434 0.440688 0.464713 0.443726 0.485661 0.480639 0.479665 0.443726 0.476309 0.468347 0.593301 0.489004 0.588529 0.597419 0.58134 0.534282 0.557357 0.542102 0.521531 0.498706 0.479426 0.505224 0.494617 0.48577 0.516833 0.523663 0.509569 0.469599 0.495012 0.486785 0.485646 0.50194 0.501247 0.505224 0.551435 0.527814 0.582294 0.572833 0.58134 0.586028 0.600998
42 0.603565 0.587321 0.592497 0.582294
0.585126 0.599282 0.57956 0.625935 0.652735 0.677033 0.650712 0.700748 0.701905 0.712919 0.670116 0.669576 0.665028 0.647129 0.450194 0.538653 0.514444 0.587321 0.505175 0.563591 0.529809 0.527512 0.508409 0.495012 0.492932 0.482656 0.495472 0.482544 0.483712 0.494617 0.508409 0.507481 0.511371 0.51555 0.534282 0.544888 0.535956 0.521531 0.527814 0.513716 0.511371 0.485646 0.505175 0.513716 0.511371 0.485646 0.511643 0.49813 0.489859 0.482656 0.482536 0.513716 0.511371 0.575359 0.537516 0.582294 0.57898 0.557416 0.573092 0.582294 0.57898 0.575359 0.598965 0.613466 0.603565 0.641148 0.631307 0.619701 0.615857 0.605263 0.624838 0.638404 0.640443 0.641148 0.61837 0.638404 0.634296 0.641148 0.65718 0.663342 0.646589 0.772727 0.683053 0.819202 0.824831 0.856459 0.831824 0.837905 0.824831 0.808612 0.844761 0.825436 0.812538 0.838517 0.818887 0.825436 0.800246 0.79067 0.708926 0.825436 0.818685 0.784689 0.747736 0.719451 0.738783 0.742823 0.605433 0.719451 0.708052 0.760766 0.65718 0.78803 0.775661 0.79067 0.767141 0.738155 0.72649 0.7189 0.715395 0.738155 0.738783 0.7189 0.721863 0.73192 0.72649 0.778708 0.760673 0.778678 0.772588 0.757775 0.796248 0.803616 0.787953 0.832536 0.805951 0.819202 0.818685 0.79366 0.805951 0.78803 0.781807 0.754785 0.780078 0.759975 0.760295 0.730861 0.780078 0.744389 0.744929 0.754785 0.780078 0.791147
43 0.78488 0.760766 0.802717 0.766209
0.778734 0.751794 0.796248 0.781796 0.772588 0.739833 0.738034 0.759975 0.757222 0.72488 0.741268 0.744389 0.738783 0.709928 0.731565 0.750623 0.744929 0.823565 0.786546 0.850374 0.830977 0.817584 0.851229 0.831671 0.821758 0.802632 0.857697 0.837905 0.837124 0.796651 0.75097 0.750623 0.744929 0.784689 0.767141 0.819202 0.7941 0.766746 0.744502 0.728803 0.717271 0.706938 0.660414 0.669576 0.652735 0.6561 0.503234 0.569825 0.566687 0.566388 0.540103 0.594763 0.594345 0.668062 0.595731 0.59788 0.585126 0.629187 0.543984 0.516833 0.529809 0.533493 0.539457 0.554239 0.551321 0.641148 0.582794 0.682045 0.683467 0.766746 0.69599 0.78803 0.775661 0.805622 0.793014 0.80985 0.803319 0.772727 0.793014 0.797382 0.787953 0.763756 0.796248 0.772444 0.766441 0.784689 0.802717 0.812968 0.809465 0.943182 0.815653 0.947007 0.938537 0.916268 0.915912 0.897132 0.898586 1 0.941785 0.993766
1 1 1 0.968828
0.963122 0.919258 0.847995 0.853491 0.852489 0.871411 0.844761 0.897132 0.889367 0.874402 0.909444 0.897132 0.895513 0.880383 0.932083 0.92207 0.917025 0.919258 0.932083 0.906484 0.89244 0.919258 0.938551 0.953242 0.944683 0.976077 0.987063 1 0.990781 0.970096 0.987063 0.981297 0.978488 0.952153 0.980595 0.953242 0.947757 0.940191 0.967658 0.953242 0.944683 0.946172 0.983829 0.959476 0.953903 0.937201 0.967658 0.931421
44 0.932391 0.895335 0.860931 0.822319
0.815612 0.829545 0.854463 0.859726 0.852489 0.871411 0.890039 0.875312 0.867855 0.847488 0.890039 0.853491 0.846343 0.832536 0.815653 0.806733 0.806392 0.778708 0.78978 0.778678 0.772588 0.754785 0.699224 0.791147 0.78488 0.766746 0.734799 0.738155 0.732637 0.697967 0.708926 0.700748 0.695759 0.709928 0.689521 0.703865 0.698832 0.668062 0.670116 0.644638 0.640443 0.629187 0.624838 0.65399 0.649662 0.688995 0.634541 0.73192 0.732637 0.802632 0.741268 0.837905 0.830977 0.844498 0.844761 0.875312 0.852489 0.832536 0.822122 0.791147 0.787953 0.781699 0.741268 0.7101 0.698832 0.736842 0.702458 0.775561 0.769514 0.745813 0.670116 0.73192 0.72649 0.754785 0.767141 0.784913 0.778734 0.754785 0.776843 0.791147 0.787953 0.847488 0.805951 0.897132 0.89244 0.86244 0.877102 0.869077 0.852489 0.844498 0.854463 0.869077 0.861709 0.856459 0.886805 0.900249 0.898586 0.86244 0.899741 0.897132
45
LAMPIRAN 3. Hasil Penggunaan Jumlah Neuron Pada Hidden Layer
Hidden 1 2 3 4 5 Rata-rata
MSE 1 0.000471857 0.000476551 0.000489 0.000487 0.000453 0.000475363 2 0.0004679 0.000458277 0.000455 0.000454 0.000475 0.000462037 3 0.000425904 0.000456828 0.000458 0.000425 0.000458 0.000444932 4 0.000440161 0.000477023 0.000455 0.000449 0.000423 0.000448964 5 0.000456634 0.000484663 0.000484 0.000466 0.000457 0.000469646 6 0.000470188 0.000472127 0.000457 0.000454 0.000449 0.000460447 7 0.000479927 0.000424783 0.000464 0.000436 0.000474 0.000455816 8 0.000459165 0.00049503 0.000446 0.000477 0.000448 0.000465148 9 0.000434502 0.000429916 0.000455 0.000451 0.000435 0.000440982 10 0.000452089 0.000441206 0.000428 0.000432 0.000437 0.00043797
46
LAMPIRAN 4. Hasil Penggunaan Nilai Learning Rate Learning
rate 1 2 3 4 5 MSE
0.1 0.000452089 0.000441 0.000428 0.000432 0.000437 0.00043797 0.2 0.000461433 0.000442 0.000437 0.000432 0.000438 0.000441909 0.3 0.00043396 0.000416 0.000441 0.000449 0.000422 0.000432291 0.4 0.000427266 0.00044 0.000426 0.000438 0.000434 0.000433166 0.5 0.000454302 0.000449 0.000431 0.000429 0.000468 0.000446295 0.6 0.000454876 0.000467 0.000419 0.000456 0.000452 0.000449628 0.7 0.000412838 0.000429 0.000466 0.000435 0.000459 0.000440309 0.8 0.000491753 0.000429 0.00043 0.000448 0.000468 0.000453132 0.9 0.000440537 0.000463 0.000485 0.000453 0.000463 0.000460878
47
LAMPIRAN 5. Data Hasil Prakiraan Data Pelatihan Bulan Aktual Prakiraan
48
49
50