BAB II LANDASAN TEORI
2.10. Artificial Neural Network dengan Algoritma Backporpagation
Terdapat tiga tahapan pada pelatihan backpropagation antara lain feedforward (umpan maju), backpropagation (umpan mundur) dan modifikasi bobot serta bias. Sistem kerja backpropagation yang pertama mencari error keluaran dengan arah maju (forward) guna memperbaiki bobot yang kemudian dilakukan dengan arah mundur (backward). Pada saat melakukan forward terdapat fungsi aktivasi yang akan mengaktifkan neuron-neuron untuk menghasilkan output. Langkah-langkah dalam algoritma backpropagation adalah sebagai berikut [18]:
Langkah 0:
a. Inisialisasi bobot dengan bilangan acak.
b. Menetapkan target error, learning rate, maksimum epoch dan jumlah neuron pada hidden layer
c. Kondisi berhenti ketika MSE < target error atau epoch > maksimum epoch.
Langkah 1: Jika kondisi berhenti belum terpenuhi, kerjakan langkah 2 sampai 9.
Langkah 2: Untuk setiap proses pelatihan lakukan Langkah 3 sampai 8.
11 a. Feedforward
Langkah 3: Setiap unit input (π , i =1,2,3, β¦, n) menerima sinyal input ππ dan meneruskan sinyal ini kepada semua unit pada hidden layer.
Langkah 4: Masing-masing unit hidden layer akan menjumlahkan sinyal input yang terboboti termasuk biasnya dan dirumuskan sebagai berikut:
π ππππ= π½ππ+βπΏπ Selanjutnya, gunakan fungsi aktivasi untuk menghiung sinyal output, jika menggunakan fungsi sigmoid maka fungsi adalah berikut ini:
ππ = π
π + πππ(βπππππ) (2.5)
Dimana:
ππ = nilai dari fungsi aktivasi keluaran pada hidden layer
Kemudian mengirim sinyal tersebut ke semua unit pada output layer
Langkah 5: Tiap-tiap unit di output layer (ππ, π = 1,2,3, β¦ , π) menjumlahkan sinyal-sinyal masuk yang berbobot sebagai berikut:
π ππππ= πΎππ+βππ
π
π=π
πΎππ (2.6)
Dimana:
ππππ‘π = jumlah sinyal yang masuk menuju neuron output layer
12 πππ = bobot bias output layer
πππ = bobot sinyal dari neuron hidden layer yang masuk ke neuron output layer Selanjutnya, gunakan fungsi aktivasi untuk menghitung sinyal output, seperti persamaan berikut:
ππ= π
π + πππ(βπππππ) (2.7)
Dimana:
ππ = keluaran pada output b. Backpropagation
Langkah 6: Hitung faktor kesalahan (Ξ΄) pada output jaringan ππ (π = 1,2,3, β¦ , π)
πΉπ=(ππβ ππ)πβ²(πππππ)= (ππβ ππ)ππ(π β ππ) (2.8) Dimana:
πΏπ = faktor kesalahan output jaringan π‘π = target yang dicapai
Selanjutnya, hitung koreksi bobot (digunakan untuk memperbaiki πππ) persamaan yang digunakan sebagai berikut:
βπΎππ= ππΉπππ (2.9)
Dimana:
βπππ = suku perubahan bobot
πΌ = konstanta laju pelatihan (learning rate)
Hitung juga nilai korelasi bias (digunakan untuk mempebaiki π0π) dengan menggunakan persamaan berikut ini:
βπΎππ = ππΉπ (2.10)
Dimana:
βπ0π = Suku perubahan bobot bias pada output layer
13 Langkah 7: Hitung faktor kesalahan sinyal yang masuk menuju neuron pada hidden layer berdasarkan faktor kesalahan disetiap neuron pada hidden layer dengan output layer :
πΉππππ= βπΉππΎππ
π
π=π
(2.11)
Dimana:
πΏπππ‘π = faktor kesalahan sinyal yang masuk ke neuron pada hidden layer
Selanjutnya, kalikan nilai ini dengan turunan fungsi aktivasinya untuk mencari faktor kesalahan setiap neuron pada hidden layer:
πΉπ= πΉπππππβ²(πππππ)= πΉππππππ(π β ππ) (2.12) Dimana:
πΏπ = faktor kesalahan pada hidden layer
Selanjutnya, hitung perubahan bobot yang digunakan untuk memperbaiki πππ
menggunakan persamaan berikut ini :
βπ½ππ= ππΉππΏπ (2.13)
Dimana:
βπππ = suku perubahan bobot sinyal neuron input layer yang menuju ke neuron hidden layer
Hitung suku perubahan bobot bias yang digunakan untuk memperbaiki π0π sebagai berikut ini:
βπ½ππ= ππΉπ (2.14)
Dimana:
βπ0π = suku perubahan bobot bias pada hidden layer
14 c. Perubahan Bobot dan Bias
Langkah 8: Tiap unit di output layer (ππ, π = 1,2,3, β¦ , π) memperbaiki bias dan bobotnya dengan menggunakan persamaan sebagai berikut:
πΎππ(ππππ)= πΎππ(ππππ)+ βπΎππ Langkah 9: Periksa kondisi berhenti. Jika kondisi berhenti telah terpenuhi, maka
pelatihan jaringan dapat diberhentikan . 2.11. Ukuran Kesalahan
Ukuran kesalahan suatu prakiraan digunakan untuk memastikan prakiraan berjalan sesuai yang diharapakan. Salah satu ukuran standar yang digunakan untuk menentukan akurasi peramalan adalah Mean Square Error (MSE) dengan rumus sebagai berikut [19]: merupakan pengukuran besarnya kesalahan dengan menghitung ukuran presentase penyimpangan antara data aktual dengan data peramalan yang diperoleh. Dengan rumus sebagai berikut [20]:
15 ππππ =πππ%
π β |πΏπβ ππ πΏπ |
π
π=π
(2.18)
Dimana :
n = jumlah data
π¦π‘ = nilai output (prediksi) pada periode ke-t
ππ‘ = nilai data aktual atau observasi pada periode ke-t Intreprestasi dari nilai MAPE adalah sebagai berikut :
Tabel 2.1 Interprestasi Nilai MAPE
MAPE Interprestasi
<10 Kemampuan peramalan sangat baik
10-20 Kemampuan peramalan baik
20-50 Kemampuan peramalan layak/memadai
>50 Kemampuan peramalan buruk
16
BAB III
METODOLOGI PENELITIAN
3.1. Metode Pengumpulan Data
Sumber Data yang digunakan pada penelitian ini adalah data sekunder yang diperoleh dari https://finance.yahoo.com/quote/INDF.JK/ yaitu data harga pembukaan, tertinggi, terendah dan penutupan saham PT Indofood Sukses Makmur Tbk. (INDF) setiap bulannya mulai bulan Januari 2005 sampai dengan Desember 2019. Data tersebut terdapat pada lampiran 1.
3.2. Variabel Data
Variabel Variabel penelitian yang digunakan terdiri dari harga penutupan saham (Y) sebagai target output dan tiga variabel lain sebagai input yaitu:
1. Harga pembukaan saham ( Y1) 2. Harga tertinggi saham (Y2) 3. Harga terendah saham (Y3)
3.3. Metode Pengolahan Data
Berikut tahapan-tahapan yang dilakukan:
1. Melakukan analisis deskriptif masing-masing variabel.
2. Melakukan normalisasi data.
3. Data dibagi menjadi dua bagian, yaitu data pelatihan (training) dengan presentase 80% dari total data dan 20% data lainnya digunakan sebagai data pengujian (testing).
4. Langkah-langkah pada proses pelatihan ANN dengan Algoritma Backpropagation:
a. Inisialisasi target output, input dan bobot secara acak.
b.Inisialisasi maksimal epoch, target error dan fungsi aktivasi sigmoid pada hidden layer dan linear pada output layer.
c. Inisialisasi jumlah neuron pada hidden layer dan learning rate.
17 d. Hitung MSE pada pengujian neuron pada hidden layer dan nilai learning rate.
e. Proses pelatihan akan berhenti apabila nilai MSE < target error.
f. Hasil prakiraan data pelatihan dan hitung nilai MAPE.
g. Simpan bobot data pelatihan untuk proses pengujian.
5. Langkah-langkah pada proses pengujian ANN dengan Algoritma Backpropagation:
a. Inisialisasi input dari data pengujian.
b. Inisialisasi bobot hasil pelatihan.
c. Lakukan pengujian.
d. Hasil prakiraan data pengujian dan hitung nilai MAPE.
18 3.4. Alur Penelitian
Gambar 3.1 Alur proses pelatihan algoritma backpropagation
19 Gambar 3.2 Alurproses pengujian algoritma backpropagation
20
BAB IV
HASIL DAN PEMBAHASAN
4.1. Deskripsi Data
Deskriptif data bertujuan untuk melihat gambaran umum dari data yang akan diolah. Data yang digunakan adalah data dari harga pembukaan, tertinggi, terendah dan penutupan saham PT.Indofood Sukses Makmur Tbk (INDF) periode bulanan yang dimulai pada bulan Januari 2005 sampai dengan Desember 2019.
Seluruh data yang digunakan berjumlah 180 data.
Gambar 4.1. Harga Pembukaan Saham
Dari gambar 4.1 diatas dapat dilihat bahwa grafik menunjukkan untuk harga pembukaan ini memiliki harga paling tinggi dan harga yang paling rendah yaitu 8825 dan 690. Dengan rata-rata 4836.222 dan standar deviasi sebesar 2565.414.
0 2000 4000 6000 8000 10000
Jan-05 Nov-05 Sep-06 Jul-07 Mei-08 Mar-09 Jan-10 Nov-10 Sep-11 Jul-12 Mei-13 Mar-14 Jan-15 Nov-15 Sep-16 Jul-17 Mei-18 Mar-19
Harga
Bulan
Harga Pembukaan
21 Gambar 4.2. Harga Tertinggi Saham
Dari gambar 4.2 diatas dapat dilihat bahwa grafik menunjukkan untuk harga tertinggi ini memiliki harga paling tinggi dan harga yang paling rendah yaitu 9200 dan 840. Dengan rata-rata 5141.194 dan standar deviasi sebesar 2643.216.
Gambar 4.3. Harga Terendah Saham
Dari gambar 4.3 diatas dapat dilihat bahwa grafik menunjukkan untuk harga terendah ini memiliki harga paling tinggi dan harga yang paling rendah yaitu 8400 dan 670. Dengan rata-rata 4540.056 dan standar deviasi sebesar 2463.353.
0
Jan-05 Nov-05 Sep-06 Jul-07 Mei-08 Mar-09 Jan-10 Nov-10 Sep-11 Jul-12 Mei-13 Mar-14 Jan-15 Nov-15 Sep-16 Jul-17 Mei-18 Mar-19
Harga
Jan-05 Nov-05 Sep-06 Jul-07 Mei-08 Mar-09 Jan-10 Nov-10 Sep-11 Jul-12 Mei-13 Mar-14 Jan-15 Nov-15 Sep-16 Jul-17 Mei-18 Mar-19
Harga
Bulan
Harga Terendah
22 Gambar 4.4. Harga Penutupan Saham
Dari gambar 4.4 diatas dapat dilihat bahwa grafik menunjukkan untuk harga penutupan ini memiliki harga paling tinggi dan harga yang paling rendah yaitu 8750 dan 730. Dengan rata-rata 4873.056 dan standar deviasi sebesar 2555.225.
4.2. Normalisasi Data
Data saham INDF terlebih dahulu di normalisasikan. Normalisasi dilakukan menggunakan Min-Max Normalization dengan menggunakan rumus persamaan (2.3). Dimana harga pembukaan (Y1), harga tertinggi (Y2),harga terendah (Y3) dan harga penutupan (Y). Daftar tabel hasil normalisasi harga saham dapat dilihat pada Lampiran 2.
4.3. Arsitektur Artificial Neural Network Backpropagation
Pada penelitian ini arsitektur jaringan menggunakan neuron untuk input layer berjumlah tiga neuron yaitu harga pembukaan saham (Y1), harga tertinggi saham (Y2), harga terendah saham (Y3) dan harga penutupan saham sebagai target pengujian (Y) dengan membandingkan penggunaan jumlah neuron pada hidden layer dan learning rate. Jumlah neuron pada hidden layer yang digunakan satu sampai sepuluh, sedangkan nilai learning rate yang digunakan 0.1 sampai 0.9.
Fungsi aktivasi yang digunakan yaitu sigmoid biner pada hidden layer dan linear pada output layer. Maksimum epoch 10000 dan target error 0.001. Inisialisasi bobot yang digunakan yaitu inisialisasi secara random.
0
Jan-05 Nov-05 Sep-06 Jul-07 Mei-08 Mar-09 Jan-10 Nov-10 Sep-11 Jul-12 Mei-13 Mar-14 Jan-15 Nov-15 Sep-16 Jul-17 Mei-18 Mar-19
Harga
Bulan
Harga Penutupan
23 4.3.1. Penentuan Jumlah Neuron pada Hidden Layer
Membandingkan penggunaan jumlah neuron pada hidden layer dilakukan untuk mendapatkan nilai MSE terbaik yaitu dengan nilai yang paling rendah.
Jumlah neuron pada hidden layer yang dilakukan yaitu satu sampai sepuluh dengan range satu. Begitu juga dengan nilai learning rate awal yaitu 0.1 dengan lima kali percobaaan setiap jumlah neuron pada hidden layer. Berikut tabel nilai rata-rata MSE dari lima kali percobaan pada setiap jumlah neuron pada hidden layer.
Tabel 4.1. Hasil Penggunaan Jumlah Neuron Pada Hidden Layer Jumlah Neuron pada Hidden
Layer
Rata-rata MSE
1 0.000475363
2 0.000462037
3 0.000444932
4 0.000448964
5 0.000469646
6 0.000460447
7 0.000455816
8 0.000465148
9 0.000440982
10 0.00043797
Untuk mempermudah melihat perbandingan hasil penggunaan jumlah neuron pada hidden layer berdasarkan hasil pada tabel 4.1, maka dibuatlah grafik sebagai berikut:
24 Gambar 4.5. Rata-rata MSE Jumlah Neuron Pada Hidden Layer
Pada gambar 4.5 dengan bertambahnya penggunaan jumlah neuron pada hidden layer cenderung membuat nilai MSE semakin kecil. Menunjukan bahwa nilai MSE terbaik sebesar 0.00043797 didapatkan pada jumlah neuron terbanyak yaitu sepuluh neuron pada hidden layer. Selanjutnya jumlah neuron pada hidden layer yang terpilih digunakan ke tahap membandingkan penggunaan nilai learning rate.
4.3.2. Penentuan Nilai Learning Rate
Dilakukan pada nilai 0.1 sampai 0.9 dengan range 0.1 sebanyak lima kali percobaan pada masing-masing nilai. Dengan menggunakan sepuluh neuron pada hidden layer. Berikut tabel nilai rata-rata MSE dari lima kali percobaan pada setiap nilai learning rate.
Tabel 4.2. Hasil Penggunaan Nilai Learning Rate
Learning Rate Rata-rata MSE
0.1 0.00043797
Jumlah neuron pada hidden layer
25
0.7 0.000440309
0.8 0.000453132
0.9 0.000460878
Untuk mempermudah melihat perbandingan penggunaan jumlah learning rate berdasarkan hasil pada tabel 4.2, maka dibuatlah grafik sebagai berikut:
Gambar 4.6 Rata-rata MSE Nilai Learning Rate
Pada gambar 4.6 dengan bertambahnya penggunaan nilai learning rate cenderung membuat nilai MSE semakin besar. Dan menunjukan bahwa nilai MSE terbaik sebesar 0.000432291 didapatkan pada nilai learning rate 0.3.
Karena rata-rata nilai MSE dengan sepuluh neuron pada hidden layer dan learning rate 0.3 lebih kecil dari target error sebesar 0.001, maka model arsitektur jaringan yang terbentuk dapat digunakan untuk prakiraan.
4.4. Pelatihan Jaringan
Berdasarkan pelatihan jaringan yang telah dilakukan dengan rancangan arsitektur jaringan yang terdiri dari 3 lapisan yang masing-masing memiliki 3 neuron pada input layer, 10 neuron pada hidden layer dan 1 neuron pada ouput layer, maka arsitektur jaringan multi layer network yang telah dirancang sebagai berikut:
26 Selama proses pelatihan, jaringan tersebut mencapai 915 iterasi untuk melatih Artificial Neural Network tersebut hingga mencapai optimal. Artificial Neural Network yang akan digunakan untuk memprakirakan harga penutupan saham dengan data pelatihan terlebih dahulu untuk mengetahui akurasi dari jaringan tersebut sebelum dilakukannya pengujian jaringan. Untuk lebih lengkapnya pada Lampiran 5.
Tabel 4.3. Hasil Prakiraan Pelatihan Jaringan
Bulan Periode Aktual Prakiraan
Jan-05 1 870 890.0269
Feb-05 2 930 934.9988
Mar-05 3 1160 1227.156
Gambar 4.7. Arsitektur Artificial Neural Network
27
Hasil prediksi data pelatihan menggunakan model jaringan yang didapatkan seperti tabel 4.3 diatas dalam memprediksi harga saham dengan rentang waktu dalam bulan. Didapatkan nilai MAPE sebesar 3.49%. akurasi model yang dihasilkan sebesar 96.51%.
4.5. Pengujian Jaringan
Berikut data aktual dan data hasil prakiraan nilai harga penutupan saham (Y) dengan menggunakan sepuluh neuron pada hidden layer dan learning rate 0.3 periode Januari 2017 sampai dengan Desember 2019. Disajikan pada tabel 4.4 berikut ini:
Tabel 4.4. Data Aktual Dan Data Prakiraan Harga Penutupan Saham
Bulan Periode Aktual Prakiraan
Jan-17 1 7925 7865.262
28
Untuk mempermudah melihat perbedaan dari data aktual dan data prakiraan dari nilai harga penutupan saham yang ada pada tabel 4.4, maka dibuatlah grafik sebagai berikut:
29 Gambar 4.8. Grafik Data Aktual Dan Data Prakiraan Harga Penutupan Saham Bedasarkan tabel 4.4 dengan menggunakan rumus persamaan (2.18) diperoleh nilai MAPE sebesar 2.263144%. Hasil prakiraan dikatakan sangat baik jika nilai MAPE kurang dari 10%. Akurasi model prediksi yang dihasilkan 97.73686%. Model jaringan yang diperoleh dengan tingkat akurasi yang optimal terdapat pada saat pengujian jaringan. Sehingga dapat dikatakan bahwa performa jaringan yang dihasilkan sangat baik.
4.6. Hasil Prakiraan
Dengan menggunakan arsitektur Artificial Neural Network yang terpilih yaitu dengan penggunaan sepuluh neuron pada hidden layer dan learning rate sebesar 0.3, maka hasil prakiraan harag penutupan saham INDF untuk 12 periode selanjutnya yaitu pada Januari 2020 sampai Desember 2020 dapat dilihat pada tabel 4.5 sebagai berikut:
5000 5500 6000 6500 7000 7500 8000 8500 9000
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35
Harga
Periode
Aktual Prediksi
30 Tabel 4.5 Prakiraan penutupan saham INDF
Bulan Prakiraan
Jan-20 8089.02
Feb-20 6914.4
Mar-20 6447.55
Apr-20 6773.81
Mei-20 5974.43
Jun-20 6952.73
Jul-20 6729.1
Agu-20 7878.35
Sep-20 7534.53
Okt-20 7307.03
Nov-20 7303.26
Des-20 6986.29
Berdasarkan tabel 4.5 diperoleh harga penutupan saham INDF pada periode 12 bulan mendatang cenderung mengalami penurunan harga. Dan pada periode Januari 2020 sampai Desember 2020 harga penutupan saham tertinggi pada bulan Januari 2020 sebesar 8089.02 dan harga penutupan saham terendah pada bulai Mei 2020 sebesar 5974.43.
31
BAB V
KESIMPULAN DAN SARAN
5.1. Kesimpulan
Berdasarkan penelitian yang dilakukan oleh penulis untuk memprakirakan harga saham PT Indofood Sukses Makmur menggunakan Artificial Neural Network dengan Algoritma Backpropagation diperoleh beberapa kesimpulan diantaranya sebagai berikut :
1. Tingkat akurasi yang dihasilkan ketika melakukan pengujian jaringan yang diperoleh mencapai tingkat akurasi sebesar 97.73686%.
2. Hasil rancangan arsitektur jaringan syaraf tiruan multi layer network yang diperoleh terdiri dari 3 layer yang meliputi 3 neuron pada input layer, 10 neuron pada hidden layer dan 1 neuron pada output layer. Parameter-parameter yang digunakan untuk membentuk model jaringan tersebut diantaranya learning rate dengan nilai sebesar 0.3 dan fungsi aktivasi yang digunakan adalah sigmoid biner pada hidden layer dan linear pada output layer. Dan memerlukan 915 iterasi untuk melatih Artificial Neural Network tersebut hingga mencapai optimal.
5.2. Saran
Dari hasil yang telah diperoleh, terdapat beberapa saran yang dapat diberikan:
1. Untuk penelitian selanjutnya, dapat mencoba inisialisasi bobot nguyen- windrow.
2. Menambahkan penggunaan jumlah neuron pada hidden layer dan nilai learning rate.
3. Membandingkan dengan metode lainnya seperti, Extreme Learning Machine untuk memprakirakan harga saham.
32
REFERENSI
[1] E. Pardiansyah, βInvestasi dalam Perspektif Ekonomi Islam: Pendekatan Teoritis dan Empiris,β Economica: Jurnal Ekonomi Islam , pp. 337-373, 2017.
[2] D. Herlianto, Manajemen Investasi Plus Jurus Mendeteksi Investasi Bodong, Yogyakarta: Pustaka Baru, 2013.
[3] R. B. Afrianto, H. Tjandrasa dan I. Arieshanti, βPrediksi Pergerakan Harga Saham Menggunakan Metode Backpropagation Neural Network,β SimanteC, pp. 132-141, 2013.
[4] D. R. Artha, N. A. Achsani dan H. Sasongko, βAnalisis Fundamental, Teknikal Dan Makroekonomi,β MK, pp. 175-184, 2014.
[5] Indofood, βDividends,β PT Indofood Sukses Makmur Tbk, [Online].
Available: https://www.indofood.com/investor-relation/dividend-history.
[Diakses 15 Agustus 2020].
[6] IDX, βProduk Syariah,β Bursa Efek Indonesia, [Online]. Available:
https://www.idx.co.id/idx-syariah/produk-syariah/. [Diakses 1 April 2019].
[7] N. P. Sakinah, I. Cholissodin dan A. W. Widodo, βPrediksi Jumlah Permintaan Koran Menggunakan Metode Jaringan Syaraf Tiruan Backpropagation,β Jurnal Pengembangan Teknologi Informasi dan Ilmu Komputer, pp. 2612-2618, 2018.
[8] G. Z. Muflih, Sunardi dan A. Yudhana, βJaringan Saraf Tiruan Backpropagation Untuk Prediksi Curah Hujan Di Wilayah Kabupaten Wonosobo,β MUST: Journal of Mathematics Education, Science and Technology, pp. 45-56, 2019.
[9] B. B. W. Putra, M. A. Albar dan B. Irmawati, βImplementasi Jaringan Syaraf Tiruan,β JTIKA, pp. 233-244, 2019.
33 [10] IDX, βSaham,β PT Bursa Efek Indonesia, [Online]. Available:
https://www.idx.co.id/produk/saham/. [Diakses 1 April 2019].
[11] J. D. Cryer dan K.-S. Chan, Time Series Analysis With Applications in R Second Edition, New York: Pearson, 2006.
[12] Suyanto, Artificial Intelligence, Bandung: Informatika, 2007.
[13] A. Hermawan, Pengantar Jaringan Syaraf Tiruan, Teori, dan Aplikasi, Yogyakarta: Andi, 2006.
[14] D. Puspitaningrum, Pengantar Jaringan Syaraf Tiruan, Yogyakarta: Andi Offset, 2006.
[15] S. Kusumadewi, Artificial Intelligence (Teknik dan Aplikasinya), Yogyakarta:
Graha Ilmu, 2003.
[16] J. T. Hardinata, H. Okprana, A. P. Windarto dan W. Saputra, βAnalisis Laju Pembelajaran dalam Mengklasifikasi Data Wine Menggunakan Algoritma Backpropagation,β Jurnal Sains Komputer & Informatika (J-SAKTI), pp. 422-432, 2019.
[17] M. S. Wibawa, βPengaruh Fungsi Aktivasi, Optimisasi dan Jumlah Epoch Terhadap Performa Jaringan Saraf Tiruan,β Jurnal Sistem Informatika, pp.
167-174, 2017.
[18] L. Fausett, Fundamentals of Neural Networks: Achitectures, Algorithms, and Applications., New Jersey: Prentice Hall, 1994.
[19] S. Makridaki, S. Wheelwright dan V. McGee, Metode dan Aplikasi Peramalan, Jakarta: Binarupa Aksara, 2003.
[20] G. Vincent, Production Planning and Inventory Control, Jakarta: PT Gramedia Pustaka Umum, 2005.
34
LAMPIRAN
35
LAMPIRAN
Lampiran 1. Data Penelitian
Bulan Y1 Y2 Y3 Y
36
37
38
39
40 LAMPIRAN 2. Data Normalisasi
Y1 Y2 Y3 Y
0.012293 0.008373 0.01423 0.017456 0.022127 0.014354 0.021992 0.024938 0.029502 0.062201 0.033635 0.053616 0.056546 0.045455 0.043984 0.03616 0.040565 0.043062 0.03881 0.058603 0.062692 0.046651 0.049159 0.046135 0.0504 0.035885 0.051746 0.044888 0.04917 0.0311 0.009056 0.007481
0.011063 0.005981 0 0
0 0 0.002587 0.011222 0.014751 0.003589 0.016818 0.014963 0.019668 0.01555 0.021992 0.022444 0.027044 0.017943 0.019405 0.018703 0.024585 0.010766 0.020699 0.013716 0.018439 0.005981 0.018111 0.01995 0.025814 0.035885 0.02458 0.049875 0.056546 0.047847 0.027167 0.026185 0.03319 0.022727 0.021992 0.018703 0.024585 0.02512 0.025873 0.0399 0.045482 0.045455 0.043984 0.057357 0.062692 0.052632 0.058215 0.064838 0.067609 0.059809 0.072445 0.074813 0.078672 0.072967 0.082794 0.083541 0.086048 0.070574 0.07762 0.077307 0.081131 0.106459 0.078913 0.119701 0.130301 0.116029 0.100906 0.103491 0.108175 0.088517 0.090556 0.098504 0.103258 0.107656 0.109961 0.113466 0.116779 0.118421 0.124191 0.124688 0.127843 0.162679 0.137128 0.161471 0.167179 0.171651 0.162354 0.158354 0.14874 0.138756 0.115136 0.140898 0.145052 0.13756 0.142303 0.149626 0.156116 0.162679 0.152652 0.183292 0.188691 0.240431 0.188228 0.223815 0.225569 0.225478 0.223803 0.23005 0.231715 0.291268 0.233506 0.261222
41 0.265519 0.267344 0.259379 0.273691
0.262446 0.252392 0.191462 0.198878 0.200983 0.195574 0.15912 0.192643 0.194837 0.249402 0.207633 0.258105 0.259373 0.240431 0.210867 0.208229 0.213276 0.192584 0.172057 0.192643 0.188691 0.171651 0.152652 0.189526 0.185618 0.171651 0.139715 0.153367 0.156116 0.133971 0.034929 0.044888 0.059004 0.053828 0.021992 0.029925 0.039336 0.022727 0.025873 0.024938 0.029502 0.034689 0.032342 0.031172 0.03319 0.022727 0.02458 0.018703 0.018439 0.019139 0.019405 0.026185 0.028273 0.055024 0.029754 0.068579 0.068838 0.132775 0.073739 0.130923 0.136447 0.13756 0.122898 0.144638 0.147511 0.180622 0.137128 0.192643 0.20713 0.225478 0.194696 0.220698 0.219422 0.264354 0.220569 0.28616 0.280885 0.294258 0.262613 0.292394 0.293178 0.288278 0.291721 0.292394 0.296251 0.333134 0.311125 0.351621 0.351567 0.366029 0.353169 0.357855 0.35464 0.37201 0.349935 0.382793 0.379226 0.404904 0.391979 0.379676 0.388445 0.37201 0.391979 0.395262 0.391518 0.37201 0.340233 0.36409 0.35464 0.404904 0.362872 0.426434 0.440688 0.464713 0.443726 0.485661 0.480639 0.479665 0.443726 0.476309 0.468347 0.593301 0.489004 0.588529 0.597419 0.58134 0.534282 0.557357 0.542102 0.521531 0.498706 0.479426 0.505224 0.494617 0.48577 0.516833 0.523663 0.509569 0.469599 0.495012 0.486785 0.485646 0.50194 0.501247 0.505224 0.551435 0.527814 0.582294 0.572833 0.58134 0.586028 0.600998
42 0.603565 0.587321 0.592497 0.582294
0.585126 0.599282 0.57956 0.625935 0.652735 0.677033 0.650712 0.700748 0.701905 0.712919 0.670116 0.669576 0.665028 0.647129 0.450194 0.538653 0.514444 0.587321 0.505175 0.563591 0.529809 0.527512 0.508409 0.495012 0.492932 0.482656 0.495472 0.482544 0.483712 0.494617 0.508409 0.507481 0.511371 0.51555 0.534282 0.544888 0.535956 0.521531 0.527814 0.513716 0.511371 0.485646 0.505175 0.513716 0.511371 0.485646 0.511643 0.49813 0.489859 0.482656 0.482536 0.513716 0.511371 0.575359 0.537516 0.582294 0.57898 0.557416 0.573092 0.582294 0.57898 0.575359 0.598965 0.613466 0.603565 0.641148 0.631307 0.619701 0.615857 0.605263 0.624838 0.638404 0.640443 0.641148 0.61837 0.638404 0.634296 0.641148 0.65718 0.663342 0.646589 0.772727 0.683053 0.819202 0.824831 0.856459 0.831824 0.837905 0.824831 0.808612 0.844761 0.825436 0.812538 0.838517 0.818887 0.825436 0.800246 0.79067 0.708926 0.825436 0.818685 0.784689 0.747736 0.719451 0.738783 0.742823 0.605433 0.719451 0.708052 0.760766 0.65718 0.78803 0.775661 0.79067 0.767141 0.738155 0.72649 0.7189 0.715395 0.738155 0.738783 0.7189 0.721863 0.73192 0.72649 0.778708 0.760673 0.778678 0.772588 0.757775 0.796248 0.803616 0.787953 0.832536 0.805951 0.819202 0.818685 0.79366 0.805951 0.78803 0.781807 0.754785 0.780078 0.759975 0.760295 0.730861 0.780078 0.744389 0.744929 0.754785 0.780078 0.791147
43 0.78488 0.760766 0.802717 0.766209
0.778734 0.751794 0.796248 0.781796 0.772588 0.739833 0.738034 0.759975 0.757222 0.72488 0.741268 0.744389 0.738783 0.709928 0.731565 0.750623 0.744929 0.823565 0.786546 0.850374 0.830977 0.817584 0.851229 0.831671 0.821758 0.802632 0.857697 0.837905 0.837124 0.796651 0.75097 0.750623 0.744929 0.784689 0.767141 0.819202 0.7941 0.766746 0.744502 0.728803 0.717271 0.706938 0.660414 0.669576 0.652735 0.6561 0.503234 0.569825 0.566687 0.566388 0.540103 0.594763 0.594345 0.668062 0.595731 0.59788 0.585126 0.629187 0.543984 0.516833 0.529809 0.533493 0.539457 0.554239 0.551321 0.641148 0.582794 0.682045 0.683467 0.766746 0.69599 0.78803 0.775661 0.805622 0.793014 0.80985 0.803319 0.772727 0.793014 0.797382 0.787953 0.763756 0.796248 0.772444 0.766441 0.784689 0.802717 0.812968 0.809465 0.943182 0.815653 0.947007 0.938537 0.916268 0.915912 0.897132 0.898586 1 0.941785 0.993766
1 1 1 0.968828
0.963122 0.919258 0.847995 0.853491 0.852489 0.871411 0.844761 0.897132 0.889367 0.874402 0.909444 0.897132 0.895513 0.880383 0.932083 0.92207 0.917025 0.919258 0.932083 0.906484 0.89244 0.919258 0.938551 0.953242 0.944683 0.976077 0.987063 1 0.990781 0.970096 0.987063 0.981297 0.978488 0.952153 0.980595 0.953242 0.947757 0.940191 0.967658 0.953242 0.944683 0.946172 0.983829 0.959476 0.953903 0.937201 0.967658 0.931421
44 0.932391 0.895335 0.860931 0.822319
0.815612 0.829545 0.854463 0.859726 0.852489 0.871411 0.890039 0.875312 0.867855 0.847488 0.890039 0.853491 0.846343 0.832536 0.815653 0.806733 0.806392 0.778708 0.78978 0.778678 0.772588 0.754785 0.699224 0.791147 0.78488 0.766746 0.734799 0.738155 0.732637 0.697967 0.708926 0.700748 0.695759 0.709928 0.689521 0.703865 0.698832 0.668062 0.670116 0.644638 0.640443 0.629187 0.624838 0.65399 0.649662 0.688995 0.634541 0.73192 0.732637 0.802632 0.741268 0.837905 0.830977 0.844498 0.844761 0.875312 0.852489 0.832536 0.822122 0.791147 0.787953 0.781699 0.741268 0.7101 0.698832 0.736842 0.702458 0.775561 0.769514 0.745813 0.670116 0.73192 0.72649 0.754785 0.767141 0.784913 0.778734 0.754785 0.776843 0.791147 0.787953 0.847488 0.805951 0.897132 0.89244 0.86244 0.877102 0.869077 0.852489 0.844498 0.854463 0.869077 0.861709 0.856459 0.886805 0.900249 0.898586 0.86244 0.899741 0.897132
45
LAMPIRAN 3. Hasil Penggunaan Jumlah Neuron Pada Hidden Layer
Hidden 1 2 3 4 5 Rata-rata
MSE 1 0.000471857 0.000476551 0.000489 0.000487 0.000453 0.000475363 2 0.0004679 0.000458277 0.000455 0.000454 0.000475 0.000462037 3 0.000425904 0.000456828 0.000458 0.000425 0.000458 0.000444932 4 0.000440161 0.000477023 0.000455 0.000449 0.000423 0.000448964 5 0.000456634 0.000484663 0.000484 0.000466 0.000457 0.000469646 6 0.000470188 0.000472127 0.000457 0.000454 0.000449 0.000460447 7 0.000479927 0.000424783 0.000464 0.000436 0.000474 0.000455816 8 0.000459165 0.00049503 0.000446 0.000477 0.000448 0.000465148 9 0.000434502 0.000429916 0.000455 0.000451 0.000435 0.000440982 10 0.000452089 0.000441206 0.000428 0.000432 0.000437 0.00043797
46
LAMPIRAN 4. Hasil Penggunaan Nilai Learning Rate Learning
rate 1 2 3 4 5 MSE
0.1 0.000452089 0.000441 0.000428 0.000432 0.000437 0.00043797 0.2 0.000461433 0.000442 0.000437 0.000432 0.000438 0.000441909 0.3 0.00043396 0.000416 0.000441 0.000449 0.000422 0.000432291 0.4 0.000427266 0.00044 0.000426 0.000438 0.000434 0.000433166 0.5 0.000454302 0.000449 0.000431 0.000429 0.000468 0.000446295 0.6 0.000454876 0.000467 0.000419 0.000456 0.000452 0.000449628 0.7 0.000412838 0.000429 0.000466 0.000435 0.000459 0.000440309 0.8 0.000491753 0.000429 0.00043 0.000448 0.000468 0.000453132 0.9 0.000440537 0.000463 0.000485 0.000453 0.000463 0.000460878
47
LAMPIRAN 5. Data Hasil Prakiraan Data Pelatihan Bulan Aktual Prakiraan
48
49
50