• Tidak ada hasil yang ditemukan

BAB II LANDASAN TEORI

2.6. Fungsi Aktivasi

Fungsi aktivasi mempunyai tujuan untuk menentukan besarnya bobot.

Terdapat beberapa fungsi aktivasi yang sering digunakan sebagai berikut [15]:

9 a. Fungsi Sigmoid Biner

Fungsi sigmoid biner banyak digunakan pada neural network dengan algoritma backpropogation. Fungsi ini mempunyai nilai antara 0 sampai 1. Sehingga bagus dipakai pada jaringan yang mempunyai nilai output antara 0 sampai 1. Fungsi sigmoid biner dapat dirumuskan sebagai berikut:

𝒇(𝒙) = 𝟏 𝟏 + π’†βˆ’π’™

(2.1)

Dimana:

x = hasil perkalian bobot dan input ditambah bias b. Fungsi Linear

Fungsi linear mempunyai nilai keluaran yang sama dengan nilai masukannya.

Fungsi linear dapat dirumuskan sebagai berikut:

y = x (2.2)

Dimana:

y = output

x = hasil perkalian bobot dan input ditambah bias 2.7. Learning Rate (Laju Pembelajaran)

Learning rate (Laju Pembelajaran) merupakan salah satu parameter yang berpengaruh terhadap waktu yang digunakan pada kinerja suatu jaringan untuk tercapainya target. Diberikan nilai learning rate (Ξ±) yang berfungsi untuk mempercepat perulangan. Dimana nilai Ξ± berada antara 0 sampai 1 [16].

2.8. Epoch

Penentuan dari epoch mempunyai tujuan untuk menentukan jumlah iterasi maksimal untuk perubahan bobot pada jaringan. Dimana semakin banyak iterasi semakin kecil pula nilai MSE [17].

10 2.9. Normalisasi

Salah satu metode yang digunakan untuk normalisasi data yaitu metode Min-Max Normalization. Metode ini digunkaan untuk standarisasi data agar berada pada range terentu. Data diskalakan pada range 0 sampai 1. Min-Max Normalization dapat dirumuskan sebagai berikut [7]:

𝒙′= 𝒙 βˆ’ π’™π’Žπ’Šπ’

π’™π’Žπ’‚π’™βˆ’ π’™π’Žπ’Šπ’ (2.3)

Dimana:

π‘₯β€² = nilai normalisasi

π‘₯ = nilai data yang akan dinormalisasi π‘₯π‘šπ‘Žπ‘₯ = nilai maksimal dari data x

π‘₯π‘šπ‘–π‘› = nilai minimal dari data x

2.10. Artificial Neural Network dengan Algoritma Backporpagation

Terdapat tiga tahapan pada pelatihan backpropagation antara lain feedforward (umpan maju), backpropagation (umpan mundur) dan modifikasi bobot serta bias. Sistem kerja backpropagation yang pertama mencari error keluaran dengan arah maju (forward) guna memperbaiki bobot yang kemudian dilakukan dengan arah mundur (backward). Pada saat melakukan forward terdapat fungsi aktivasi yang akan mengaktifkan neuron-neuron untuk menghasilkan output. Langkah-langkah dalam algoritma backpropagation adalah sebagai berikut [18]:

Langkah 0:

a. Inisialisasi bobot dengan bilangan acak.

b. Menetapkan target error, learning rate, maksimum epoch dan jumlah neuron pada hidden layer

c. Kondisi berhenti ketika MSE < target error atau epoch > maksimum epoch.

Langkah 1: Jika kondisi berhenti belum terpenuhi, kerjakan langkah 2 sampai 9.

Langkah 2: Untuk setiap proses pelatihan lakukan Langkah 3 sampai 8.

11 a. Feedforward

Langkah 3: Setiap unit input (𝑋 , i =1,2,3, …, n) menerima sinyal input 𝑋𝑖 dan meneruskan sinyal ini kepada semua unit pada hidden layer.

Langkah 4: Masing-masing unit hidden layer akan menjumlahkan sinyal input yang terboboti termasuk biasnya dan dirumuskan sebagai berikut:

𝒁 𝒏𝒆𝒕𝒋= π‘½πŸŽπ’‹+βˆ‘π‘Ώπ’Š Selanjutnya, gunakan fungsi aktivasi untuk menghiung sinyal output, jika menggunakan fungsi sigmoid maka fungsi adalah berikut ini:

𝒁𝒋 = 𝟏

𝟏 + 𝒆𝒙𝒑(βˆ’π’›π’π’†π’•π’‹) (2.5)

Dimana:

𝑍𝑗 = nilai dari fungsi aktivasi keluaran pada hidden layer

Kemudian mengirim sinyal tersebut ke semua unit pada output layer

Langkah 5: Tiap-tiap unit di output layer (π‘Œπ‘˜, π‘˜ = 1,2,3, … , π‘š) menjumlahkan sinyal-sinyal masuk yang berbobot sebagai berikut:

𝒀 π’π’†π’•π’Œ= π‘ΎπŸŽπ’Œ+βˆ‘π’π’‹

𝒑

𝒋=𝟏

π‘Ύπ’‹π’Œ (2.6)

Dimana:

π‘Œπ‘›π‘’π‘‘π‘˜ = jumlah sinyal yang masuk menuju neuron output layer

12 π‘Šπ‘œπ‘˜ = bobot bias output layer

π‘Šπ‘—π‘˜ = bobot sinyal dari neuron hidden layer yang masuk ke neuron output layer Selanjutnya, gunakan fungsi aktivasi untuk menghitung sinyal output, seperti persamaan berikut:

π’€π’Œ= 𝟏

𝟏 + 𝒆𝒙𝒑(βˆ’π’€π’π’†π’•π’Œ) (2.7)

Dimana:

π‘Œπ‘˜ = keluaran pada output b. Backpropagation

Langkah 6: Hitung faktor kesalahan (Ξ΄) pada output jaringan π‘Œπ‘˜ (π‘˜ = 1,2,3, … , π‘š)

πœΉπ’Œ=(π’•π’Œβˆ’ π’€π’Œ)𝒇′(π’€π’π’†π’•π’Œ)= (π’•π’Œβˆ’ π’€π’Œ)π’€π’Œ(𝟏 βˆ’ π’€π’Œ) (2.8) Dimana:

π›Ώπ‘˜ = faktor kesalahan output jaringan π‘‘π‘˜ = target yang dicapai

Selanjutnya, hitung koreksi bobot (digunakan untuk memperbaiki π‘Šπ‘—π‘˜) persamaan yang digunakan sebagai berikut:

βˆ†π‘Ύπ’‹π’Œ= π’‚πœΉπ’Œπ’π’‹ (2.9)

Dimana:

βˆ†π‘Šπ‘—π‘˜ = suku perubahan bobot

𝛼 = konstanta laju pelatihan (learning rate)

Hitung juga nilai korelasi bias (digunakan untuk mempebaiki π‘Š0π‘˜) dengan menggunakan persamaan berikut ini:

βˆ†π‘ΎπŸŽπ’Œ = π’‚πœΉπ’Œ (2.10)

Dimana:

βˆ†π‘Š0π‘˜ = Suku perubahan bobot bias pada output layer

13 Langkah 7: Hitung faktor kesalahan sinyal yang masuk menuju neuron pada hidden layer berdasarkan faktor kesalahan disetiap neuron pada hidden layer dengan output layer :

πœΉπ’π’†π’•π’‹= βˆ‘πœΉπ’Œπ‘Ύπ’‹π’Œ

π’Ž

π’Œ=𝟏

(2.11)

Dimana:

𝛿𝑛𝑒𝑑𝑗 = faktor kesalahan sinyal yang masuk ke neuron pada hidden layer

Selanjutnya, kalikan nilai ini dengan turunan fungsi aktivasinya untuk mencari faktor kesalahan setiap neuron pada hidden layer:

πœΉπ’‹= πœΉπ’π’†π’•π’‹π’‡β€²(𝒁𝒏𝒆𝒕𝒋)= πœΉπ’π’†π’•π’‹π’π’‹(𝟏 βˆ’ 𝒁𝒋) (2.12) Dimana:

𝛿𝑗 = faktor kesalahan pada hidden layer

Selanjutnya, hitung perubahan bobot yang digunakan untuk memperbaiki 𝑉𝑖𝑗

menggunakan persamaan berikut ini :

βˆ†π‘½π’Šπ’‹= π’‚πœΉπ’‹π‘Ώπ’Š (2.13)

Dimana:

βˆ†π‘‰π‘–π‘— = suku perubahan bobot sinyal neuron input layer yang menuju ke neuron hidden layer

Hitung suku perubahan bobot bias yang digunakan untuk memperbaiki 𝑉0𝑗 sebagai berikut ini:

βˆ†π‘½πŸŽπ’‹= π’‚πœΉπ’‹ (2.14)

Dimana:

βˆ†π‘‰0𝑗 = suku perubahan bobot bias pada hidden layer

14 c. Perubahan Bobot dan Bias

Langkah 8: Tiap unit di output layer (π‘Œπ‘˜, π‘˜ = 1,2,3, … , π‘š) memperbaiki bias dan bobotnya dengan menggunakan persamaan sebagai berikut:

π‘Ύπ’‹π’Œ(𝒃𝒂𝒓𝒖)= π‘Ύπ’‹π’Œ(π’π’‚π’Žπ’‚)+ βˆ†π‘Ύπ’‹π’Œ Langkah 9: Periksa kondisi berhenti. Jika kondisi berhenti telah terpenuhi, maka

pelatihan jaringan dapat diberhentikan . 2.11. Ukuran Kesalahan

Ukuran kesalahan suatu prakiraan digunakan untuk memastikan prakiraan berjalan sesuai yang diharapakan. Salah satu ukuran standar yang digunakan untuk menentukan akurasi peramalan adalah Mean Square Error (MSE) dengan rumus sebagai berikut [19]: merupakan pengukuran besarnya kesalahan dengan menghitung ukuran presentase penyimpangan antara data aktual dengan data peramalan yang diperoleh. Dengan rumus sebagai berikut [20]:

15 πŒπ€ππ„ =𝟏𝟎𝟎%

𝒏 βˆ‘ |π‘Ώπ’•βˆ’ π’šπ’• 𝑿𝒕 |

𝒏

𝒕=𝟏

(2.18)

Dimana :

n = jumlah data

𝑦𝑑 = nilai output (prediksi) pada periode ke-t

𝑋𝑑 = nilai data aktual atau observasi pada periode ke-t Intreprestasi dari nilai MAPE adalah sebagai berikut :

Tabel 2.1 Interprestasi Nilai MAPE

MAPE Interprestasi

<10 Kemampuan peramalan sangat baik

10-20 Kemampuan peramalan baik

20-50 Kemampuan peramalan layak/memadai

>50 Kemampuan peramalan buruk

16

BAB III

METODOLOGI PENELITIAN

3.1. Metode Pengumpulan Data

Sumber Data yang digunakan pada penelitian ini adalah data sekunder yang diperoleh dari https://finance.yahoo.com/quote/INDF.JK/ yaitu data harga pembukaan, tertinggi, terendah dan penutupan saham PT Indofood Sukses Makmur Tbk. (INDF) setiap bulannya mulai bulan Januari 2005 sampai dengan Desember 2019. Data tersebut terdapat pada lampiran 1.

3.2. Variabel Data

Variabel Variabel penelitian yang digunakan terdiri dari harga penutupan saham (Y) sebagai target output dan tiga variabel lain sebagai input yaitu:

1. Harga pembukaan saham ( Y1) 2. Harga tertinggi saham (Y2) 3. Harga terendah saham (Y3)

3.3. Metode Pengolahan Data

Berikut tahapan-tahapan yang dilakukan:

1. Melakukan analisis deskriptif masing-masing variabel.

2. Melakukan normalisasi data.

3. Data dibagi menjadi dua bagian, yaitu data pelatihan (training) dengan presentase 80% dari total data dan 20% data lainnya digunakan sebagai data pengujian (testing).

4. Langkah-langkah pada proses pelatihan ANN dengan Algoritma Backpropagation:

a. Inisialisasi target output, input dan bobot secara acak.

b.Inisialisasi maksimal epoch, target error dan fungsi aktivasi sigmoid pada hidden layer dan linear pada output layer.

c. Inisialisasi jumlah neuron pada hidden layer dan learning rate.

17 d. Hitung MSE pada pengujian neuron pada hidden layer dan nilai learning rate.

e. Proses pelatihan akan berhenti apabila nilai MSE < target error.

f. Hasil prakiraan data pelatihan dan hitung nilai MAPE.

g. Simpan bobot data pelatihan untuk proses pengujian.

5. Langkah-langkah pada proses pengujian ANN dengan Algoritma Backpropagation:

a. Inisialisasi input dari data pengujian.

b. Inisialisasi bobot hasil pelatihan.

c. Lakukan pengujian.

d. Hasil prakiraan data pengujian dan hitung nilai MAPE.

18 3.4. Alur Penelitian

Gambar 3.1 Alur proses pelatihan algoritma backpropagation

19 Gambar 3.2 Alurproses pengujian algoritma backpropagation

20

BAB IV

HASIL DAN PEMBAHASAN

4.1. Deskripsi Data

Deskriptif data bertujuan untuk melihat gambaran umum dari data yang akan diolah. Data yang digunakan adalah data dari harga pembukaan, tertinggi, terendah dan penutupan saham PT.Indofood Sukses Makmur Tbk (INDF) periode bulanan yang dimulai pada bulan Januari 2005 sampai dengan Desember 2019.

Seluruh data yang digunakan berjumlah 180 data.

Gambar 4.1. Harga Pembukaan Saham

Dari gambar 4.1 diatas dapat dilihat bahwa grafik menunjukkan untuk harga pembukaan ini memiliki harga paling tinggi dan harga yang paling rendah yaitu 8825 dan 690. Dengan rata-rata 4836.222 dan standar deviasi sebesar 2565.414.

0 2000 4000 6000 8000 10000

Jan-05 Nov-05 Sep-06 Jul-07 Mei-08 Mar-09 Jan-10 Nov-10 Sep-11 Jul-12 Mei-13 Mar-14 Jan-15 Nov-15 Sep-16 Jul-17 Mei-18 Mar-19

Harga

Bulan

Harga Pembukaan

21 Gambar 4.2. Harga Tertinggi Saham

Dari gambar 4.2 diatas dapat dilihat bahwa grafik menunjukkan untuk harga tertinggi ini memiliki harga paling tinggi dan harga yang paling rendah yaitu 9200 dan 840. Dengan rata-rata 5141.194 dan standar deviasi sebesar 2643.216.

Gambar 4.3. Harga Terendah Saham

Dari gambar 4.3 diatas dapat dilihat bahwa grafik menunjukkan untuk harga terendah ini memiliki harga paling tinggi dan harga yang paling rendah yaitu 8400 dan 670. Dengan rata-rata 4540.056 dan standar deviasi sebesar 2463.353.

0

Jan-05 Nov-05 Sep-06 Jul-07 Mei-08 Mar-09 Jan-10 Nov-10 Sep-11 Jul-12 Mei-13 Mar-14 Jan-15 Nov-15 Sep-16 Jul-17 Mei-18 Mar-19

Harga

Jan-05 Nov-05 Sep-06 Jul-07 Mei-08 Mar-09 Jan-10 Nov-10 Sep-11 Jul-12 Mei-13 Mar-14 Jan-15 Nov-15 Sep-16 Jul-17 Mei-18 Mar-19

Harga

Bulan

Harga Terendah

22 Gambar 4.4. Harga Penutupan Saham

Dari gambar 4.4 diatas dapat dilihat bahwa grafik menunjukkan untuk harga penutupan ini memiliki harga paling tinggi dan harga yang paling rendah yaitu 8750 dan 730. Dengan rata-rata 4873.056 dan standar deviasi sebesar 2555.225.

4.2. Normalisasi Data

Data saham INDF terlebih dahulu di normalisasikan. Normalisasi dilakukan menggunakan Min-Max Normalization dengan menggunakan rumus persamaan (2.3). Dimana harga pembukaan (Y1), harga tertinggi (Y2),harga terendah (Y3) dan harga penutupan (Y). Daftar tabel hasil normalisasi harga saham dapat dilihat pada Lampiran 2.

4.3. Arsitektur Artificial Neural Network Backpropagation

Pada penelitian ini arsitektur jaringan menggunakan neuron untuk input layer berjumlah tiga neuron yaitu harga pembukaan saham (Y1), harga tertinggi saham (Y2), harga terendah saham (Y3) dan harga penutupan saham sebagai target pengujian (Y) dengan membandingkan penggunaan jumlah neuron pada hidden layer dan learning rate. Jumlah neuron pada hidden layer yang digunakan satu sampai sepuluh, sedangkan nilai learning rate yang digunakan 0.1 sampai 0.9.

Fungsi aktivasi yang digunakan yaitu sigmoid biner pada hidden layer dan linear pada output layer. Maksimum epoch 10000 dan target error 0.001. Inisialisasi bobot yang digunakan yaitu inisialisasi secara random.

0

Jan-05 Nov-05 Sep-06 Jul-07 Mei-08 Mar-09 Jan-10 Nov-10 Sep-11 Jul-12 Mei-13 Mar-14 Jan-15 Nov-15 Sep-16 Jul-17 Mei-18 Mar-19

Harga

Bulan

Harga Penutupan

23 4.3.1. Penentuan Jumlah Neuron pada Hidden Layer

Membandingkan penggunaan jumlah neuron pada hidden layer dilakukan untuk mendapatkan nilai MSE terbaik yaitu dengan nilai yang paling rendah.

Jumlah neuron pada hidden layer yang dilakukan yaitu satu sampai sepuluh dengan range satu. Begitu juga dengan nilai learning rate awal yaitu 0.1 dengan lima kali percobaaan setiap jumlah neuron pada hidden layer. Berikut tabel nilai rata-rata MSE dari lima kali percobaan pada setiap jumlah neuron pada hidden layer.

Tabel 4.1. Hasil Penggunaan Jumlah Neuron Pada Hidden Layer Jumlah Neuron pada Hidden

Layer

Rata-rata MSE

1 0.000475363

2 0.000462037

3 0.000444932

4 0.000448964

5 0.000469646

6 0.000460447

7 0.000455816

8 0.000465148

9 0.000440982

10 0.00043797

Untuk mempermudah melihat perbandingan hasil penggunaan jumlah neuron pada hidden layer berdasarkan hasil pada tabel 4.1, maka dibuatlah grafik sebagai berikut:

24 Gambar 4.5. Rata-rata MSE Jumlah Neuron Pada Hidden Layer

Pada gambar 4.5 dengan bertambahnya penggunaan jumlah neuron pada hidden layer cenderung membuat nilai MSE semakin kecil. Menunjukan bahwa nilai MSE terbaik sebesar 0.00043797 didapatkan pada jumlah neuron terbanyak yaitu sepuluh neuron pada hidden layer. Selanjutnya jumlah neuron pada hidden layer yang terpilih digunakan ke tahap membandingkan penggunaan nilai learning rate.

4.3.2. Penentuan Nilai Learning Rate

Dilakukan pada nilai 0.1 sampai 0.9 dengan range 0.1 sebanyak lima kali percobaan pada masing-masing nilai. Dengan menggunakan sepuluh neuron pada hidden layer. Berikut tabel nilai rata-rata MSE dari lima kali percobaan pada setiap nilai learning rate.

Tabel 4.2. Hasil Penggunaan Nilai Learning Rate

Learning Rate Rata-rata MSE

0.1 0.00043797

Jumlah neuron pada hidden layer

25

0.7 0.000440309

0.8 0.000453132

0.9 0.000460878

Untuk mempermudah melihat perbandingan penggunaan jumlah learning rate berdasarkan hasil pada tabel 4.2, maka dibuatlah grafik sebagai berikut:

Gambar 4.6 Rata-rata MSE Nilai Learning Rate

Pada gambar 4.6 dengan bertambahnya penggunaan nilai learning rate cenderung membuat nilai MSE semakin besar. Dan menunjukan bahwa nilai MSE terbaik sebesar 0.000432291 didapatkan pada nilai learning rate 0.3.

Karena rata-rata nilai MSE dengan sepuluh neuron pada hidden layer dan learning rate 0.3 lebih kecil dari target error sebesar 0.001, maka model arsitektur jaringan yang terbentuk dapat digunakan untuk prakiraan.

4.4. Pelatihan Jaringan

Berdasarkan pelatihan jaringan yang telah dilakukan dengan rancangan arsitektur jaringan yang terdiri dari 3 lapisan yang masing-masing memiliki 3 neuron pada input layer, 10 neuron pada hidden layer dan 1 neuron pada ouput layer, maka arsitektur jaringan multi layer network yang telah dirancang sebagai berikut:

26 Selama proses pelatihan, jaringan tersebut mencapai 915 iterasi untuk melatih Artificial Neural Network tersebut hingga mencapai optimal. Artificial Neural Network yang akan digunakan untuk memprakirakan harga penutupan saham dengan data pelatihan terlebih dahulu untuk mengetahui akurasi dari jaringan tersebut sebelum dilakukannya pengujian jaringan. Untuk lebih lengkapnya pada Lampiran 5.

Tabel 4.3. Hasil Prakiraan Pelatihan Jaringan

Bulan Periode Aktual Prakiraan

Jan-05 1 870 890.0269

Feb-05 2 930 934.9988

Mar-05 3 1160 1227.156

Gambar 4.7. Arsitektur Artificial Neural Network

27

Hasil prediksi data pelatihan menggunakan model jaringan yang didapatkan seperti tabel 4.3 diatas dalam memprediksi harga saham dengan rentang waktu dalam bulan. Didapatkan nilai MAPE sebesar 3.49%. akurasi model yang dihasilkan sebesar 96.51%.

4.5. Pengujian Jaringan

Berikut data aktual dan data hasil prakiraan nilai harga penutupan saham (Y) dengan menggunakan sepuluh neuron pada hidden layer dan learning rate 0.3 periode Januari 2017 sampai dengan Desember 2019. Disajikan pada tabel 4.4 berikut ini:

Tabel 4.4. Data Aktual Dan Data Prakiraan Harga Penutupan Saham

Bulan Periode Aktual Prakiraan

Jan-17 1 7925 7865.262

28

Untuk mempermudah melihat perbedaan dari data aktual dan data prakiraan dari nilai harga penutupan saham yang ada pada tabel 4.4, maka dibuatlah grafik sebagai berikut:

29 Gambar 4.8. Grafik Data Aktual Dan Data Prakiraan Harga Penutupan Saham Bedasarkan tabel 4.4 dengan menggunakan rumus persamaan (2.18) diperoleh nilai MAPE sebesar 2.263144%. Hasil prakiraan dikatakan sangat baik jika nilai MAPE kurang dari 10%. Akurasi model prediksi yang dihasilkan 97.73686%. Model jaringan yang diperoleh dengan tingkat akurasi yang optimal terdapat pada saat pengujian jaringan. Sehingga dapat dikatakan bahwa performa jaringan yang dihasilkan sangat baik.

4.6. Hasil Prakiraan

Dengan menggunakan arsitektur Artificial Neural Network yang terpilih yaitu dengan penggunaan sepuluh neuron pada hidden layer dan learning rate sebesar 0.3, maka hasil prakiraan harag penutupan saham INDF untuk 12 periode selanjutnya yaitu pada Januari 2020 sampai Desember 2020 dapat dilihat pada tabel 4.5 sebagai berikut:

5000 5500 6000 6500 7000 7500 8000 8500 9000

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35

Harga

Periode

Aktual Prediksi

30 Tabel 4.5 Prakiraan penutupan saham INDF

Bulan Prakiraan

Jan-20 8089.02

Feb-20 6914.4

Mar-20 6447.55

Apr-20 6773.81

Mei-20 5974.43

Jun-20 6952.73

Jul-20 6729.1

Agu-20 7878.35

Sep-20 7534.53

Okt-20 7307.03

Nov-20 7303.26

Des-20 6986.29

Berdasarkan tabel 4.5 diperoleh harga penutupan saham INDF pada periode 12 bulan mendatang cenderung mengalami penurunan harga. Dan pada periode Januari 2020 sampai Desember 2020 harga penutupan saham tertinggi pada bulan Januari 2020 sebesar 8089.02 dan harga penutupan saham terendah pada bulai Mei 2020 sebesar 5974.43.

31

BAB V

KESIMPULAN DAN SARAN

5.1. Kesimpulan

Berdasarkan penelitian yang dilakukan oleh penulis untuk memprakirakan harga saham PT Indofood Sukses Makmur menggunakan Artificial Neural Network dengan Algoritma Backpropagation diperoleh beberapa kesimpulan diantaranya sebagai berikut :

1. Tingkat akurasi yang dihasilkan ketika melakukan pengujian jaringan yang diperoleh mencapai tingkat akurasi sebesar 97.73686%.

2. Hasil rancangan arsitektur jaringan syaraf tiruan multi layer network yang diperoleh terdiri dari 3 layer yang meliputi 3 neuron pada input layer, 10 neuron pada hidden layer dan 1 neuron pada output layer. Parameter-parameter yang digunakan untuk membentuk model jaringan tersebut diantaranya learning rate dengan nilai sebesar 0.3 dan fungsi aktivasi yang digunakan adalah sigmoid biner pada hidden layer dan linear pada output layer. Dan memerlukan 915 iterasi untuk melatih Artificial Neural Network tersebut hingga mencapai optimal.

5.2. Saran

Dari hasil yang telah diperoleh, terdapat beberapa saran yang dapat diberikan:

1. Untuk penelitian selanjutnya, dapat mencoba inisialisasi bobot nguyen- windrow.

2. Menambahkan penggunaan jumlah neuron pada hidden layer dan nilai learning rate.

3. Membandingkan dengan metode lainnya seperti, Extreme Learning Machine untuk memprakirakan harga saham.

32

REFERENSI

[1] E. Pardiansyah, β€œInvestasi dalam Perspektif Ekonomi Islam: Pendekatan Teoritis dan Empiris,” Economica: Jurnal Ekonomi Islam , pp. 337-373, 2017.

[2] D. Herlianto, Manajemen Investasi Plus Jurus Mendeteksi Investasi Bodong, Yogyakarta: Pustaka Baru, 2013.

[3] R. B. Afrianto, H. Tjandrasa dan I. Arieshanti, β€œPrediksi Pergerakan Harga Saham Menggunakan Metode Backpropagation Neural Network,” SimanteC, pp. 132-141, 2013.

[4] D. R. Artha, N. A. Achsani dan H. Sasongko, β€œAnalisis Fundamental, Teknikal Dan Makroekonomi,” MK, pp. 175-184, 2014.

[5] Indofood, β€œDividends,” PT Indofood Sukses Makmur Tbk, [Online].

Available: https://www.indofood.com/investor-relation/dividend-history.

[Diakses 15 Agustus 2020].

[6] IDX, β€œProduk Syariah,” Bursa Efek Indonesia, [Online]. Available:

https://www.idx.co.id/idx-syariah/produk-syariah/. [Diakses 1 April 2019].

[7] N. P. Sakinah, I. Cholissodin dan A. W. Widodo, β€œPrediksi Jumlah Permintaan Koran Menggunakan Metode Jaringan Syaraf Tiruan Backpropagation,” Jurnal Pengembangan Teknologi Informasi dan Ilmu Komputer, pp. 2612-2618, 2018.

[8] G. Z. Muflih, Sunardi dan A. Yudhana, β€œJaringan Saraf Tiruan Backpropagation Untuk Prediksi Curah Hujan Di Wilayah Kabupaten Wonosobo,” MUST: Journal of Mathematics Education, Science and Technology, pp. 45-56, 2019.

[9] B. B. W. Putra, M. A. Albar dan B. Irmawati, β€œImplementasi Jaringan Syaraf Tiruan,” JTIKA, pp. 233-244, 2019.

33 [10] IDX, β€œSaham,” PT Bursa Efek Indonesia, [Online]. Available:

https://www.idx.co.id/produk/saham/. [Diakses 1 April 2019].

[11] J. D. Cryer dan K.-S. Chan, Time Series Analysis With Applications in R Second Edition, New York: Pearson, 2006.

[12] Suyanto, Artificial Intelligence, Bandung: Informatika, 2007.

[13] A. Hermawan, Pengantar Jaringan Syaraf Tiruan, Teori, dan Aplikasi, Yogyakarta: Andi, 2006.

[14] D. Puspitaningrum, Pengantar Jaringan Syaraf Tiruan, Yogyakarta: Andi Offset, 2006.

[15] S. Kusumadewi, Artificial Intelligence (Teknik dan Aplikasinya), Yogyakarta:

Graha Ilmu, 2003.

[16] J. T. Hardinata, H. Okprana, A. P. Windarto dan W. Saputra, β€œAnalisis Laju Pembelajaran dalam Mengklasifikasi Data Wine Menggunakan Algoritma Backpropagation,” Jurnal Sains Komputer & Informatika (J-SAKTI), pp. 422-432, 2019.

[17] M. S. Wibawa, β€œPengaruh Fungsi Aktivasi, Optimisasi dan Jumlah Epoch Terhadap Performa Jaringan Saraf Tiruan,” Jurnal Sistem Informatika, pp.

167-174, 2017.

[18] L. Fausett, Fundamentals of Neural Networks: Achitectures, Algorithms, and Applications., New Jersey: Prentice Hall, 1994.

[19] S. Makridaki, S. Wheelwright dan V. McGee, Metode dan Aplikasi Peramalan, Jakarta: Binarupa Aksara, 2003.

[20] G. Vincent, Production Planning and Inventory Control, Jakarta: PT Gramedia Pustaka Umum, 2005.

34

LAMPIRAN

35

LAMPIRAN

Lampiran 1. Data Penelitian

Bulan Y1 Y2 Y3 Y

36

37

38

39

40 LAMPIRAN 2. Data Normalisasi

Y1 Y2 Y3 Y

0.012293 0.008373 0.01423 0.017456 0.022127 0.014354 0.021992 0.024938 0.029502 0.062201 0.033635 0.053616 0.056546 0.045455 0.043984 0.03616 0.040565 0.043062 0.03881 0.058603 0.062692 0.046651 0.049159 0.046135 0.0504 0.035885 0.051746 0.044888 0.04917 0.0311 0.009056 0.007481

0.011063 0.005981 0 0

0 0 0.002587 0.011222 0.014751 0.003589 0.016818 0.014963 0.019668 0.01555 0.021992 0.022444 0.027044 0.017943 0.019405 0.018703 0.024585 0.010766 0.020699 0.013716 0.018439 0.005981 0.018111 0.01995 0.025814 0.035885 0.02458 0.049875 0.056546 0.047847 0.027167 0.026185 0.03319 0.022727 0.021992 0.018703 0.024585 0.02512 0.025873 0.0399 0.045482 0.045455 0.043984 0.057357 0.062692 0.052632 0.058215 0.064838 0.067609 0.059809 0.072445 0.074813 0.078672 0.072967 0.082794 0.083541 0.086048 0.070574 0.07762 0.077307 0.081131 0.106459 0.078913 0.119701 0.130301 0.116029 0.100906 0.103491 0.108175 0.088517 0.090556 0.098504 0.103258 0.107656 0.109961 0.113466 0.116779 0.118421 0.124191 0.124688 0.127843 0.162679 0.137128 0.161471 0.167179 0.171651 0.162354 0.158354 0.14874 0.138756 0.115136 0.140898 0.145052 0.13756 0.142303 0.149626 0.156116 0.162679 0.152652 0.183292 0.188691 0.240431 0.188228 0.223815 0.225569 0.225478 0.223803 0.23005 0.231715 0.291268 0.233506 0.261222

41 0.265519 0.267344 0.259379 0.273691

0.262446 0.252392 0.191462 0.198878 0.200983 0.195574 0.15912 0.192643 0.194837 0.249402 0.207633 0.258105 0.259373 0.240431 0.210867 0.208229 0.213276 0.192584 0.172057 0.192643 0.188691 0.171651 0.152652 0.189526 0.185618 0.171651 0.139715 0.153367 0.156116 0.133971 0.034929 0.044888 0.059004 0.053828 0.021992 0.029925 0.039336 0.022727 0.025873 0.024938 0.029502 0.034689 0.032342 0.031172 0.03319 0.022727 0.02458 0.018703 0.018439 0.019139 0.019405 0.026185 0.028273 0.055024 0.029754 0.068579 0.068838 0.132775 0.073739 0.130923 0.136447 0.13756 0.122898 0.144638 0.147511 0.180622 0.137128 0.192643 0.20713 0.225478 0.194696 0.220698 0.219422 0.264354 0.220569 0.28616 0.280885 0.294258 0.262613 0.292394 0.293178 0.288278 0.291721 0.292394 0.296251 0.333134 0.311125 0.351621 0.351567 0.366029 0.353169 0.357855 0.35464 0.37201 0.349935 0.382793 0.379226 0.404904 0.391979 0.379676 0.388445 0.37201 0.391979 0.395262 0.391518 0.37201 0.340233 0.36409 0.35464 0.404904 0.362872 0.426434 0.440688 0.464713 0.443726 0.485661 0.480639 0.479665 0.443726 0.476309 0.468347 0.593301 0.489004 0.588529 0.597419 0.58134 0.534282 0.557357 0.542102 0.521531 0.498706 0.479426 0.505224 0.494617 0.48577 0.516833 0.523663 0.509569 0.469599 0.495012 0.486785 0.485646 0.50194 0.501247 0.505224 0.551435 0.527814 0.582294 0.572833 0.58134 0.586028 0.600998

42 0.603565 0.587321 0.592497 0.582294

0.585126 0.599282 0.57956 0.625935 0.652735 0.677033 0.650712 0.700748 0.701905 0.712919 0.670116 0.669576 0.665028 0.647129 0.450194 0.538653 0.514444 0.587321 0.505175 0.563591 0.529809 0.527512 0.508409 0.495012 0.492932 0.482656 0.495472 0.482544 0.483712 0.494617 0.508409 0.507481 0.511371 0.51555 0.534282 0.544888 0.535956 0.521531 0.527814 0.513716 0.511371 0.485646 0.505175 0.513716 0.511371 0.485646 0.511643 0.49813 0.489859 0.482656 0.482536 0.513716 0.511371 0.575359 0.537516 0.582294 0.57898 0.557416 0.573092 0.582294 0.57898 0.575359 0.598965 0.613466 0.603565 0.641148 0.631307 0.619701 0.615857 0.605263 0.624838 0.638404 0.640443 0.641148 0.61837 0.638404 0.634296 0.641148 0.65718 0.663342 0.646589 0.772727 0.683053 0.819202 0.824831 0.856459 0.831824 0.837905 0.824831 0.808612 0.844761 0.825436 0.812538 0.838517 0.818887 0.825436 0.800246 0.79067 0.708926 0.825436 0.818685 0.784689 0.747736 0.719451 0.738783 0.742823 0.605433 0.719451 0.708052 0.760766 0.65718 0.78803 0.775661 0.79067 0.767141 0.738155 0.72649 0.7189 0.715395 0.738155 0.738783 0.7189 0.721863 0.73192 0.72649 0.778708 0.760673 0.778678 0.772588 0.757775 0.796248 0.803616 0.787953 0.832536 0.805951 0.819202 0.818685 0.79366 0.805951 0.78803 0.781807 0.754785 0.780078 0.759975 0.760295 0.730861 0.780078 0.744389 0.744929 0.754785 0.780078 0.791147

43 0.78488 0.760766 0.802717 0.766209

0.778734 0.751794 0.796248 0.781796 0.772588 0.739833 0.738034 0.759975 0.757222 0.72488 0.741268 0.744389 0.738783 0.709928 0.731565 0.750623 0.744929 0.823565 0.786546 0.850374 0.830977 0.817584 0.851229 0.831671 0.821758 0.802632 0.857697 0.837905 0.837124 0.796651 0.75097 0.750623 0.744929 0.784689 0.767141 0.819202 0.7941 0.766746 0.744502 0.728803 0.717271 0.706938 0.660414 0.669576 0.652735 0.6561 0.503234 0.569825 0.566687 0.566388 0.540103 0.594763 0.594345 0.668062 0.595731 0.59788 0.585126 0.629187 0.543984 0.516833 0.529809 0.533493 0.539457 0.554239 0.551321 0.641148 0.582794 0.682045 0.683467 0.766746 0.69599 0.78803 0.775661 0.805622 0.793014 0.80985 0.803319 0.772727 0.793014 0.797382 0.787953 0.763756 0.796248 0.772444 0.766441 0.784689 0.802717 0.812968 0.809465 0.943182 0.815653 0.947007 0.938537 0.916268 0.915912 0.897132 0.898586 1 0.941785 0.993766

1 1 1 0.968828

0.963122 0.919258 0.847995 0.853491 0.852489 0.871411 0.844761 0.897132 0.889367 0.874402 0.909444 0.897132 0.895513 0.880383 0.932083 0.92207 0.917025 0.919258 0.932083 0.906484 0.89244 0.919258 0.938551 0.953242 0.944683 0.976077 0.987063 1 0.990781 0.970096 0.987063 0.981297 0.978488 0.952153 0.980595 0.953242 0.947757 0.940191 0.967658 0.953242 0.944683 0.946172 0.983829 0.959476 0.953903 0.937201 0.967658 0.931421

44 0.932391 0.895335 0.860931 0.822319

0.815612 0.829545 0.854463 0.859726 0.852489 0.871411 0.890039 0.875312 0.867855 0.847488 0.890039 0.853491 0.846343 0.832536 0.815653 0.806733 0.806392 0.778708 0.78978 0.778678 0.772588 0.754785 0.699224 0.791147 0.78488 0.766746 0.734799 0.738155 0.732637 0.697967 0.708926 0.700748 0.695759 0.709928 0.689521 0.703865 0.698832 0.668062 0.670116 0.644638 0.640443 0.629187 0.624838 0.65399 0.649662 0.688995 0.634541 0.73192 0.732637 0.802632 0.741268 0.837905 0.830977 0.844498 0.844761 0.875312 0.852489 0.832536 0.822122 0.791147 0.787953 0.781699 0.741268 0.7101 0.698832 0.736842 0.702458 0.775561 0.769514 0.745813 0.670116 0.73192 0.72649 0.754785 0.767141 0.784913 0.778734 0.754785 0.776843 0.791147 0.787953 0.847488 0.805951 0.897132 0.89244 0.86244 0.877102 0.869077 0.852489 0.844498 0.854463 0.869077 0.861709 0.856459 0.886805 0.900249 0.898586 0.86244 0.899741 0.897132

45

LAMPIRAN 3. Hasil Penggunaan Jumlah Neuron Pada Hidden Layer

Hidden 1 2 3 4 5 Rata-rata

MSE 1 0.000471857 0.000476551 0.000489 0.000487 0.000453 0.000475363 2 0.0004679 0.000458277 0.000455 0.000454 0.000475 0.000462037 3 0.000425904 0.000456828 0.000458 0.000425 0.000458 0.000444932 4 0.000440161 0.000477023 0.000455 0.000449 0.000423 0.000448964 5 0.000456634 0.000484663 0.000484 0.000466 0.000457 0.000469646 6 0.000470188 0.000472127 0.000457 0.000454 0.000449 0.000460447 7 0.000479927 0.000424783 0.000464 0.000436 0.000474 0.000455816 8 0.000459165 0.00049503 0.000446 0.000477 0.000448 0.000465148 9 0.000434502 0.000429916 0.000455 0.000451 0.000435 0.000440982 10 0.000452089 0.000441206 0.000428 0.000432 0.000437 0.00043797

46

LAMPIRAN 4. Hasil Penggunaan Nilai Learning Rate Learning

rate 1 2 3 4 5 MSE

0.1 0.000452089 0.000441 0.000428 0.000432 0.000437 0.00043797 0.2 0.000461433 0.000442 0.000437 0.000432 0.000438 0.000441909 0.3 0.00043396 0.000416 0.000441 0.000449 0.000422 0.000432291 0.4 0.000427266 0.00044 0.000426 0.000438 0.000434 0.000433166 0.5 0.000454302 0.000449 0.000431 0.000429 0.000468 0.000446295 0.6 0.000454876 0.000467 0.000419 0.000456 0.000452 0.000449628 0.7 0.000412838 0.000429 0.000466 0.000435 0.000459 0.000440309 0.8 0.000491753 0.000429 0.00043 0.000448 0.000468 0.000453132 0.9 0.000440537 0.000463 0.000485 0.000453 0.000463 0.000460878

47

LAMPIRAN 5. Data Hasil Prakiraan Data Pelatihan Bulan Aktual Prakiraan

48

49

50

Dokumen terkait