• Tidak ada hasil yang ditemukan

APLIKASI WAVELET RECURRENT NEURAL NETWORK UNTUK PREDIKSI DATA TIME SERIES. : Agus Sumarno NRP :

N/A
N/A
Protected

Academic year: 2021

Membagikan "APLIKASI WAVELET RECURRENT NEURAL NETWORK UNTUK PREDIKSI DATA TIME SERIES. : Agus Sumarno NRP :"

Copied!
16
0
0

Teks penuh

(1)

APLIKASI WAVELET RECURRENT NEURAL NETWORK UNTUK PREDIKSI DATA

TIME SERIES

Nama : Agus Sumarno

NRP : 1206 100 706

Jurusan : Matematika

Dosen Pembimbing : Drs. Daryono Budi Utomo, M.Si

Abstrak

Model time series adalah salah satu teknik peramalan yang digunakan untuk memprediksi data yang akan datang dengan menggunakan data historis, artinya bahwa apa yang terjadi di masa mendatang merupakan fungsi dari apa yang terjadi pada masa lalu. Pemilihan metode yang tepat dalam memprediksi data sehingga didapat suatu hasil ramalan yang akurat merupakan masalah utama dalam peramalan. Salah satu metode peramalan yang baik untuk prediksi data time series adalah dengan menggunakan Artificial Neural Network (ANN), khususnya Recurrent Neural Network (RNN). Keunggulan RNN mempunyai layer recurrent/loop feedback sehingga RNN lebih bagus daripada feedforward statis khususnya dalam menyelesaikan masalah yang berhubungan dengan data time series.

Wavelet merupakan fungsi yang dapat mendekomposisi dan merekonstruksi data. Konsep ini digunakan untuk memprediksi data time series. Peran dari wavelet pada prediksi data time series yaitu untuk mendekomposisi data sebelum diinputkan pada ANN, setelah proses ANN data direkonstruksi untuk mendapatkan hasil prediksi/peramalan.

(2)

Pada tugas akhir ini dibahas bagaimana Wavelet Recurrent Neural Network (WRNN) digunakan untuk prediksi data time series. Ada empat wavelet yang digunakan yatiu wavelet Haar, db2, db3 dan db4. Untuk mengetahui hasil yang mendekati nilai sebenarnya diukur dengan menggunakan MSE, semakin kecil nilai MSE berarti data semakin mendekati nilai sebenarnya. Dari hasil uji coba perangkat lunak, model terbaik pada WRNN menggunakan wavelet db3 dengan arsitektur 2-3-1, nilai learning rate = 0.02 dan nilai alpha = 0.3.

Kata Kunci: Real time recurrent learning, Recurrent Neural Network, Time series, Wavelet

(3)

1. Pendahuluan

Peramalan merupakan suatu proses untuk memprediksi kejadian ataupun perubahan di masa yang akan datang. Dengan mendeteksi pola dan kecenderungan data time series, dan memformulasikannya dalam suatu model, maka dapat digunakan untuk memprediksi data yang akan datang. Model dengan akurasi yang tinggi menyebabkan nilai prediksi cukup valid untuk digunakan sebagai pendukung dalam proses pengambilan keputusan.

Salah satu metode peramalan yang berkembang saat ini adalah menggunakan Artificial Neural Network (ANN) khususnya Multilayer Perceptron dengan algoritma training Backpropagation (Budi utomo, 2007), tetapi jaringan yang lebih baik adalah Recurrent Neural Network (RNN), karena RNN mempunyai loop feedback sehingga bagus untuk pencocokan data terurut.

Recurrent Neural Network membutuhkan penghubung dan memori yang lebih besar dari pada jenis lainnya, sehingga perlu adanya modifikasi atau menggabungkan RNN dengan metode lainnya sesuai dengan masalah yang dihadapi, antara lain penggabungan RNN dengan EA dan PSO (Cai, dkk, 2004). Dalam analisis time series, analisis wavelet dan analisis fourier

adalah metode yang sangat berguna, namun penelitian dengan menggabungkan antara analisis fourier dan jaringan syaraf tiruan untuk prediksi data time series telah dilakukan (Mahmudah, 2006).

Keunggulan dari analisis

wavelet adalah mampu

menganalisis data menjadi komponen yang memiliki frekuensi berbeda melalui translasi (pergeseran) dan dilasi (penskalaan) dengan cara mendekomposisikan data, kemudian dianalisis sesuai dengan skala resolusi atau level dekomposisinya. Wavelet neural network telah banyak digunakan untuk meramalkan harga minyak (Youse, dkk, 2005), indeks saham (Aussem and Murtagh, 1998 ) dan yang lainya, tetapi tidak banyak aplikasi wavelet neural network untuk peramalan data time series. Oleh karena itu, pada tugas akhir ini analisis wavelet dan Recurrent Neural Network digunakan untuk prediksi data time series dengan Real-time recurrent learning sebagai algoritma trainingnya yang kemudian disebut Wavelet Recurrent Neural Network (WRNN).

2. Tinjauan Pustaka 2.1 Time Series

Time Series adalah himpunan nilai-nilai hasil pengamatan

X

(t

)

(4)

yang diamati berdasar periode waktu dan disusun untuk melihat pengaruh perubahan dalam rentang waktu tertentu. Sedangkan data time series merupakan data yang dikumpulkan, dicatat atau diobservasi secara berurutan.

Ada 2 hal pokok yang perlu diperhatikan dalam proses menentukan data prediksi yang akurat dan bermanfaat.

1. Pengumpulan data yang relevan berupa informasi agar dapat menghasilkan prediksi yang akurat.

2. Pemilihan teknik prediksi

yang tepat dengan

memanfaatkan informasi data yang diperoleh seoptimal mungkin.

Hal lain yang perlu diperhatikan pada prediksi data adalah bentuk data, apakah data tersebut sudah stasioner atau tidak. Suatu data time series disebut stasioner jika distribusi bersama dari sejumlah

n

observasi

X

(

t

1

)

,

)

(

t

2

X

,..

X

(

t

n

)

adalah sama dengan

distribusi bersama

dari

X

(

t

1 k

)

,

X

(

t

2 k

)

,....

X

(

t

n k

)

,

dimana

n

sebarang bilangan bulat positif, variabel lag (

k

) adalah perbedaan antara dua titik waktu, yaitu

t

2

t

1(Kuncoro,2001).

Pada tugas akhir ini untuk menghitung error dengan

menggunakan Nilai tengah kesalahan kuadrat / mean squared error (MSE) dengan cara sebagai berikut : MSE =

e

n

n i i

/

1 2 2.2 Wavelet 2.2.1 Analisis Mulitresolusi

Sebelum dibahas mengenai analisis multiresolusi dan fungsi wavelet terlebih dahulu dibahas tentang fungsi skala.

Definisi 2.1

Fungsi skala dinyatakan dengan

)

(

)

(

t

t

k

k

k

Z

, 2

L

(2.1) Dalam analisis wavelet terdapat dua fungsi utama yang berperan yaitu fungsi skala dan fungsi wavelet . Pasangan fungsi ini yang digunakan untuk mendekomposisi atau merekonstruksi data.

Definisi 2.2

Analisis multiresolusi dari

L

2 adalah suatu barisan bersarang dari sub ruang tertutup

V

j, yaitu

...

...

V

2

V

1

V

0

V

1

V

2 sedemikian hingga memenuhi :

1.

V

j

V

j 1

2.

V

j

L

2

(

R

)

3.

V

j= { 0 }

(5)

4. Fungsi

f

(t

)

V

j

)

2

( t

f

V

j 1,

j

Z

5. Fungsi

f

(t

)

V

0

)

(

t

k

f

V

0,

k

Z

6. {

(

t

k

)

,

k

Z

} membentuk basis ortonormal untuk

V

0. 2.2.2 Fungsi Wavelet

Dalam analisis multiresolusi

,

1

j j

V

V

j

Z

Misalkan

W

j adalah komplemen

ortogonal dari

V

j dalam

V

j 1, itu berarti bahwa semua anggota

V

j

ortogonal kesemua anggota

W

j, dinotasikan 1 j

V

=

V

j

W

j,

j

Z

(2.2) Maka (2.2) memenuhi

dt

t

t

t

t

jl jk jl jk

(

),

(

)

(

)

(

)

= 0 untuk

j

,

k

,

l

Z

dan

k

l

dengan adalah notasi fungsi wavelet. Berdasarkan (2.2) didapatkan 0 0 1

V

W

V

... (2.3) Karena dalam analisis multiresolusi

,

1 j j

V

V

maka (2.3) dapat diperluas menjadi 1 0 0 2

V

W

W

V

. (2.4)

Sehingga secara umum dapat dinyatakan 1 0 0 j j J J j j

W

V

W

V

(2.5) dan

W

j

L

2 J j ... (2.6)

dengan

V

0 adalah ruang awal yang direntang oleh translasi – translasi fungsi skala

(

t

k

),

k

Z

. Fungsi wavelet didefinisikan sebagai :

(

t

)

d

(

2

t

k

)

V

1 k

k

dengan

d

k

(

1

)

k

c

1k ... (2.7) Secara umum fungsi wavelet didefinisikan sebagai berikut :

Z

k

j

k

t

t

j j k j

(

)

2

(

2

),

,

2 / , (2.8)

Untuk

k

0

,

1

maka persamaan (2.7) didapat wavelet Haar :

)

1

2

(

)

2

(

)

(

t

t

t

(2.9)

2.2.3 Dekomposisi dan Rekonstruksi

Dekomposisi

Untuk mencari dekomposisi

dari fungsi skala

j j j k j

t

a

t

k

V

f

(

)

(

2

)

,

diperlukan relasi wavelet dengan fungsi skala. Relasi tersebut dinyatakan dengan :

2

/

))

(

)

(

(

)

2

(

t

t

t

(2.10)

2

/

))

(

)

(

(

)

1

2

(

t

t

t

(2.11)

(6)

Dengan mengganti

t

dengan

2

j 1

t

pada persamaan (2.10) dan (2.11) didapat relasi :

2

/

))

2

(

)

2

(

(

)

2

(

j

t

j1

t

j1

t

(2.12)

2

/

))

2

(

)

2

(

(

)

1

2

(

j

t

j1

t

j1

t

(2.13) Berlaku untuk semua

t

R

. Teorema 2.1 Dekomposisi Haar

Misalkan j j j k j

t

a

t

k

V

f

(

)

(

2

)

maka

f

j dapat didekomposisi

sebagai

f

j

w

j 1

f

j 1 diamana: Z k j j k j

b

t

k

w

1 1

(

2

1

)

1 j

W

Z k j j k j

a

t

k

f

1 1

(

2

1

)

1 j

V

dengan

2

1 2 2 1 j k j k j k

a

a

b

, dan j k j k j k

a

a

a

2 2 1 1 Rekonstruksi

Dari hasil dekomposisi untuk mendapatkan fungsi semula dilakukan rekonstruksi dengan menggunakan Teorema 2.2 dibawah ini. Teorema 2.2 Misalkan j j j j

f

w

w

w

w

W

f

0 1 2

...

1, dengan

f

0

(

t

)

= Z k k

t

k

V

a

(

)

0,

w

j'

(

t

)

= j j Z k j k

t

k

W

b

'

(

2

'

)

untuk

j

j'

0

maka

f

j

(t

)

= Z k j j j k

t

k

V

a

(

2

)

dimana

a

lj' secara berurutan menyatakan :

j

'

1

,

j

'

2

dan seterusnya sampai dengan

j'

j

, secara algoritma dapat dituliskan sebagai : 2 l

a

= ' ' ' ' j k j k j k j k

b

a

b

a

jik a

jik a

,

,

1

2

2

k

l

k

l

ganjil

genap

2.3 Artificial Neural Network (ANN)

Artificial Neural Network (ANN) atau yang sering kita kenal dengan Jaringan Syaraf Tiruan (JST) pada dasarnya mengambil ide dari cara kerja jaringan syaraf biologis. Salah satu pengambilan ide dari jaringan syaraf biologis adalah adanya elemen – elemen pemrosesan pada jaringan syaraf

(7)

tiruan yang saling terhubung dan beroperasi secara paralel.

Seperti jaringan syaraf manusia, JST juga terdiri dari neuron dan keterhubungan diantara neuron-neuron. Pada JST istilah untuk menggantikan hubungan tersebut adalah bobot. Informasi berupa sinyal/data disimulasikan sebagai harga yang spesifik pada bobot. Dengan cara mengubah-ubah harga bobot artinya kita juga mengubah-mengubah struktur hubungan antar neuron. Pada Gambar 2.1 ditunjukkan struktur dasar dari jaringan syaraf tiruan ( JST ) satu neuron yang menganalogikan sel syaraf biologis dengan asumsi sebagai berikut :

1. cell body dinyatakan dengan node

2. Axon dinyatakan dengan path 3. Dendrit merupakan input 4. Axon yang menuju cell body

yang lain sebagai output.

Gambar 2.1 Analogi sel biologis dengan satu neuron tiruan

Model dari jaringan syaraf tiruan pada umumnya terdiri dari :

1. Masukan

(

x

n

)

yang berfungsi sebagai penerima sinyal.

2. Bobot koneksi

(

w

j

)

untuk

menyimpan informasi. 3. Bias

(

w

0

)

yang berfungsi

mengatur daerah nilai ambang.

4. Elemen pemroses (

J

) dan fungsi aktifasi

(

F

1

)

untuk memroses informasi.

5. Keluaran

(

y

1

)

sebagai keluaran yang akan

menyampaikan hasil

pemrosesan informasi ke sel berikutnya.

Sistem JST disusun dengan menggunakan model matematis dari jaringan biologi manusia. Persamaan matematika satu neuron pada Gambar 2.1 adalah sebagai berikut : n i i ji j

x

w

x

w

x

S

1 0 0

)

(

))

(

(

)

(

x

f

s

x

y

j j 2.3.1 Fungsi aktifasi

Fungsi aktifasi menentukan

bagaimana suatu neuron

menanggapi sinyal-sinyal masukan, sehingga terjadi aktivitas satu neuron. Jika aktivitas neuron kuat,

(8)

maka neuron akan menghasilkan sinyal keluaran yang dapat dihubungkan ke neuron lain.

Beberapa jenis fungsi aktifasi yang sering digunakan untuk mengaktifkan neuron diantaranya adalah sebagai berikut:

1. Fungsi sigmoid biner

x

e

x

f

1

1

)

(

2. Fungsi sigmoid bipolar

x x

e

e

x

f

1

1

)

(

2.3.2 Recurrent Neural Network (RNN)

RNN adalah jaringan yang mengakomodasi output jaringan untuk menjadi input pada jaringan itu lagi dalam rangka menghasilkan output jaringan berikutnya. Karakteristik RNN dari jenis jaringan lainnya adalah adanya loop feedback yang memungkinkan untuk menggunakan informasi dari pola sebelumnya bersama dengan input saat ini sehingga dapat menangani serangkaian data terurut.

Oleh karena itu RNN sering digunakan untuk prediksi time series. Salah satu contoh arsitektur dari Recurrent Neural Network dapat dilihat pada gambar 2.2 yang terdiri dari 3 layer dengan komposisi sebagai berikut yaitu:

1. Layer input terdiri dari

n

neuron

2. Layer hidden terdiri dari

m

neuron

3. Layer output terdiri dari

k

neuron

dan loop feedback terjadi pada neuron hidden yaitu dari neuron hidden

j

ke neuron hidden

j

dan dari neuron output ke neuron hidden

Gambar 2.2 Recurrent Neural network

2.3.3 Real Time Recurrent Learning

Algoritma RTRL (Real Time Recurrent Learning) secara detailnya adalah sebagai berikut : Langkah 0 :

Inisialisasi bobot dari neuron input

i

ke neuron hidden

j

(

w

ij), bobot dari neuron hidden

(9)

bobot recurrent yaitu dari bobot dari neuron hidden

j

ke neuron hiden

j

(

u

j), output neuron hidden

j

(

y

j) dan parameter yang digunakan yaitu learning rate ( ) dan momentum atau alpha( ).

Serta setting

0

ij j jk

u

w

v

Langkah 1 :

Mengulangi langkah 2 hingga langkah 7 sampai kondisi akhir iterasi dipenuhi.

Langkah 2 :

Melakukan langkah 3 hingga 8 untuk masing-masing pasangan

data pelatihan Fase

Feedforward Langkah 3 :

Masing-masing neuron input (

x

i,

i

1

,

2

,

3

,...

p

)

menerima sinyal masukan

x

i dan sinyal tersebut disebarkan ke neuron pada layer selanjutnya (hidden layer). Langkah 4 :

Pada langkah ini Masing-masing neuron hidden akan menjumlahkan sinyal inputnya :

p k k kj j j j

t

u

y

t

w

x

t

s

1

)

(

)

1

(

)

(

untuk

j

1

,

2

,

3

,...

...

N

Kemudian menghitung nilai output neuron hiden sesuai

dengan fungsi aktifasi yang digunakan. p k k kj j j j j t f s t f u y t w x t y 1 )) ( ) 1 ( ( )) ( ( ) (

Selanjutnya output dari hidden layer dikirim ke neuron pada layer selanjutnya.

Langkah 5 :

Jika neuron selanjutnya adalah neuron output maka masing-masing neuron output akan menjumlahkan bobot sinyal masukan. Berdasarkan Fungsi aktifasi yang digunakan sehingga didapatkan output jaringannya adalah : N j j jk k

t

v

y

t

z

1

)

(

)

(

untuk

k

1

,

2

,

3

...

M

Langkah 6 :

Masing-masing neuron output (

z

k,

k

1

,

2

,

3

...

M

) menghitung error jaringan yaitu membandingkan output jaringan dengan target yang diinginkan

)

(

)

(

)

(

t

d

t

z

t

E

k k k

Kemudian menghitung cost function : M k k

t

E

t

e

1 2

)

(

2

1

)

(

Langkah 7 : Mengupdate bobot :

)

(

)

(

)

1

(

t

v

t

v

t

v

ij ij ij

(10)

)

(

)

(

)

1

(

t

w

t

w

t

w

ij ij ij

)

(

)

(

)

1

(

t

u

t

u

t

u

ij ij ij Langkah 8 :

Uji kondisi pemberhentian / stop condition, yaitu dengan cara:

1. Membatasi jumlah iterasi yang dilakukan, yaitu membatasi perulangan dari langkah 3 sampai dengan langkah ke 7

2. Dengan cara membatasi error.

3. Metode Penelitian

Metode penelitian pembuatan perangkat lunak untuk memprediksi data time series dengan WRNN dan RNN adalah sebagai berikut:

3.1 Sumber Data

3.2 Spesifikasi Hardware dan Software

3.3 Prediksi data time series a. Proses pada wavelet b. Model Prediksi c. Struktur Inputan

d. menentukan Arsitektur Jaringan

e. Simulasi.

Perbedaan metode antara RNN dan WRNN dapat dilihat pada diagram alir Gambar 3.1 mulai Input data Dekomposisi Jaringan Saraf Tiruan Rekonstruksi Output WRNN Selesai mulai Input data Jaringan Saraf Tiruan Output RNN Selesai

Gambar 3.1 Perbedaan metode antara RNN dan WRNN

4. Perancangan dan Implementasi perangkat lunak

4.1 Desain sistem atau perancangan perangkat lunak

a. Inputan data b. Koefisien wavelet

c. Rancangan arsitektur jaringan

d. Rancangan data input-output JST

e. Rancangan metode training f. Rancangan metode testing 4.2 Implementasi perangkat lunak

a. Implementasi form muka b. Implementasi wavelet c. Implementasi JST

5. Hasil Simulasi dan Perbandingan

5.1 Simulasi

Pada tugas akhir ini dilakukan beberapa uji coba untuk mengetahui bagaimana pengaruh inisialisasi bobot awal, arsitektur jaringan serta nilai parameter

(11)

sehingga dapat ditentukan arsitektur dan nilai parameter terbaik untuk mendapatkan hasil ramalan yang optimal. Uji coba perangkat lunak dilakukan dengan nilai learning rate = 0.05, alpha = 0.02, maksimal iterasi = 200, dan error minimal = 0.0001. Pada wavelet Haar yang ditunjukkan di Tabel 5.1, arsitektur yang menghasilkan MSE paling kecil pada RNN adalah arsitektur yang terdiri atas 1 neuron input, 3 neuron hidden, 1 neuron output atau dituliskan dengan 1-3-1, sedangkan pada WRNN pada arsitektur 1-1-2.

Dengan mengkombinasikan

banyaknya neuron tiap layer, terlihat bahwa arsitektur berpengaruh terhadap hasil yang diperoleh dari proses training. Jika neuron output lebih dari satu, MSE yang dihasilkan cukup besar, sehingga pada tugas akhir ini hanya dituliskan beberapa kombinasi saja. Tabel 5.1 Wavelet haar

Pada wavelet db2 MSE paling kecil untuk RNN pada arsitektur 1-3-1, sedangkan untuk WRNN adalah arsitektur 1-1-1. hasil uji coba dapat dilihat pada Tabel 5.2.

Tabel 5.2 Wavelet db2

Pada wavelet db3 MSE paling kecil untuk RNN pada arsitektur 1-3-1, sedangkan untuk WRNN arsitektur 2-3-1. hasil uji coba dapat dilihat pada Tabel 5.3.

(12)

Pada wavelet db4 MSE paling kecil untuk RNN maupun WRNN pada arsitektur 1-3-1. Hasil uji coba dapat dilihat pada Tabel 5.4.

Tabel 5.4 Wavelet db4

Secara umum dari nilai error minimal yang diberikan (0,0001) MSE yang dihasilkan WRNN lebih kecil dari RNN sehingga model WRNN lebih baik dari pada model RNN kecuali pada beberapa kasus khusus terdapat nilai MSE RNN lebih kecil dari WRNN yaitu pada arsitektur dengan neuron output lebih dari satu diantaranya 3-2, 1-3-3, 3-3-2 dan 3-3-3 tetapi MSEnya cukup besar, jadi hasil prediksi dari arsitektur tersebut kurang optimal.

Pada RNN arsitektur yang menghasilkan MSE paling kecil adalah arsitektur 1-3-1, sehingga untuk RNN arsitektur 1-3-1 yang digunakan untuk uji coba

selanjutnya dalam menentukan nilai parameter terbaik. Dari empat wavelet yang digunakan pada WRNN wavelet db3 menghasilkan MSE paling kecil dengan arsitektur 2-3-1, sehingga untuk WRNN arsitektur 2-3-1 inilah yang digunakan untuk uji coba selanjutnya dalam menetukan nilai parameter terbaik.

Pemilihan learning rate yang sesuai akan dapat membantu mendapatkan hasil ramalan yang optimal, Oleh karena itu pada tugas akhir ini dilakukan uji coba terhadap beberapa nilai learning rate dan nilai alpha ( ). Nilai learning rate yang diuji coba pada tugas akhir ini berkisar antara 0.0001 sampai 0,9. Hasil dari uji coba dapat dilihat pada tabel 5.5.

Tabel 5.5 Hasil uji coba RNN dan

WRNN dengan nilai nilai

Alpha ( ) = 0.02,

maximal iterasi = 200 RNN WRNN

(13)

Dari hasil yang diperoleh, Learning rate yang menghasilkan MSE paling kecil pada RNN adalah 0.3 dimana nilai MSE RNN = 1273.619 dan pada dan WRNN adalah 0.02 dimana nilai MSE WRNN = 594.3098. Dari nilai learning rate ( ), kemudian dilakukan uji coba untuk mendapatkan nilai alpha. Hasil dari uji coba dapat dilihat pada Tabel 5.6.

Tabel 5.6 Hasil uji coba RNN dan

WRNN dengan nilai

learning rate ( ) RNN =

0.3, WRNN = 0.02

maximal iterasi = 200. RNN WRNN

Dari hasil diperoleh nilai MSE terkecil untuk RNN adalah 0.9 dan untuk WRNN 0.3, sehingga pada model RNN hasil prediksi yang optimal didapatkan dengan arsitektur 1-3-1, nilai learning rate = 0.3, dan nilai alpha = 0.9 sedangkan pada model WRNN hasil prediksi yang optimal didapatkan

dengan arsitektur 2-3-1, nilai learning rate = 0.02, dan nilai alpha = 0.3.

Gambar 5.1 menunjukkan plot grafik validasi hasil training antara data aktual dengan data ramalan pada RNN dan WRNN untuk 70 % data awal, sedangkan pada Gambar 5.2 ditunjukkan plot grafik hasil testing antara data aktual dengan data ramalan pada RNN dan WRNN untuk 30 % data terakhir.

Gambar 5.1 Plot grafik validasi hasil training antara data aktual dengan data ramalan untuk 70 % data awal.

Gambar 5.2 Plot grafik hasil testing antara data aktual dengan data ramalan untuk 30 % data terakhir.

(14)

Dari grafik dapat dilihat bahwa data hasil ramalan untuk WRNN lebih berhimpitan dengan data aktual dibandingkan dengan RNN, itu menunjukkan bahwa data hasil ramalan WRNN lebih baik dari RNN.

5.2 Perbandingan

Pada bagian ini dibandingkan beberapa hasil MSE yang didapat antara WRNN dan RNN. Pertama dibandingkan dengan ketentuan arsitektur dan parameter yang sama yaitu arsitektur 1, 2-1 dan 1-3-1 untuk nilai learning rate = 0.05, alpha = 0.02 dan toleransi error = 0.0001, sedangkan perbandingan yang kedua dengan ketentuan mengambil nilai terbaik dari tiap model. Hasil perbandingan MSE antara RNN dan WRNN dapat dilihat pada Tabel 5.7 dan Tabel 5.8 Tabel 5.7 Perbandingan MSE RNN

dengan WRNN pada masing-masing wavelet

Tabel 5.8 Perbandingan MSE RNN

dan WRNN untuk

Arsitektur dan Parameter terbaik

Dari Tabel 5.7 terlihat bahwa pada masing-masing wavelet yang digunakan hasil MSE Wavelet Recurrent Neural Network (WRNN) lebih kecil dari hasil MSE Recurrent Neural Network (RNN), selain itu pada Tabel 5.8 juga terlihat dengan mengambil nilai terbaik pada masing-masing model, MSE pada WRNN juga lebih kecil dari RNN, sehingga dapat dikatakan bahwa hasil prediksi WRNN lebih baik daripada hasil prediksi RNN. 6. Kesimpulan

Dari hasil uji coba perangkat lunak diperoleh kesimpulan sebagai berikut :

1. Dengan menggunakan data harian kurs jual dolar terhadap rupiah dari tanggal 1 Januari 2009 sampai dengan 30 Oktober 2009, dari empat wavelet yang menghasilkan model terbaik pada WRNN adalah wavelet db3 dengan arsitektur 2-3-1, nilai learning rate = 0.02 dan alphanya = 0.3,

(15)

sedangkan pada RNN arsitektur terbaik adalah 1-3-1 dengan Nilai learning rate = 0.3 dan alphanya = 0.9. 2. Dengan menggunakan model

yang terbaik dari WRNN, hasil prediksi yang didapatkan sudah mendekati nilai sebenarnya.

3. Dari hasil MSE terbaik pada masing-masing model, MSE WRNN lebih kecil dari MSE RNN, jadi model prediksi

WRNN lebih baik

dibandingkan dengan model prediksi RNN.

DAFTAR PUSTAKA

Anton, H., Rorres, C. 2004. “Aljabar Linear Elementer (versi aplikasi)”. Edisi kedelapan-jilid 1. Alih Bahas: Refina Indriasari, Irzam Harmein. Editor: Amalia Safitri. Erlangga, Jakarta.

Aussem and Murtagh,F. 1998. ”Wavelet-based feature extraction and decomposition strategies for financial forecasting”, Journal of Computational Intelligence in Finance, 6:5-12.

Budi utomo, Daryono. 2007. ”Wavelet-jaringan syaraf tiruan untuk prediksi data time series”. Matematika ITS.Surabaya.

Burrus C, Sidney, Cs. 1998. ” Introduction to Wavelets and Wavelet Transform A primer”. Prentice Hall International, Inc. Houston, Texas.

Cai, X., dkk. 2004. “Time Series Prediction with RNN using a Hibrid PSO-EA Algorithm”, University of missouri,Rolla. Doya, K. 2002. ”Recurrent Network

: Learning Algorithms”. Kyoto

Fathi, Jamal and Mamedov, Fakhraddin. 2004. ”Time series predictions using combinations of wavelets and neural networks”. Near East University, North Cyprus, Turkey.

Haykin, Simon. 1994 . ”Neural Networks A Comprehensive Foundation”. Mc Master University Hamilton, Ontario, Canada.

Kuncoro, M. 2001. “Metode Kuantitatif, Teori dan Aplikasi untuk Bisnis dan Ekonomi ”, Unit penerbit dan percetakan AMP YKPN, Yogyakarta. Loh Hwa, Ruey. 2003. ”Time Series

Forecast with Neural network”. Department of Electrical and Computer Engineering, University of Queensland., Australia.

Mahmudah,Wilda.2006. ”Fourier – recurrent neural network jenis elman untuk prediksi data time

(16)

series”. Matematika ITS, Surabaya.

Makridakis. 1999. “Metode dan Aplikasi Peramalan”. Binarupa Aksara, Jakarta. Wang and Ding. 2003. “ Wavelet

Network Model and Its Application to the Prediction of Hydrology”. Department of Hydrology and Water Resources, Hydraulic School of Sichuan University, Chengdu, Sichuan 610065, China.

Youse, Shahriar., W .I, and Reinarz.D. 2005. ” Wavelet-based prediction of oil prices ”, Chaos, Solitons and Fractals, 25:265-275.

Yunus, Mahmud. 2005. “Pengantar Analisis Fungsional”. Jurusan Matematika FMIPA ITS. Surabaya.

Gambar

Gambar 2.1  Analogi sel biologis  dengan satu neuron tiruan
Gambar 2.2 Recurrent Neural  network
Tabel 5.3 wavelet db3
Tabel 5.5   Hasil  uji  coba  RNN  dan  WRNN dengan nilai  nilai  Alpha  ( )  =  0.02,  maximal iterasi = 200  RNN                  WRNN
+3

Referensi

Dokumen terkait