7
BAB II
TINJAUAN PUSTAKA
2.1 Saham
Saham adalah bukti kepemilikan perusahaan; Saham dinyatakan dalam bentuk lembar; Kepemilikan pemegang saham dinyatakan dalam bentuk persentase dari total saham yang diterbitkan suatu perusahaan [12]. Perusahaan menerbitkan saham untuk memperoleh tambahan modal dari setiap lembar saham yang terjual; Minat investor dalam menginvestasikan saham pada suatu perusahaan salah satunya bergantung pada tingkat kinerja perusahaan [13].
2.1.1 Harga Pasar Saham
Selembar saham adalah selembar kertas yang menerangkan bahwa pemilik saham (berapapun porsinya/jumlahnya) dari suatu perusahaan yang menerbitkan kertas (saham) tersebut; Harga saham dapat dibedakan menjadi harga nominal, harga perdana dan harga pasar; Harga yang dicatat dalam setiap periode dalam bursa efek merupakan harga pasar [13].
Harga pasar adalah harga jual dari investor yang satu dengan investor yang lain. Harga ini terjadi setelah saham tersebut dicatatkan di bursa efek. Transaksi disini tidak lagi melibatkan emiten dan penjamin emisi. Harga inilah yang disebut sebagai harga di pasar sekunder dan merupakan harga yang benar-benar mewakili harga perusahaan penerbitnya. Harga yang setiap hari diumumkan di surat kabar atau media lain adalah harga pasar yang tercatat pada waktu penutupan aktivitas di Bursa Efek Indonesia [13].
2.1.2 Faktor-faktor yang Mempengaruhi Harga Saham
Faktor-faktor yang mempengaruhi fluktuasi harga saham dapat berasal dari internal dan eksternal; Harga saham yang terjadi di pasar modal selalu berfluktuasi dari waktu ke waktu; Fluktuasi harga saham tersebut akan ditentukan oleh kekuatan penawaran dan permintaan ; Jika jumlah penawaran lebih besar dari jumlah permintaan lebih besar dari jumlah penawaran terhadap suatu efek maka harga saham cenderung akan naik [5]. Faktor-faktor yang mempengaruhi fluktuasi harga saham dapat berasal dari internal dan eksternal perusahaan [14]:
8 1. Faktor Internal
a. Pengumuman tentang pemasaran, produksi, penjualan seperti pengiklanan, rincian kontrak, perubahan harga, penarikan produk baru, laporan produksi, laporan keamanan produk, dan laporan penjualan.
b. Pengumuman pendanaan, seperti pengumuman yang berhubungan dengan ekuitas dan hutang.
c. Pengumuman laporan keuangan perusahaan, seperti peramalan laba sebelum akhir tahun fiskal dan setelah akhir tahun fiskal, EPS, DPS, price
earning ratio, net profit margin, ROA, dan lain lain.
2. Faktor Eksternal
a. Pengumuman dari pemerintah seperti perubahan suku bunga tabungan dan deposito, kurs valuta asing, inflasi, serta berbagai regulasi dan deregulasi ekonomi yang dikeluarkan oleh pemerintah.
b. Gejolak politik dalam negara dan fluktuasi nilai tukar juga merupakan faktor yang berpengaruh signifikan pada terjadinya pergerakan harga saham di bursa efek suatu negara.
c. Berbagai isu baik dari dalam dan luar negeri.
2.1.3 Analisis Saham
Secara umum terdapat, dua jenis analisis saham yang banyak digunakan oleh investor di seluruh dunia, yaitu analisis teknikal dan analisis fundamental; Analisis teknikal adalah analisis yang didasarkan harga saham historis yang telah terjadi dari waktu ke waktu, dan kemudian menggunakan data tersebut untuk meramalkan pergerakan harga di masa yang akan datang; Analisis teknikal disajikan dalam grafik-grafik harga saham untuk memberikan indikator untuk membuat keputusan investasi; Indikator tersebut biasanya menunjukkan kapan waktu menjual dan membeli [12]. Rate of return adalah tingkat hasil investasi pada periode tertentu yang memiliki beberapa kemungkinan yaitu bernilai + (keuntungan), - (kerugian), 0 (impas). Return berkaitan erat dengan risiko yang diterima, return dan risiko berbanding lurus semakin besar risiko yang ditanggung semakin besar return yang harus dikompensasikan [15]. Berikut rate of return untuk harga saham harian [16]:
9
= U (2. 1)
2.2 Data Deret Waktu
Data Deret waktu adalah urutan observasi suatu variabel dalam suatu interval waktu secara berurutan. Jika digambarkan pada sumbu x dan y, maka x adalah pengamatan suatu waktu dan y adalah kejadian dari waktu yang diamati secara berurutan. Data deret waktu memiliki sifat interinsik bahwa pengamatannya saling berkorelasi yang artinya bahwa setiap urutan data memiliki keterkaitan [6]. Pola data deret waktu terdiri menjadi dua garis besar yaitu pola data stasioner dan pola data non stasioner. Pembagian pola data didapatkan dari parameter mean, variansi dan autokorelasi yang menunjukan data konstan atau tidak konstan [6].
1. Data Stasioner
Data stasioner didefinisikan bahwa runtun waktu : yang memenuhi tiga kriteria berikut [6]:
a. V(: ) = ? WLUXYZU [UY[W X\][Z Y
b. _Z (: ) = => WLUXYZU [UY[W X\][Z Y c. `La(: , :;<) = V[(: − ?)(:;<− ?)] = C<
Konstan untuk setiap t dengan t adalah bilangan asli, k adalah bilangan asli dan C< adalah autokovariansi pada lag k. Data stasioner terhadap rata-rata artinya data memiliki jangkauan di sekitar rata yang konstan. Stasioneritas terhadap rata-rata dapat diketahui dengan melihat grafik garis dan plot ACF dan PACF. Data dapat dikatakan stasioner terhadap rata-rata, apabila grafik garis menunjukan data tidak memiliki pola trend, musiman, siklis dan tidak bergantung terhadap variansi yang menunjukan adanya fluktuasi pada data, artinya data konstan terhadap varian. Plot ACF dan PACF mengindikasikan data tidak stasioner terhadap rata-rata apabila plot ACF dan PACF memiliki pola seperti gelombang sinus atau eksponensial pada setiap lag.
2. Data Non Stasioner
Deret waktu non stasioner adalah data deret waktu yang memiliki rata-rata, variansi, dan autokovarian yang tidak konstan pada setiap observasi. Bentuk pola data dapat mengidentifikasi kestasioneran data dari grafik garis, plot ACF dan
10
PACF. Pola grafik garis yang memiliki trend, musiman, siklis dan fluktuasi pada setiap observasi dan plot ACF dan PACF yang membentuk pola gelombang sinus atau eksponensial mengindikasikan data tidak stasioner.
a. Pola Data Trend
Pola trend biasanya terjadi pada data makroekonomi [17]. Trend adalah komponen deret waktu yang menunjukan fenomena penurunan atau peningkatan pada pola data deret waktu dalam jangka waktu yang relatif panjang.
b. Pola Musiman
Data musiman biasanya terjadi pada periode berulang misalnya pada periode setiap minggu, bulan atau bahkan tahun karena faktor cuaca, hari raya, dan lain-lain. Ciri data musiman adalah adanya fluktuasi data berulang atau fluktuasi memiliki jangkauan periode yang sama [17].
c. Pola Siklis
Pola data siklus adalah data berfluktuasi seperti gelombang di sekitar
trend, atau dapat dikatakan pola musiman dalam jangka lebih panjang yang
berulang biasanya setiap lima tahun sampai sepuluh tahun [17].
2.2.1 Fungsi Autokorelasi
Autokorelasi adalah fungsi untuk memeriksa hubungan linier setiap urutan data d , d>, de, … , d<. Data deret waktu untuk peramalan diharapakan memiliki korelasi pada setiap observasi. Didefinisikan fungsi autokorelasi, F< adalah sebagai berikut [9]: F< =CC =< ∑ h: − :i(:;<− :) < j ∑ (: − :5)j > (2. 2)
dengan ∑ (: − :5)(:j< ;<− :5) adalah fungsi autokovariansi pada lag k dan (: − :5)> variansi. Statistik uji untuk fungsi autokorelasi adalah sebagai berikut [9]: aZ (F<) =1U k1 + 2 m FG> K Gj n , [UY[W W > p qVrs = t aZ (F<) U
11
Pengujian hipotesis fungsi autokorelasi dengan memeriksa setiap lag fungsi autokorelasi sebagai berikut:
u : F< = 0 (x[UMXy Z[YLWL \ ZXy YyzZW XyMUy{yWZU) u : F< ≠ 0 (x[UMXy Z[YLWL \ ZXy XyMUy{yWZU) Dengan kriteria keputusan u ditolak jika |Y~ | > Y•
€ . Selain menggunakan
statistik uji, untuk mengetahui apakah fungsi autokorelasi signifikan atau tidak dapat dilihat pada plot ACF. Jika pada plot ACF tidak ada lag yang melebihi garis batas signifikansi (garis putus-putus), maka koefisien autokorelasi signifikan atau tidak terjadi korelasi antar lag [18].
2.2.2 Fungsi Autokorelasi Parsial
Autokorelasi parsial digunakan dalam mengukur : dan :;< adanya pengaruh antar lag [18]. Autokorelasi parsial pada lag k dinotasikan dengan E<< dan didefinisikan sebagai berikut [9]:
E<< = `L (: , : <|: , : >, … , : <; )
Autokorelasi parsial merupakan korelasi antara Y , dan Y dengan menghilangkan hubungan : , : >, … , : <; . E<< fungsi autokorelasi parsial pada persamaan k, yaitu:
‚ F = (E< + F E<>+ F>E<e+ ⋯ + F< E<<) F> = (F E< + E<>+ F E<e+ ⋯ + F< >E<<) ⋮ F< = (F< E< + F< >E<>+ F< eE<e+ ⋯ + E<<) … (2. 3)
pada persamaan (2.3) dapat diselesaikan secara rekursif sebagai berikut [9]
E<< = F< ∑ E< ,GF< G <
Gj
1 − ∑<Gj E< ,GFG
(2. 4)
Statistik uji untuk fungsi autokorelasi adalah sebagai berikut: Y =qV(EE<<
<<) qV(E<<) = 1 √U
Hipotesis untuk menguji autokorelasi parsial sebagai berikut : u : E<< = 0 (x[UMXy Z[YLWL \ ZXy ‡Z XyZ YyzZW XyMUy{yWZU) u : E<< ≠ 0 (x[UMXy Z[YLWL \ ZXy ‡Z XyZ XyMUy{yWZU)
12
Kriteria keputusan tolak u jika |Y~ ˆ ‰| > Y•
€ Š dan dengan derajat bebas
z{ = U − 1 [6].
2.2.3 White Noise
White noise merupakan urutan variabel acak yang tidak saling berkorelasi,
dengan rata-rata konstan V(: ) = ?‹ atau biasa diasumsikan 0, variansi konstan _Z (: ) = =‹> dan C<= `La(: , :;<) = 0 untuk semua W ≠ 0, t dan k adalah bilangan asli dengan demikian white noise adalah stasioner; Asumsi white noise adalah variabel acak yang independen dan terdistribusi normal [6].
C< = Œ=@
> ; W = 0 0 ; W ∈ ℕ…
(2. 5)
Fungsi autokorelasi dan fungsi autokorelasi parsial pada fenomena white noise identik sama dengan 0 untuk W ≠ 0 [6].
F< = Œ1 ; W = 0 0 ; W ∈ ℕ … (2. 6) E<= Œ1 ; W = 0 0, ; W ∈ ℕ… (2. 7)
2.2.4 Uji Augmented Dickey-Fuller
Uji ADF dilakukan untuk mengetahui apakah suatu data stasioner atau tidak stasioner. Uji ADF dapat dikatakan sebagai polinomial AR (1) [6] dengan pengujian menggunakan bentuk keluaran regresi sebagai berikut:
: = E: + Z Dengan estimator E adalah sebagai berikut [6]:
E = ∑ : :∑ :> Hipotesis untuk uji ADF adalah sebagai berikut:
u : E ≤ 1(‘\ zZ‡ZY ZWZ [UyY ZYZ[ zZYZ YyzZW XYZXyLU\ )
u : E < 1(‘yzZW Y\ zZ‡ZY ZWZ [UyY ZYZ[ zZYZ z\ \Y PZWY[ XYZXyLU\ ) Mengikuti uji t statistik kriteria penolakan ketika Y~ ˆ ‰> Y@“ ” atau p-value. Uji ADF dapat dilakukan lebih dari satu kali untuk memastikan apakah data yang sudah di transformasi dan differencing sudah memenuhi kriteria stasioner [6].
13
2.2.5 Differencing
Data tidak stasioner terhadap rata-rata mengakibatkan masalah dalam estimasi parameter model yang akan dibangun; Penilaian subjektif jika sampel ACF dan PACF menurun secara periodik maka perlu dilakukan stasioneritas pada data. Ketidakstasioneran terhadap rata-rata dapat dilakukan differencing menjadi data deret waktu stasioner dengan mengambil perbedaan deret yang sesuai. Orde
differencing dilambangkan dengan d. Secara matematis differencing dapat
dituliskan sebagai berikut [6]:
(1 − I) : = • (2. 8)
(1 − I) adalah operator pembeda dengan backshift dinotasikan oleh B yang direduksi sebanyak d kali. Misalkan untuk d=1, maka dapat dituliskan sebagai berikut:
(1 − I): = • : − I: = •
I: = : : − : = •
differencing dilakukan sampai data stasioner terhadap rata-rata. Uji ADF sebagai
pembatas kapan differencing selesai dilakukan dengan memeriksa signifikansinya secara berkala.
2.2.6 Transformasi Variansi (Box-Cox)
Data deret waktu yang stasioner terhadap rata-rata, belum tentu stasioner terhadap variansi. Differencing tidak dapat mengatasi data deret waktu yang tidak stasioner terhadap variansi, untuk mengatasi masalah ini diperlukan transformasi variansi [6]. ‘(: ) –(: —− 1) B ; B ≠ 0 log : ; B = 0… (2. 9)
Transformasi Box-Cox adalah transformasi pangkat pada respon [19]. Nilai B adalah parameter transformasi Box-Cox [6]. Jika B ≠ 0 maka akan disubstitusikan B = › dengan ‘(: ) = lim—→Ÿ(‹
¡ )
— sehingga dapat diperoleh transformasi yang sesuai adalah sebagai berikut [6]:
14
Tabel 2. 1 Transformasi Box Cox
B Transformasi 1 : 0.5 ¢: -0.5 1 ¢: -1.0 1 :
Berdasarkan Tabel 2.1 transformasi yang sesuai harus didasarkan pada nilai B yang dihasilkan. Hasil transformasi Box-Cox yang sesuai mengakibatkan data stasioner terhadap variansi atau konstan terhadap variansi pada setiap observasi.
2.2.7 ARIMA
ARIMA adalah model non stasioner yang dikenai proses differencing. ARIMA dibangun dari AR(p), differencing (d), dan MA(q) yang dilambangkan dengan ARIMA (p,d,q) [6].
EJ(I)(1 − I) : = A + AK(I)Z (2. 10) dengan
EJ(I) = 1 − E I − E>I>− ⋯ − EJIJ AK(I) = 1 − A I − A>I>− ⋯ − AKIK
atau pada persamaan (2.10) persamaan ARIMA dapat dituliskan secara umum, yaitu: (1 − I) : = A + m E (1 − I) : J j + m AGZ G K Gj + Z (2. 11) Model subset ARIMA merupakan himpunan bagian dari model ARIMA tergeneralisasi sehingga tidak dapat dinyatakan dalam bentuk umum. Contoh dari subset ARIMA dimisalkan pada model ARIMA([1,5],0,[1,12]) yang dapat dinyatakan pada persamaan berikut [20]:
15
Model Subset ARIMA ([2,4],1,[1,10]) yang dikenai differencing juga dapat diberikan contoh sebagai berikut [21]:
(1 − E>I>− E¤I¤)(1 − I): = (1 − A I − A I )Z (2. 13) Dengan demikian pada contoh (2.10) dan (2.11) dapat dikatakan bahwa subset ARIMA adalah model yang memiliki beberapa parameter yang sama dengan nol.
2.2.8 Identifikasi Model
Identifikasi model mengacu pada model yang sudah bersifat stasioner terhadap rata-rata. Parameter model ARIMA yang tepat adalah ARIMA (p,d,q), penentuan p dan q berdasarkan plot ACF dan PACF yang cut off pada lag ke-k [6]. Identifikasi model akan menghasilkan beberapa model yang mungkin dari parameter p, d, dan q yang kemudian dari identifikasi model tersebut akan dipilih model ARIMA(p,d,q) terbaik.
Tabel 2. 2 ACF dan PACF pada model ARMA
Model ACF PACF
AR(p) Menurun secara
eksponensial atau membentuk gelombang sinus
Melebihi interval signifikansi setelah lag q
MA(q) Melebihi interval
signifikansi setelah lag q
Turun secara eksponensial berbentuk sinusoida
ARMA(p,q) Melebihi interval
signifikansi setelah lag (q-p)
Melebihi interval signifikansi setelah lag (p-q)
2.2.9 Estimasi parameter
Estimasi maksimum likelihood adalah metode yang membangun estimator dengan parameter θ yang tidak diketahui. Maksimum likelihood mengharuskan kita untuk memaksimalkan fungsi kemungkinan L(A) dan log L(A)[22]. Adanya estimasi parameter ini dapat mendukung seberapa baik parameter yang sudah dimodelkan untuk menghasilkan peramalan deret waktu dalam beberapa periode kedepan [6]. Untuk setiap observasi : , :>, … , : fungsi likelihood (L) mendefinisikan fungsi likelihood pada model ARIMA adalah ¥ (E, ?, A, =@>).
16 {(d>, de, … , d |d ) = (2¦=@>) (§¨©) € . exp {− 1 2=@>m[(d − ?) − E(d − ?) >} j> ln ¥ (E, ?, A, =@>) = −U2 ln 2¦=@>−q(E, ?, A)2¦= @>
Estimator AR maksimum likelihood dilambangakan dengan q(E, ?) dengan turunan parsial terhadap ? dan E maka akan diperoleh estimator AR yang dimaksimumkan dengan fungsi likelihood.
q(E, ?) = m[(: − ?) − j> E(: − ?)>] + (1 − E>)(: − ?) E =∑ (: − ?)∑ (: − ?j> >)− 1 j> (2. 14)
Estimator MA memiliki cara yang sama dengan estimator AR dengan memaksimumkan fungsi likelihood pada turunan parsial terhadap ? dan A
q(A, ?) = m : − A Z − ⋯ − j> AKZ K A =∑ (Z )∑ : Zj > j (2. 15)
Pada identifikasi model yang mungkin, dilakukan uji signifikansi parameter dengan menggunakan statistik uji t, dengan hipotesis sebagai berikut:
Tabel 2. 3 Identifikasi Parameter
Keterangan Parameter AR Parameter MA Hipotesis u : E = 0 (Parameter tidak
Signifikan) u : E ≠ 0 (Parameter Signifikan) u : A = 0 (Parameter tidak Signifikan) u : A ≠ 0 (Parameter Signifikan) Statistik Uji Y~ =qV(E)E Y~ = qV(A)A
dengan kriteria uji u ditolak jika |Y~ | > Y
->U − 1 atau p-value<α
2.2.10 Diagnostik Model
Diagnostik model adalah menilai bagaimana asumsi model terpenuhi diantaranya independensi data dan model berdistribusi normal.
17 1. Independensi residual
Setelah melakukan identifikasi model, estimasi parameter, maka kita harus menilai kecukupan model dengan memeriksa apakah asumsi model terpenuhi. Memeriksa apakah residu mendekati white noise, dengan menghitung ACF sampel; Uji independensi residual digunakan untuk mengetahui apakah residual antar lag bersifat independen, artinya tidak terdapat korelasi residual antar lag; Statistik uji ini adalah statistik Q adalah sebagai berikut [6].
® = U(U + 2) ∑ (U − W) F4¯
<j <> (2. 16)
Kriteria uji statistik u ditolak jika °> > °(-,¯ ±)> atau p-value<α, dengan m = p + q. Hipotesis pada model diagnostik adalah sebagai berikut [6]:
H : ρ = ρ> = ⋯ = ρ = 0 (Residual bersifat PℎyY\ ULyX\) H : ρ ≠ ρ> ≠ ⋯ ≠ ρ ≠ 0 (Residual tidak bersifat PℎyY\ ULyX\) 2. Normalitas residual
Uji normalitas adalah suatu prosedur untuk memeriksa apakah suatu populasi berdistribusi normal atau data berada pada jangkauan normal. Data berdistribusi normal apabila populasi memenuhi kriteria ukuran sampel sehingga dapat melakukan analisis statistika parametrik; Distribusi normal adalah data berdistribusi simetris dengan modus, rata-rata dan median. Karakteristik distribusi normal memiliki distribusi histogram seperti lonceng dan apabila pada plot regresi data berdistribusi disekitar garis normal [23]. Karakteristik distribusi normal dapat dilihat pada gambar di bawah ini:
Sumber: Diolah Penulis
Gambar 2. 1 Saham Penutupan Harian TBLA September – Desember 2020
P e rc e n t
18
2.3 Artificial Neural Network
Artificial neural network atau jaringan syaraf tiruan merupakan metode
peramalan yang memiliki tingkat eror data yang cukup rendah dan cukup baik dalam proses generalisasi karena didukung oleh data pembelajaran yang cukup dan proses pembelajaran yang menyesuaikan bobot[24].
2.3.1 Pembelajaran yang Diawasi
Pembelajaran adalah suatu proses dimana parameter-parameter bebas diadaptasikan melalui suatu proses perangsangan oleh lingkungan. Artificial
neural network adalah proses belajar yang membutuhkan target, dimana data akan
dilatih untuk untuk menyesuaikan targetnya. Parameter-parameter jaringan berubah-ubah berdasarkan vektor latih dan sinyal kesalahan (sinyal kesalahan adalah perbedaan antara Artificial neural network dan respon yang diinginkan). Pada proses pembelajaran mengalami kejadian sebagai berikut [25]:
1. Lingkungan merangsang Artificial neural network dengan parameter-parameter yang sudah di atur untuk kemudian Artificial neural network adaptasikan 2. Artificial neural network mengadaptasikan dan menyesuaikan rangsangan yang
diterima.
2.3.2 Konsep Dasar Artificial Neural Network
Artificial neural network adalah metode kecerdasan buatan yang
mengadopsi otak manusia; Otak memiliki 1011 neuron di dalamnya; Neuron bertanggung jawab atas setiap informasi yang masuk; Neuron yang satu dengan neuron yang lain saling berinteraksi dalam bentuk sinyal melalui dendrit; Setiap neuron memiliki akson yang berfungsi mengirimkan sinyal dari badan sel menuju jaringan lain [26], sedangkan sebagai bagian penerima sinyal disebut sinapsis, inti dari neuron disebut nukleus, dan cell body sebagai pelindung dari nukleus [27]. Sinapsis adalah unit fungsional antara 2 buah sel syaraf. Kekuatan sinapsis bisa menurunkan/meningkatkan tergantung seberapa besar tingkat propagasi (penyiaran) sinyal yang diterimanya. Informasi akan diterima oleh neuron jika memenuhi nilai ambang. Secara umum, jaringan saraf adalah suatu sistem yang saling bersinergi sehingga dapat seluruh aktivitas dapat dijalankan secara teratur. Gagasan dasar dari ANN mengadopsi sistem kerja otak manusia, baik untuk
pemrosesan berbagai sinyal elemen yang diterim dan juga pemrosesan paralel
a. Input, berfungsi seperti dendrit b. Output, berfungsi seperti akson
c. Fungsi aktivasi, berfungsi seperti sinaps
Besar informasi pada jaringan ditentukan oleh bobot
sinyal informasi untuk diteruskan pada jaringan, untuk menghindari nol maka ditambahkan bias agar komputasi pada jaringan
[28]. Masukan dan bobot dikum sinyal cukup kuat mele
2.3.3 Arsitektur Jaringan Lapisan Jamak
Arsitektur jaringan
pada lapisan [26]. Jaringan lapisa lebih dari satu lapisan
satu lapis untuk menangani jamak terdiri dari [29]
Gambar 2. 1. Jaringan Masukan
Jaringan masukan
data dan mendistribusikan ke semua neuron dalam Dalam jaringan masukan
meneruskan sinyal ke 2. Jaringan Tersembu
Lapisan tersembunyi
melalui perilaku input/output jaringan secara keseluruhan.
19
pemrosesan berbagai sinyal elemen yang diterima, toleransi terhadap kesalahan, dan juga pemrosesan paralel. Struktur ANN dapat direpresentasikan sebagai
, berfungsi seperti dendrit , berfungsi seperti akson
ivasi, berfungsi seperti sinapsis
Besar informasi pada jaringan ditentukan oleh bobot, dimana bobot berupa sinyal informasi untuk diteruskan pada jaringan, untuk menghindari
nol maka ditambahkan bias agar komputasi pada jaringan dapat terus berjalan Masukan dan bobot dikumpulkan pada fungsi akumulasi dan diaktivasi, j sinyal cukup kuat melewati ambang batas, maka akan diteruskan pada keluaran.
Jaringan Lapisan Jamak
Arsitektur jaringan adalah susunan neuron dalam lapisan dan pola koneksi Jaringan lapisan jamak adalah sebuah jaringan
lapisan yang memiliki performa lebih baik dibandingkan menangani data yang kompleks. Lapisan pada
[29]:
Gambar 2. 2 Jaringan Lapisan Jamak [27]
adalah jaringan yang menerima sinyal dalam bentuk
dan mendistribusikan ke semua neuron dalam jaringan
jaringan masukan tidak terjadi komputasi, yang dilakukan hanya meneruskan sinyal ke lapisan tersembunyi.
Jaringan Tersembunyi
Lapisan tersembunyi adalah neuron yang di dalam jaringan tidak dapat diamati melalui perilaku input/output jaringan secara keseluruhan.
a, toleransi terhadap kesalahan, dapat direpresentasikan sebagai[26]:
, dimana bobot berupa sinyal informasi untuk diteruskan pada jaringan, untuk menghindari bobot bernilai dapat terus berjalan dan diaktivasi, jika a akan diteruskan pada keluaran.
dan pola koneksi jaringan yang terdiri dibandingkan jaringan pada Jaringan lapisan
menerima sinyal dalam bentuk vektor jaringan tersembunyi. tidak terjadi komputasi, yang dilakukan hanya
20 3. Jaringan Keluaran
Jaringan yang menerima sinyal keluaran dari jaringan tersembunyi dan memunculkan sinyal atau nilai keluaran dari keseluruhan jaringan.
ANN komersial biasanya terdiri atas tiga atau empat jaringan, yang diantaranya adalah satu jaringan masukan, satu atau dua jaringan tersembunyi dan satu jaringan keluaran; Setiap penambahan jaringan akan meningkatkan beban komputasi secara eksponensial [29]. Banyak neuron merupakan faktor yang perlu dipertimbangkan pada setiap bagian jaringan pada arsitektur ANN [30]:
1. Banyak neuron pada jaringan masukan harus dapat mewakili variabel independen.
2. Banyak neuron pada jaringan tersembunyi adalah sebenarnya tidak ada perlakuan dan penentuan secara spesifik namun biasanya beberapa metode aturan praktis digunakan untuk menentukan adalah sebagai berikut:
- Jumlah neuron lapisan tersembunyi adalah 2/3 atau dalam jangkauan 70% hingga 90% dari ukuran jaringan masukan.
- Jumlah neuron jaringan tersembunyi harus lebih sedikit dari dua kali jumlah neuron di jaringan masukan.
- Ukuran neuron jaringan tersembunyi berada diantara ukuran jaringan masukan dan jaringan keluaran.
Komposisi jumlah neuron dalam jaringan tersembunyi yang tepat biasanya digunakan trial and error sampai menghasilkan prediksi terbaik.
3. Banyak neuron pada jaringan keluaran mempertimbangkan tujuan penggunaan
Artificial Neural Network.
2.3.4 Fungsi Aktivasi
Fungsi aktivasi merupakan fungsi yang menentukan keluaran suatu neuron [26]. Fungsi aktivasi pada masukan dan keluaran suatu neuron berfungsi untuk mengaktifkan suatu neuron pada jaringan syaraf dan membatasi keluaran dari neuron agar sesuai dengan batasan sinyal/nilai keluarannya [31]. Jenis fungsi aktivasi pada neuron, adalah sebagai berikut [26]:
Tabel 2. Deskripsi
{(›) = 1 + Metode backpropagation
network menggunakan fungsi sigmoid biner
yang memiliki jangkauan
{(›) =
Fungsi linier memiliki output yang sama dengan nilai inputnya
2.3.5 Eror dan Gradien Descent
Inisiasi bobot secara tepat tidak mudah. Menentukan besar bobo
mungkin salah satunya dengan menggunakan gradient descent dengan meningkatkan atau menurunkan bobot secara berulang
kekonvergenan [32].
kesalahan efisien dengan menggunakan gradien descent dapat dilihat pada gambar berikut:
Gambar 2. 5 Tingkat Pembelajaran Untuk Meminimalkan Kesalahan Efisien
21
Tabel 2. 4 Fungsi Aktivasi Sigmoid Biner dan Linier
Deskripsi Bentuk Aktivasi
1 + \ Ÿ
(2. 17)
backpropagation melatih neural
menggunakan fungsi sigmoid biner jangkauan 0 hingga 1.
Gambar 2. 3 Aktivasi Sigmoid Biner [32]
( ) = › (2. 18)
Fungsi linier memiliki output yang sama
inputnya
Gambar 2. 4 Aktivasi
Eror dan Gradien Descent
Inisiasi bobot secara tepat tidak mudah. Menentukan besar bobot yang tepat yang mungkin salah satunya dengan menggunakan gradient descent dengan meningkatkan atau menurunkan bobot secara berulang
. Memahami pembelajaran optimal untuk meminimalkan kesalahan efisien dengan menggunakan gradien descent dapat dilihat pada gambar
Tingkat Pembelajaran Untuk Meminimalkan Kesalahan Efisien
V =12 (Y − ¸)> dan Linier Bentuk Aktivasi Aktivasi Sigmoid [32] Aktivasi Linier
t yang tepat yang mungkin salah satunya dengan menggunakan gradient descent dengan menuju titik Memahami pembelajaran optimal untuk meminimalkan kesalahan efisien dengan menggunakan gradien descent dapat dilihat pada gambar
Tingkat Pembelajaran Untuk Meminimalkan Kesalahan Efisien [32] (2. 19)
22 ¸ = a (2. 20) a = Q>+ m d. PG< ± Gj (2. 21) d =1 + \1 ˆ (2. 22) [ = Q + m › . PG j (2. 23)
Pada persamaan (2.19), (2.20), (2.21), (2.22), (2.23), gradien eror bobot neuron tersembunyi berdasarkan aturan rantai diberikan sebagai berikut [32]:
NV NPG =
NV
N¸ .Na .N¸ NaNd .NdN[ .NPN[G
Pada persamaan (2.20), (2.21), (2.22), (2.23), (2.24), gradien eror bobot neuron keluaran berdasarkan aturan rantai diberikan sebagai berikut [32]:
NV
NPG< =NVN¸ .Na .N¸ NPNaG<
2.3.6 Fungsi Pembelajaran Adaptif dan Penambahan Momentum
Fungsi pembelajaran adaptif dan penambahan momentum adalah algoritma pelatihan yang lebih cepat dengan teknik perbaikan heuristik yang merupakan pengembangan dari suatu analisis kerja pada gradien descent; Fungsi ini akan memperbaiki bobot berdasarkan gradien descent dengan laju pembelajaran yang bersifat adaptif dengan penambahan momentum; Laju pembelajaran adaptif terhadap performa (eror) yang diberikan dari iterasi ke i sampai ke i-1 dengan melihat nilai ambang maksimum performa [33]. Laju pembelajaran adaptif, adalah salah satu solusi untuk menghindari laju pembelajaran yang terlalu tinggi dan laju pembelajaran yang terlalu rendah [32].
2.3.7 Algoritma Pembelajaran Backpropagation
Backpropagation merupakan salah satu algoritma pembelajaran dalam
jaringan saraf tiruan; Proses Pembelajaran backpropagation dilakukan dengan penyesuaian bobot-bobot jaringan syaraf tiruan dengan arah mundur berdasarkan nilai eror dalam proses pembelajaran [34]. Penggunaan backpropagation terdiri dari dua tahap yaitu tahap perambatan maju dan perambatan mundur (koreksi
bobot) [27]. Tahap ini diberikan sejumlah data Tahap ini dilakukan proses pembelajaran atau pelatihan.
Gambar 2. Tahap pembelajaran
momentum atau dalam Matlab berikut [29]:
1. Langkah 0 (Pembagian Data) Menentukan banyak data
2. Langkah 1 (Perencanaan) Menentukan arsitektur setiap lapisan masukan 3. Langkah 2 (Inisialisasi)
Inisialisasi bobot
umumnya diambil secara acak pada acak pada jangkauan
4. Langkah 3 (Aktivasi)
Menentukan fungsi aktivasi yang digunakan fungsi aktivasi sigmoid bin
untuk lapisan keluaran. 5. Langkah 4 (Feedforward a. Hitung keluaran yang di
dimana n menyatakan jumlah masukan p
[
23
ahap ini diberikan sejumlah data pembelajaran ini dilakukan proses pembelajaran atau pelatihan.
Gambar 2.6 Arsitektur Backpropagation [34] Tahap pembelajaran backpropagation dengan fungsi pembelajaran
atau dalam Matlab2013 pada package Traingdx
Langkah 0 (Pembagian Data)
data pembelajaran dan data validasi. (Perencanaan)
Menentukan arsitektur yang digunakan dan menentukan jumlah neuron pada lapisan masukan, lapisan tersembunyi, dan lapisan keluaran
(Inisialisasi)
bot dan bias yang digunakan pada setiap lapisan
nya diambil secara acak pada jangkauan [-0.5 , 0.5] dan bias diambil secara acak pada jangkauan [-1,1].
(Aktivasi)
Menentukan fungsi aktivasi yang digunakan. Pada algoritma beriku
fungsi aktivasi sigmoid biner untuk lapisan tersembunyi dan fungsi aktivasi linier untuk lapisan keluaran.
Feedforward)
a. Hitung keluaran yang didapatkan dari neuron dalam lapisan tersembunyi, dimana n menyatakan jumlah masukan pada neuron j dalam lapisan
[G(‡) = Q + m › (‡). PG(‡) j
dan pengujian.
pembelajaran adaptif dan
adalah sebagai
yang digunakan dan menentukan jumlah neuron pada lapisan keluaran.
yang digunakan pada setiap lapisan. Bobot awal dan bias diambil secara
. Pada algoritma berikut diberikan er untuk lapisan tersembunyi dan fungsi aktivasi linier
lapisan tersembunyi, lapisan tersembunyi.
24
Neuron pada lapisan tersembunyi kemudian diaktivasi dengan menggunakan sigmoid biner.
dG(‡) =1 + \1ˆ¹(º) (2. 25)
b. Hitung keluaran yang didapatkan dari neuron dalam lapisan keluaran, dimana m menyatakan banyak masukan pada neuron pada lapisan k dalam lapisan keluaran.
a<(‡) = Q + m dG(‡). PG<(‡) ±
Gj
(2. 26)
Neuron pada lapisan keluaran kemudian diaktivasi dengan menggunakan aktivasi linier.
¸(‡) = a<(‡) (2. 27)
6. Langkah 5 (Backpropagation)
Hitung selisih nilai target dengan nilai keluaran yang dihasilkan dengan memperhatikan penjelasan pada sub bab 2.3.5, sehingga didapatkan nilai eror dalam satu iterasi.
V(‡) =NV(‡)N¸(‡) = ¸ − Y (2. 28)
a. Gradien Eror dan Koreksi Bobot pada Lapisan Keluaran
Gradien eror yang dihasilkan dari lapisan keluaran dapat dituliskan dengan memperhatikan penjelasan pada sub bab 2.3.5, sebagai berikut:
N<(‡) =N¸(‡)Na(‡) . V(‡) = V(‡) (2. 29) Koreksi bobot dan perbaharui bobot pada neuron lapisan keluaran
∆PG<(‡) = ». dG(‡). N<( ) (2. 30)
PG<(‡ + 1) = PG<(‡) + ∆PG<(‡) (2. 31)
Koreksi bias dan perbaharui bias pada neuron lapisan keluaran
∆QG<(‡) = ». N<( ) (2. 32)
b. Gradien Eror dan Koreksi Bobot pada Lapisan Tersembunyi
Gradien eror yang dihasilkan dari lapisan tersembunyi dapat dituliskan dengan memperhatikan penjelasan pada sub bab 2.3.5, sebagai berikut:
25
NG(‡) = dG(‡). ¼1 − dG(‡)½ + m N<(‡). PG<(‡) <j
(2. 33)
Koreksi bobot dan perbaharui bobot pada neuron lapisan tersembunyi
∆PG(‡) = ». › (‡). NG(‡) (2. 34) PG(‡ + 1) = PG(‡) + ∆PG(‡) (2. 35) Koreksi bias dan perbaharui bias pada neuron lapisan tersembunyi
∆QG(‡) = ». NG( ) (2. 36)
6. Langkah 5 (Iterasi (p)>1)
Operasi perkalian gradien eror dengan momentum terjadi pada saat p>1. Terdapat perbedaan dengan algoritma saat p=1, yaitu pada koreksi bobot dan bias. Perubahan bobot pada persamaan (2.30) dan (2.34), berubah menjadi:
∆PG<(‡ + 1) = ]¾. ∆PG<(‡) + (1 − ]¾)». [G(‡). N<( ) (2. 37) ∆PG(‡ + 1) = ]¾. ∆PG(‡) + (1 − ]¾)». › (‡). NG(‡) (2. 38) Perubahan bias pada persamaan (2.32) dan (2.36), berubah menjadi:
∆QG<(‡ + 1) = ]¾. ∆QG<(‡) + (1 − ]¾)». N<( ) (2. 39) ∆QG(‡ + 1) = ]¾. ∆QG(‡) + (1 − ]¾)». NG( ) (2. 40) Kinerja jaringan pada bobot dan bias yang telah diperbaharui dibandingkan dengan kinerja jaringan pada bobot dan bias sebelumnya untuk pembelajaran adaptif, memiliki beberapa kondisi sebagai berikut:
» ∗= ¿ ÀÀ Á ÀÀ
». ; ÃyWZ‡\ {2‡\ { > max _‡\ {_yU¾ »; ÃyWZ‡\ {2‡\ { = max _‡\ {_yU¾ ». ; ÃyWZ‡\ {2‡\ { < max _‡\ {_yU¾
…
(2. 41)
Dengan cara ini, apabila laju pembelajaran terlalu tinggi dan mengarah ke ketidakstabilan, maka laju pembelajaran akan diturunkan. Sebaiknya jika laju pembelajaran terlalu kecil untuk menuju kekonvergenan, maka laju pembelajaran akan tetap terjaga pada kondisi stabil.
26
2.4 Hybrid ARIMA ANN
Hybrid ARIMA ANN adalah menggabungkan metode ARIMA yang
linier dan metode ANN yang bersifat non linier. Penggabungan metode hybrid ARIMA ANN terdiri dari tiga langkah yaitu masukan sampel yang akan diteliti pada metode ARIMA, membangun model ANN berdasarkan residual model ARIMA terbaik, dan menggabungkan peramalan ARIMA dan ANN untuk peramalan hybrid. Residual pada periode ke-t pada model linier diberikan sebagai berikut untuk digunakan sebagai data pembelajaran pada jaringan saraf tiruan [35]. Menurut Zhang residual ARIMA harus mengandung beberapa non linier untuk membentuk deret detreteding.
Z = {(Z + Z>+ ⋯ + Z ) + Å
Dengan f adalah fungsi non linier dan Å adalah eror. Komponen estimasi linier dari model ARIMA dimisalkan adalah ¥ dan komponen estimasi non linier dari ANN dimisalkan adalah Æ¥ . Kombinasi antara ¥ dan Æ¥ digabungkan untuk peramalan deret waktu dalam beberapa periode ke depan d , sehingga [35]
d = ¥ + Æ¥ (2. 42)
2.5 Forecasting
Menilai seberapa baik akurasi peramalan dari model ARIMA dan arsitektur hybrid ARIMA-ANN berdasarkan kriteria statistik seperti mean square
error (MSE) dan mean absolute percentage error (MAPE). Semakin kecil nilai
yang dihasilkan MSE dan MAPE maka akurasi peramalan yang dihasilkan semakin baik. Indeks kesalahan peramalan berdasarkan MAPE<10% menunjukkan akurasi peramalan tinggi, 10%<MAPE<20% menunjukkan peramalan yang baik, 20%<MAPE<50% menunjukkan peramalan yang dapat diterima, dan MAPE>50% menunjukkan prediksi yang tidak akurat; Indeks kesalahan MSE dan MAPE peramalan dapat dituliskan sebagai berikut [36]:
ÇqV = 1U m(d − d∗) > È j (2. 43) ÇÉ V =1U m Êd − dd Ê ›100%∗ È j (2. 44)