• Tidak ada hasil yang ditemukan

BAB II TINJAUAN PUSTAKA

N/A
N/A
Protected

Academic year: 2021

Membagikan "BAB II TINJAUAN PUSTAKA"

Copied!
20
0
0

Teks penuh

(1)

7

BAB II

TINJAUAN PUSTAKA

2.1 Saham

Saham adalah bukti kepemilikan perusahaan; Saham dinyatakan dalam bentuk lembar; Kepemilikan pemegang saham dinyatakan dalam bentuk persentase dari total saham yang diterbitkan suatu perusahaan [12]. Perusahaan menerbitkan saham untuk memperoleh tambahan modal dari setiap lembar saham yang terjual; Minat investor dalam menginvestasikan saham pada suatu perusahaan salah satunya bergantung pada tingkat kinerja perusahaan [13].

2.1.1 Harga Pasar Saham

Selembar saham adalah selembar kertas yang menerangkan bahwa pemilik saham (berapapun porsinya/jumlahnya) dari suatu perusahaan yang menerbitkan kertas (saham) tersebut; Harga saham dapat dibedakan menjadi harga nominal, harga perdana dan harga pasar; Harga yang dicatat dalam setiap periode dalam bursa efek merupakan harga pasar [13].

Harga pasar adalah harga jual dari investor yang satu dengan investor yang lain. Harga ini terjadi setelah saham tersebut dicatatkan di bursa efek. Transaksi disini tidak lagi melibatkan emiten dan penjamin emisi. Harga inilah yang disebut sebagai harga di pasar sekunder dan merupakan harga yang benar-benar mewakili harga perusahaan penerbitnya. Harga yang setiap hari diumumkan di surat kabar atau media lain adalah harga pasar yang tercatat pada waktu penutupan aktivitas di Bursa Efek Indonesia [13].

2.1.2 Faktor-faktor yang Mempengaruhi Harga Saham

Faktor-faktor yang mempengaruhi fluktuasi harga saham dapat berasal dari internal dan eksternal; Harga saham yang terjadi di pasar modal selalu berfluktuasi dari waktu ke waktu; Fluktuasi harga saham tersebut akan ditentukan oleh kekuatan penawaran dan permintaan ; Jika jumlah penawaran lebih besar dari jumlah permintaan lebih besar dari jumlah penawaran terhadap suatu efek maka harga saham cenderung akan naik [5]. Faktor-faktor yang mempengaruhi fluktuasi harga saham dapat berasal dari internal dan eksternal perusahaan [14]:

(2)

8 1. Faktor Internal

a. Pengumuman tentang pemasaran, produksi, penjualan seperti pengiklanan, rincian kontrak, perubahan harga, penarikan produk baru, laporan produksi, laporan keamanan produk, dan laporan penjualan.

b. Pengumuman pendanaan, seperti pengumuman yang berhubungan dengan ekuitas dan hutang.

c. Pengumuman laporan keuangan perusahaan, seperti peramalan laba sebelum akhir tahun fiskal dan setelah akhir tahun fiskal, EPS, DPS, price

earning ratio, net profit margin, ROA, dan lain lain.

2. Faktor Eksternal

a. Pengumuman dari pemerintah seperti perubahan suku bunga tabungan dan deposito, kurs valuta asing, inflasi, serta berbagai regulasi dan deregulasi ekonomi yang dikeluarkan oleh pemerintah.

b. Gejolak politik dalam negara dan fluktuasi nilai tukar juga merupakan faktor yang berpengaruh signifikan pada terjadinya pergerakan harga saham di bursa efek suatu negara.

c. Berbagai isu baik dari dalam dan luar negeri.

2.1.3 Analisis Saham

Secara umum terdapat, dua jenis analisis saham yang banyak digunakan oleh investor di seluruh dunia, yaitu analisis teknikal dan analisis fundamental; Analisis teknikal adalah analisis yang didasarkan harga saham historis yang telah terjadi dari waktu ke waktu, dan kemudian menggunakan data tersebut untuk meramalkan pergerakan harga di masa yang akan datang; Analisis teknikal disajikan dalam grafik-grafik harga saham untuk memberikan indikator untuk membuat keputusan investasi; Indikator tersebut biasanya menunjukkan kapan waktu menjual dan membeli [12]. Rate of return adalah tingkat hasil investasi pada periode tertentu yang memiliki beberapa kemungkinan yaitu bernilai + (keuntungan), - (kerugian), 0 (impas). Return berkaitan erat dengan risiko yang diterima, return dan risiko berbanding lurus semakin besar risiko yang ditanggung semakin besar return yang harus dikompensasikan [15]. Berikut rate of return untuk harga saham harian [16]:

(3)

9

= U (2. 1)

2.2 Data Deret Waktu

Data Deret waktu adalah urutan observasi suatu variabel dalam suatu interval waktu secara berurutan. Jika digambarkan pada sumbu x dan y, maka x adalah pengamatan suatu waktu dan y adalah kejadian dari waktu yang diamati secara berurutan. Data deret waktu memiliki sifat interinsik bahwa pengamatannya saling berkorelasi yang artinya bahwa setiap urutan data memiliki keterkaitan [6]. Pola data deret waktu terdiri menjadi dua garis besar yaitu pola data stasioner dan pola data non stasioner. Pembagian pola data didapatkan dari parameter mean, variansi dan autokorelasi yang menunjukan data konstan atau tidak konstan [6].

1. Data Stasioner

Data stasioner didefinisikan bahwa runtun waktu : yang memenuhi tiga kriteria berikut [6]:

a. V(: ) = ? WLUXYZU [UY[W X\][Z Y

b. _Z (: ) = => WLUXYZU [UY[W X\][Z Y c. `La(: , :;<) = V[(: − ?)(:;<− ?)] = C<

Konstan untuk setiap t dengan t adalah bilangan asli, k adalah bilangan asli dan C< adalah autokovariansi pada lag k. Data stasioner terhadap rata-rata artinya data memiliki jangkauan di sekitar rata yang konstan. Stasioneritas terhadap rata-rata dapat diketahui dengan melihat grafik garis dan plot ACF dan PACF. Data dapat dikatakan stasioner terhadap rata-rata, apabila grafik garis menunjukan data tidak memiliki pola trend, musiman, siklis dan tidak bergantung terhadap variansi yang menunjukan adanya fluktuasi pada data, artinya data konstan terhadap varian. Plot ACF dan PACF mengindikasikan data tidak stasioner terhadap rata-rata apabila plot ACF dan PACF memiliki pola seperti gelombang sinus atau eksponensial pada setiap lag.

2. Data Non Stasioner

Deret waktu non stasioner adalah data deret waktu yang memiliki rata-rata, variansi, dan autokovarian yang tidak konstan pada setiap observasi. Bentuk pola data dapat mengidentifikasi kestasioneran data dari grafik garis, plot ACF dan

(4)

10

PACF. Pola grafik garis yang memiliki trend, musiman, siklis dan fluktuasi pada setiap observasi dan plot ACF dan PACF yang membentuk pola gelombang sinus atau eksponensial mengindikasikan data tidak stasioner.

a. Pola Data Trend

Pola trend biasanya terjadi pada data makroekonomi [17]. Trend adalah komponen deret waktu yang menunjukan fenomena penurunan atau peningkatan pada pola data deret waktu dalam jangka waktu yang relatif panjang.

b. Pola Musiman

Data musiman biasanya terjadi pada periode berulang misalnya pada periode setiap minggu, bulan atau bahkan tahun karena faktor cuaca, hari raya, dan lain-lain. Ciri data musiman adalah adanya fluktuasi data berulang atau fluktuasi memiliki jangkauan periode yang sama [17].

c. Pola Siklis

Pola data siklus adalah data berfluktuasi seperti gelombang di sekitar

trend, atau dapat dikatakan pola musiman dalam jangka lebih panjang yang

berulang biasanya setiap lima tahun sampai sepuluh tahun [17].

2.2.1 Fungsi Autokorelasi

Autokorelasi adalah fungsi untuk memeriksa hubungan linier setiap urutan data d , d>, de, … , d<. Data deret waktu untuk peramalan diharapakan memiliki korelasi pada setiap observasi. Didefinisikan fungsi autokorelasi, F< adalah sebagai berikut [9]: F< =CC =< ∑ h: − :i(:;<− :) < j ∑ (: − :5)j > (2. 2)

dengan ∑ (: − :5)(:j< ;<− :5) adalah fungsi autokovariansi pada lag k dan (: − :5)> variansi. Statistik uji untuk fungsi autokorelasi adalah sebagai berikut [9]: aZ (F<) =1U k1 + 2 m FG> K Gj n , [UY[W W > p qVrs = t aZ (F<) U

(5)

11

Pengujian hipotesis fungsi autokorelasi dengan memeriksa setiap lag fungsi autokorelasi sebagai berikut:

u : F< = 0 (x[UMXy Z[YLWL \ ZXy YyzZW XyMUy{yWZU) u : F< ≠ 0 (x[UMXy Z[YLWL \ ZXy XyMUy{yWZU) Dengan kriteria keputusan u ditolak jika |Y~ | > Y•

€ . Selain menggunakan

statistik uji, untuk mengetahui apakah fungsi autokorelasi signifikan atau tidak dapat dilihat pada plot ACF. Jika pada plot ACF tidak ada lag yang melebihi garis batas signifikansi (garis putus-putus), maka koefisien autokorelasi signifikan atau tidak terjadi korelasi antar lag [18].

2.2.2 Fungsi Autokorelasi Parsial

Autokorelasi parsial digunakan dalam mengukur : dan :;< adanya pengaruh antar lag [18]. Autokorelasi parsial pada lag k dinotasikan dengan E<< dan didefinisikan sebagai berikut [9]:

E<< = `L (: , : <|: , : >, … , : <; )

Autokorelasi parsial merupakan korelasi antara Y , dan Y dengan menghilangkan hubungan : , : >, … , : <; . E<< fungsi autokorelasi parsial pada persamaan k, yaitu:

‚ F = (E< + F E<>+ F>E<e+ ⋯ + F< E<<) F> = (F E< + E<>+ F E<e+ ⋯ + F< >E<<) ⋮ F< = (F< E< + F< >E<>+ F< eE<e+ ⋯ + E<<) … (2. 3)

pada persamaan (2.3) dapat diselesaikan secara rekursif sebagai berikut [9]

E<< = F< ∑ E< ,GF< G <

Gj

1 − ∑<Gj E< ,GFG

(2. 4)

Statistik uji untuk fungsi autokorelasi adalah sebagai berikut: Y =qV(EE<<

<<) qV(E<<) = 1 √U

Hipotesis untuk menguji autokorelasi parsial sebagai berikut : u : E<< = 0 (x[UMXy Z[YLWL \ ZXy ‡Z XyZ YyzZW XyMUy{yWZU) u : E<< ≠ 0 (x[UMXy Z[YLWL \ ZXy ‡Z XyZ XyMUy{yWZU)

(6)

12

Kriteria keputusan tolak u jika |Y~ ˆ ‰| > Y•

€ Š dan dengan derajat bebas

z{ = U − 1 [6].

2.2.3 White Noise

White noise merupakan urutan variabel acak yang tidak saling berkorelasi,

dengan rata-rata konstan V(: ) = ? atau biasa diasumsikan 0, variansi konstan _Z (: ) = => dan C<= `La(: , :;<) = 0 untuk semua W ≠ 0, t dan k adalah bilangan asli dengan demikian white noise adalah stasioner; Asumsi white noise adalah variabel acak yang independen dan terdistribusi normal [6].

C< = Œ=@

> ; W = 0 0 ; W ∈ ℕ…

(2. 5)

Fungsi autokorelasi dan fungsi autokorelasi parsial pada fenomena white noise identik sama dengan 0 untuk W ≠ 0 [6].

F< = Œ1 ; W = 0 0 ; W ∈ ℕ … (2. 6) E<= Œ1 ; W = 0 0, ; W ∈ ℕ… (2. 7)

2.2.4 Uji Augmented Dickey-Fuller

Uji ADF dilakukan untuk mengetahui apakah suatu data stasioner atau tidak stasioner. Uji ADF dapat dikatakan sebagai polinomial AR (1) [6] dengan pengujian menggunakan bentuk keluaran regresi sebagai berikut:

: = E: + Z Dengan estimator E adalah sebagai berikut [6]:

E = ∑ : :∑ :> Hipotesis untuk uji ADF adalah sebagai berikut:

u : E ≤ 1(‘\ zZ‡ZY ZWZ [UyY ZYZ[ zZYZ YyzZW XYZXyLU\ )

u : E < 1(‘yzZW Y\ zZ‡ZY ZWZ [UyY ZYZ[ zZYZ z\ \Y PZWY[ XYZXyLU\ ) Mengikuti uji t statistik kriteria penolakan ketika Y~ ˆ ‰> Y@“ ” atau p-value. Uji ADF dapat dilakukan lebih dari satu kali untuk memastikan apakah data yang sudah di transformasi dan differencing sudah memenuhi kriteria stasioner [6].

(7)

13

2.2.5 Differencing

Data tidak stasioner terhadap rata-rata mengakibatkan masalah dalam estimasi parameter model yang akan dibangun; Penilaian subjektif jika sampel ACF dan PACF menurun secara periodik maka perlu dilakukan stasioneritas pada data. Ketidakstasioneran terhadap rata-rata dapat dilakukan differencing menjadi data deret waktu stasioner dengan mengambil perbedaan deret yang sesuai. Orde

differencing dilambangkan dengan d. Secara matematis differencing dapat

dituliskan sebagai berikut [6]:

(1 − I) : = • (2. 8)

(1 − I) adalah operator pembeda dengan backshift dinotasikan oleh B yang direduksi sebanyak d kali. Misalkan untuk d=1, maka dapat dituliskan sebagai berikut:

(1 − I): = • : − I: = •

I: = : : − : = •

differencing dilakukan sampai data stasioner terhadap rata-rata. Uji ADF sebagai

pembatas kapan differencing selesai dilakukan dengan memeriksa signifikansinya secara berkala.

2.2.6 Transformasi Variansi (Box-Cox)

Data deret waktu yang stasioner terhadap rata-rata, belum tentu stasioner terhadap variansi. Differencing tidak dapat mengatasi data deret waktu yang tidak stasioner terhadap variansi, untuk mengatasi masalah ini diperlukan transformasi variansi [6]. ‘(: ) –(: —− 1) B ; B ≠ 0 log : ; B = 0… (2. 9)

Transformasi Box-Cox adalah transformasi pangkat pada respon [19]. Nilai B adalah parameter transformasi Box-Cox [6]. Jika B ≠ 0 maka akan disubstitusikan B = › dengan ‘(: ) = lim—→Ÿ(‹

¡ )

— sehingga dapat diperoleh transformasi yang sesuai adalah sebagai berikut [6]:

(8)

14

Tabel 2. 1 Transformasi Box Cox

B Transformasi 1 : 0.5 ¢: -0.5 1 ¢: -1.0 1 :

Berdasarkan Tabel 2.1 transformasi yang sesuai harus didasarkan pada nilai B yang dihasilkan. Hasil transformasi Box-Cox yang sesuai mengakibatkan data stasioner terhadap variansi atau konstan terhadap variansi pada setiap observasi.

2.2.7 ARIMA

ARIMA adalah model non stasioner yang dikenai proses differencing. ARIMA dibangun dari AR(p), differencing (d), dan MA(q) yang dilambangkan dengan ARIMA (p,d,q) [6].

EJ(I)(1 − I) : = A + AK(I)Z (2. 10) dengan

EJ(I) = 1 − E I − E>I>− ⋯ − EJIJ AK(I) = 1 − A I − A>I>− ⋯ − AKIK

atau pada persamaan (2.10) persamaan ARIMA dapat dituliskan secara umum, yaitu: (1 − I) : = A + m E (1 − I) : J j + m AGZ G K Gj + Z (2. 11) Model subset ARIMA merupakan himpunan bagian dari model ARIMA tergeneralisasi sehingga tidak dapat dinyatakan dalam bentuk umum. Contoh dari subset ARIMA dimisalkan pada model ARIMA([1,5],0,[1,12]) yang dapat dinyatakan pada persamaan berikut [20]:

(9)

15

Model Subset ARIMA ([2,4],1,[1,10]) yang dikenai differencing juga dapat diberikan contoh sebagai berikut [21]:

(1 − E>I>− E¤I¤)(1 − I): = (1 − A I − A I )Z (2. 13) Dengan demikian pada contoh (2.10) dan (2.11) dapat dikatakan bahwa subset ARIMA adalah model yang memiliki beberapa parameter yang sama dengan nol.

2.2.8 Identifikasi Model

Identifikasi model mengacu pada model yang sudah bersifat stasioner terhadap rata-rata. Parameter model ARIMA yang tepat adalah ARIMA (p,d,q), penentuan p dan q berdasarkan plot ACF dan PACF yang cut off pada lag ke-k [6]. Identifikasi model akan menghasilkan beberapa model yang mungkin dari parameter p, d, dan q yang kemudian dari identifikasi model tersebut akan dipilih model ARIMA(p,d,q) terbaik.

Tabel 2. 2 ACF dan PACF pada model ARMA

Model ACF PACF

AR(p) Menurun secara

eksponensial atau membentuk gelombang sinus

Melebihi interval signifikansi setelah lag q

MA(q) Melebihi interval

signifikansi setelah lag q

Turun secara eksponensial berbentuk sinusoida

ARMA(p,q) Melebihi interval

signifikansi setelah lag (q-p)

Melebihi interval signifikansi setelah lag (p-q)

2.2.9 Estimasi parameter

Estimasi maksimum likelihood adalah metode yang membangun estimator dengan parameter θ yang tidak diketahui. Maksimum likelihood mengharuskan kita untuk memaksimalkan fungsi kemungkinan L(A) dan log L(A)[22]. Adanya estimasi parameter ini dapat mendukung seberapa baik parameter yang sudah dimodelkan untuk menghasilkan peramalan deret waktu dalam beberapa periode kedepan [6]. Untuk setiap observasi : , :>, … , : fungsi likelihood (L) mendefinisikan fungsi likelihood pada model ARIMA adalah ¥ (E, ?, A, =@>).

(10)

16 {(d>, de, … , d |d ) = (2¦=@>) (§¨©) € . exp {− 1 2=@>m[(d − ?) − E(d − ?) >} j> ln ¥ (E, ?, A, =@>) = −U2 ln 2¦=@>−q(E, ?, A)2¦= @>

Estimator AR maksimum likelihood dilambangakan dengan q(E, ?) dengan turunan parsial terhadap ? dan E maka akan diperoleh estimator AR yang dimaksimumkan dengan fungsi likelihood.

q(E, ?) = m[(: − ?) − j> E(: − ?)>] + (1 − E>)(: − ?) E =∑ (: − ?)∑ (: − ?j> >)− 1 j> (2. 14)

Estimator MA memiliki cara yang sama dengan estimator AR dengan memaksimumkan fungsi likelihood pada turunan parsial terhadap ? dan A

q(A, ?) = m : − A Z − ⋯ − j> AKZ K A =∑ (Z )∑ : Zj > j (2. 15)

Pada identifikasi model yang mungkin, dilakukan uji signifikansi parameter dengan menggunakan statistik uji t, dengan hipotesis sebagai berikut:

Tabel 2. 3 Identifikasi Parameter

Keterangan Parameter AR Parameter MA Hipotesis u : E = 0 (Parameter tidak

Signifikan) u : E ≠ 0 (Parameter Signifikan) u : A = 0 (Parameter tidak Signifikan) u : A ≠ 0 (Parameter Signifikan) Statistik Uji Y~ =qV(E)E Y~ = qV(A)A

dengan kriteria uji u ditolak jika |Y~ | > Y

->U − 1 atau p-value<α

2.2.10 Diagnostik Model

Diagnostik model adalah menilai bagaimana asumsi model terpenuhi diantaranya independensi data dan model berdistribusi normal.

(11)

17 1. Independensi residual

Setelah melakukan identifikasi model, estimasi parameter, maka kita harus menilai kecukupan model dengan memeriksa apakah asumsi model terpenuhi. Memeriksa apakah residu mendekati white noise, dengan menghitung ACF sampel; Uji independensi residual digunakan untuk mengetahui apakah residual antar lag bersifat independen, artinya tidak terdapat korelasi residual antar lag; Statistik uji ini adalah statistik Q adalah sebagai berikut [6].

® = U(U + 2) ∑ (U − W) F4¯

<j <> (2. 16)

Kriteria uji statistik u ditolak jika °> > °(-,¯ ±)> atau p-value<α, dengan m = p + q. Hipotesis pada model diagnostik adalah sebagai berikut [6]:

H : ρ = ρ> = ⋯ = ρ = 0 (Residual bersifat PℎyY\ ULyX\) H : ρ ≠ ρ> ≠ ⋯ ≠ ρ ≠ 0 (Residual tidak bersifat PℎyY\ ULyX\) 2. Normalitas residual

Uji normalitas adalah suatu prosedur untuk memeriksa apakah suatu populasi berdistribusi normal atau data berada pada jangkauan normal. Data berdistribusi normal apabila populasi memenuhi kriteria ukuran sampel sehingga dapat melakukan analisis statistika parametrik; Distribusi normal adalah data berdistribusi simetris dengan modus, rata-rata dan median. Karakteristik distribusi normal memiliki distribusi histogram seperti lonceng dan apabila pada plot regresi data berdistribusi disekitar garis normal [23]. Karakteristik distribusi normal dapat dilihat pada gambar di bawah ini:

Sumber: Diolah Penulis

Gambar 2. 1 Saham Penutupan Harian TBLA September – Desember 2020

P e rc e n t

(12)

18

2.3 Artificial Neural Network

Artificial neural network atau jaringan syaraf tiruan merupakan metode

peramalan yang memiliki tingkat eror data yang cukup rendah dan cukup baik dalam proses generalisasi karena didukung oleh data pembelajaran yang cukup dan proses pembelajaran yang menyesuaikan bobot[24].

2.3.1 Pembelajaran yang Diawasi

Pembelajaran adalah suatu proses dimana parameter-parameter bebas diadaptasikan melalui suatu proses perangsangan oleh lingkungan. Artificial

neural network adalah proses belajar yang membutuhkan target, dimana data akan

dilatih untuk untuk menyesuaikan targetnya. Parameter-parameter jaringan berubah-ubah berdasarkan vektor latih dan sinyal kesalahan (sinyal kesalahan adalah perbedaan antara Artificial neural network dan respon yang diinginkan). Pada proses pembelajaran mengalami kejadian sebagai berikut [25]:

1. Lingkungan merangsang Artificial neural network dengan parameter-parameter yang sudah di atur untuk kemudian Artificial neural network adaptasikan 2. Artificial neural network mengadaptasikan dan menyesuaikan rangsangan yang

diterima.

2.3.2 Konsep Dasar Artificial Neural Network

Artificial neural network adalah metode kecerdasan buatan yang

mengadopsi otak manusia; Otak memiliki 1011 neuron di dalamnya; Neuron bertanggung jawab atas setiap informasi yang masuk; Neuron yang satu dengan neuron yang lain saling berinteraksi dalam bentuk sinyal melalui dendrit; Setiap neuron memiliki akson yang berfungsi mengirimkan sinyal dari badan sel menuju jaringan lain [26], sedangkan sebagai bagian penerima sinyal disebut sinapsis, inti dari neuron disebut nukleus, dan cell body sebagai pelindung dari nukleus [27]. Sinapsis adalah unit fungsional antara 2 buah sel syaraf. Kekuatan sinapsis bisa menurunkan/meningkatkan tergantung seberapa besar tingkat propagasi (penyiaran) sinyal yang diterimanya. Informasi akan diterima oleh neuron jika memenuhi nilai ambang. Secara umum, jaringan saraf adalah suatu sistem yang saling bersinergi sehingga dapat seluruh aktivitas dapat dijalankan secara teratur. Gagasan dasar dari ANN mengadopsi sistem kerja otak manusia, baik untuk

(13)

pemrosesan berbagai sinyal elemen yang diterim dan juga pemrosesan paralel

a. Input, berfungsi seperti dendrit b. Output, berfungsi seperti akson

c. Fungsi aktivasi, berfungsi seperti sinaps

Besar informasi pada jaringan ditentukan oleh bobot

sinyal informasi untuk diteruskan pada jaringan, untuk menghindari nol maka ditambahkan bias agar komputasi pada jaringan

[28]. Masukan dan bobot dikum sinyal cukup kuat mele

2.3.3 Arsitektur Jaringan Lapisan Jamak

Arsitektur jaringan

pada lapisan [26]. Jaringan lapisa lebih dari satu lapisan

satu lapis untuk menangani jamak terdiri dari [29]

Gambar 2. 1. Jaringan Masukan

Jaringan masukan

data dan mendistribusikan ke semua neuron dalam Dalam jaringan masukan

meneruskan sinyal ke 2. Jaringan Tersembu

Lapisan tersembunyi

melalui perilaku input/output jaringan secara keseluruhan.

19

pemrosesan berbagai sinyal elemen yang diterima, toleransi terhadap kesalahan, dan juga pemrosesan paralel. Struktur ANN dapat direpresentasikan sebagai

, berfungsi seperti dendrit , berfungsi seperti akson

ivasi, berfungsi seperti sinapsis

Besar informasi pada jaringan ditentukan oleh bobot, dimana bobot berupa sinyal informasi untuk diteruskan pada jaringan, untuk menghindari

nol maka ditambahkan bias agar komputasi pada jaringan dapat terus berjalan Masukan dan bobot dikumpulkan pada fungsi akumulasi dan diaktivasi, j sinyal cukup kuat melewati ambang batas, maka akan diteruskan pada keluaran.

Jaringan Lapisan Jamak

Arsitektur jaringan adalah susunan neuron dalam lapisan dan pola koneksi Jaringan lapisan jamak adalah sebuah jaringan

lapisan yang memiliki performa lebih baik dibandingkan menangani data yang kompleks. Lapisan pada

[29]:

Gambar 2. 2 Jaringan Lapisan Jamak [27]

adalah jaringan yang menerima sinyal dalam bentuk

dan mendistribusikan ke semua neuron dalam jaringan

jaringan masukan tidak terjadi komputasi, yang dilakukan hanya meneruskan sinyal ke lapisan tersembunyi.

Jaringan Tersembunyi

Lapisan tersembunyi adalah neuron yang di dalam jaringan tidak dapat diamati melalui perilaku input/output jaringan secara keseluruhan.

a, toleransi terhadap kesalahan, dapat direpresentasikan sebagai[26]:

, dimana bobot berupa sinyal informasi untuk diteruskan pada jaringan, untuk menghindari bobot bernilai dapat terus berjalan dan diaktivasi, jika a akan diteruskan pada keluaran.

dan pola koneksi jaringan yang terdiri dibandingkan jaringan pada Jaringan lapisan

menerima sinyal dalam bentuk vektor jaringan tersembunyi. tidak terjadi komputasi, yang dilakukan hanya

(14)

20 3. Jaringan Keluaran

Jaringan yang menerima sinyal keluaran dari jaringan tersembunyi dan memunculkan sinyal atau nilai keluaran dari keseluruhan jaringan.

ANN komersial biasanya terdiri atas tiga atau empat jaringan, yang diantaranya adalah satu jaringan masukan, satu atau dua jaringan tersembunyi dan satu jaringan keluaran; Setiap penambahan jaringan akan meningkatkan beban komputasi secara eksponensial [29]. Banyak neuron merupakan faktor yang perlu dipertimbangkan pada setiap bagian jaringan pada arsitektur ANN [30]:

1. Banyak neuron pada jaringan masukan harus dapat mewakili variabel independen.

2. Banyak neuron pada jaringan tersembunyi adalah sebenarnya tidak ada perlakuan dan penentuan secara spesifik namun biasanya beberapa metode aturan praktis digunakan untuk menentukan adalah sebagai berikut:

- Jumlah neuron lapisan tersembunyi adalah 2/3 atau dalam jangkauan 70% hingga 90% dari ukuran jaringan masukan.

- Jumlah neuron jaringan tersembunyi harus lebih sedikit dari dua kali jumlah neuron di jaringan masukan.

- Ukuran neuron jaringan tersembunyi berada diantara ukuran jaringan masukan dan jaringan keluaran.

Komposisi jumlah neuron dalam jaringan tersembunyi yang tepat biasanya digunakan trial and error sampai menghasilkan prediksi terbaik.

3. Banyak neuron pada jaringan keluaran mempertimbangkan tujuan penggunaan

Artificial Neural Network.

2.3.4 Fungsi Aktivasi

Fungsi aktivasi merupakan fungsi yang menentukan keluaran suatu neuron [26]. Fungsi aktivasi pada masukan dan keluaran suatu neuron berfungsi untuk mengaktifkan suatu neuron pada jaringan syaraf dan membatasi keluaran dari neuron agar sesuai dengan batasan sinyal/nilai keluarannya [31]. Jenis fungsi aktivasi pada neuron, adalah sebagai berikut [26]:

(15)

Tabel 2. Deskripsi

{(›) = 1 + Metode backpropagation

network menggunakan fungsi sigmoid biner

yang memiliki jangkauan

{(›) =

Fungsi linier memiliki output yang sama dengan nilai inputnya

2.3.5 Eror dan Gradien Descent

Inisiasi bobot secara tepat tidak mudah. Menentukan besar bobo

mungkin salah satunya dengan menggunakan gradient descent dengan meningkatkan atau menurunkan bobot secara berulang

kekonvergenan [32].

kesalahan efisien dengan menggunakan gradien descent dapat dilihat pada gambar berikut:

Gambar 2. 5 Tingkat Pembelajaran Untuk Meminimalkan Kesalahan Efisien

21

Tabel 2. 4 Fungsi Aktivasi Sigmoid Biner dan Linier

Deskripsi Bentuk Aktivasi

1 + \ Ÿ

(2. 17)

backpropagation melatih neural

menggunakan fungsi sigmoid biner jangkauan 0 hingga 1.

Gambar 2. 3 Aktivasi Sigmoid Biner [32]

( ) = › (2. 18)

Fungsi linier memiliki output yang sama

inputnya

Gambar 2. 4 Aktivasi

Eror dan Gradien Descent

Inisiasi bobot secara tepat tidak mudah. Menentukan besar bobot yang tepat yang mungkin salah satunya dengan menggunakan gradient descent dengan meningkatkan atau menurunkan bobot secara berulang

. Memahami pembelajaran optimal untuk meminimalkan kesalahan efisien dengan menggunakan gradien descent dapat dilihat pada gambar

Tingkat Pembelajaran Untuk Meminimalkan Kesalahan Efisien

V =12 (Y − ¸)> dan Linier Bentuk Aktivasi Aktivasi Sigmoid [32] Aktivasi Linier

t yang tepat yang mungkin salah satunya dengan menggunakan gradient descent dengan menuju titik Memahami pembelajaran optimal untuk meminimalkan kesalahan efisien dengan menggunakan gradien descent dapat dilihat pada gambar

Tingkat Pembelajaran Untuk Meminimalkan Kesalahan Efisien [32] (2. 19)

(16)

22 ¸ = a (2. 20) a = Q>+ m d. PG< ± Gj (2. 21) d =1 + \1 ˆ (2. 22) [ = Q + m › . PG j (2. 23)

Pada persamaan (2.19), (2.20), (2.21), (2.22), (2.23), gradien eror bobot neuron tersembunyi berdasarkan aturan rantai diberikan sebagai berikut [32]:

NV NPG =

NV

N¸ .Na .N¸ NaNd .NdN[ .NPN[G

Pada persamaan (2.20), (2.21), (2.22), (2.23), (2.24), gradien eror bobot neuron keluaran berdasarkan aturan rantai diberikan sebagai berikut [32]:

NV

NPG< =NVN¸ .Na .N¸ NPNaG<

2.3.6 Fungsi Pembelajaran Adaptif dan Penambahan Momentum

Fungsi pembelajaran adaptif dan penambahan momentum adalah algoritma pelatihan yang lebih cepat dengan teknik perbaikan heuristik yang merupakan pengembangan dari suatu analisis kerja pada gradien descent; Fungsi ini akan memperbaiki bobot berdasarkan gradien descent dengan laju pembelajaran yang bersifat adaptif dengan penambahan momentum; Laju pembelajaran adaptif terhadap performa (eror) yang diberikan dari iterasi ke i sampai ke i-1 dengan melihat nilai ambang maksimum performa [33]. Laju pembelajaran adaptif, adalah salah satu solusi untuk menghindari laju pembelajaran yang terlalu tinggi dan laju pembelajaran yang terlalu rendah [32].

2.3.7 Algoritma Pembelajaran Backpropagation

Backpropagation merupakan salah satu algoritma pembelajaran dalam

jaringan saraf tiruan; Proses Pembelajaran backpropagation dilakukan dengan penyesuaian bobot-bobot jaringan syaraf tiruan dengan arah mundur berdasarkan nilai eror dalam proses pembelajaran [34]. Penggunaan backpropagation terdiri dari dua tahap yaitu tahap perambatan maju dan perambatan mundur (koreksi

(17)

bobot) [27]. Tahap ini diberikan sejumlah data Tahap ini dilakukan proses pembelajaran atau pelatihan.

Gambar 2. Tahap pembelajaran

momentum atau dalam Matlab berikut [29]:

1. Langkah 0 (Pembagian Data) Menentukan banyak data

2. Langkah 1 (Perencanaan) Menentukan arsitektur setiap lapisan masukan 3. Langkah 2 (Inisialisasi)

Inisialisasi bobot

umumnya diambil secara acak pada acak pada jangkauan

4. Langkah 3 (Aktivasi)

Menentukan fungsi aktivasi yang digunakan fungsi aktivasi sigmoid bin

untuk lapisan keluaran. 5. Langkah 4 (Feedforward a. Hitung keluaran yang di

dimana n menyatakan jumlah masukan p

[

23

ahap ini diberikan sejumlah data pembelajaran ini dilakukan proses pembelajaran atau pelatihan.

Gambar 2.6 Arsitektur Backpropagation [34] Tahap pembelajaran backpropagation dengan fungsi pembelajaran

atau dalam Matlab2013 pada package Traingdx

Langkah 0 (Pembagian Data)

data pembelajaran dan data validasi. (Perencanaan)

Menentukan arsitektur yang digunakan dan menentukan jumlah neuron pada lapisan masukan, lapisan tersembunyi, dan lapisan keluaran

(Inisialisasi)

bot dan bias yang digunakan pada setiap lapisan

nya diambil secara acak pada jangkauan [-0.5 , 0.5] dan bias diambil secara acak pada jangkauan [-1,1].

(Aktivasi)

Menentukan fungsi aktivasi yang digunakan. Pada algoritma beriku

fungsi aktivasi sigmoid biner untuk lapisan tersembunyi dan fungsi aktivasi linier untuk lapisan keluaran.

Feedforward)

a. Hitung keluaran yang didapatkan dari neuron dalam lapisan tersembunyi, dimana n menyatakan jumlah masukan pada neuron j dalam lapisan

[G(‡) = Q + m › (‡). PG(‡) j

dan pengujian.

pembelajaran adaptif dan

adalah sebagai

yang digunakan dan menentukan jumlah neuron pada lapisan keluaran.

yang digunakan pada setiap lapisan. Bobot awal dan bias diambil secara

. Pada algoritma berikut diberikan er untuk lapisan tersembunyi dan fungsi aktivasi linier

lapisan tersembunyi, lapisan tersembunyi.

(18)

24

Neuron pada lapisan tersembunyi kemudian diaktivasi dengan menggunakan sigmoid biner.

dG(‡) =1 + \1ˆ¹(º) (2. 25)

b. Hitung keluaran yang didapatkan dari neuron dalam lapisan keluaran, dimana m menyatakan banyak masukan pada neuron pada lapisan k dalam lapisan keluaran.

a<(‡) = Q + m dG(‡). PG<(‡) ±

Gj

(2. 26)

Neuron pada lapisan keluaran kemudian diaktivasi dengan menggunakan aktivasi linier.

¸(‡) = a<(‡) (2. 27)

6. Langkah 5 (Backpropagation)

Hitung selisih nilai target dengan nilai keluaran yang dihasilkan dengan memperhatikan penjelasan pada sub bab 2.3.5, sehingga didapatkan nilai eror dalam satu iterasi.

V(‡) =NV(‡)N¸(‡) = ¸ − Y (2. 28)

a. Gradien Eror dan Koreksi Bobot pada Lapisan Keluaran

Gradien eror yang dihasilkan dari lapisan keluaran dapat dituliskan dengan memperhatikan penjelasan pada sub bab 2.3.5, sebagai berikut:

N<(‡) =N¸(‡)Na(‡) . V(‡) = V(‡) (2. 29) Koreksi bobot dan perbaharui bobot pada neuron lapisan keluaran

∆PG<(‡) = ». dG(‡). N<( ) (2. 30)

PG<(‡ + 1) = PG<(‡) + ∆PG<(‡) (2. 31)

Koreksi bias dan perbaharui bias pada neuron lapisan keluaran

∆QG<(‡) = ». N<( ) (2. 32)

b. Gradien Eror dan Koreksi Bobot pada Lapisan Tersembunyi

Gradien eror yang dihasilkan dari lapisan tersembunyi dapat dituliskan dengan memperhatikan penjelasan pada sub bab 2.3.5, sebagai berikut:

(19)

25

NG(‡) = dG(‡). ¼1 − dG(‡)½ + m N<(‡). PG<(‡) <j

(2. 33)

Koreksi bobot dan perbaharui bobot pada neuron lapisan tersembunyi

∆PG(‡) = ». › (‡). NG(‡) (2. 34) PG(‡ + 1) = PG(‡) + ∆PG(‡) (2. 35) Koreksi bias dan perbaharui bias pada neuron lapisan tersembunyi

∆QG(‡) = ». NG( ) (2. 36)

6. Langkah 5 (Iterasi (p)>1)

Operasi perkalian gradien eror dengan momentum terjadi pada saat p>1. Terdapat perbedaan dengan algoritma saat p=1, yaitu pada koreksi bobot dan bias. Perubahan bobot pada persamaan (2.30) dan (2.34), berubah menjadi:

∆PG<(‡ + 1) = ]¾. ∆PG<(‡) + (1 − ]¾)». [G(‡). N<( ) (2. 37) ∆PG(‡ + 1) = ]¾. ∆PG(‡) + (1 − ]¾)». › (‡). NG(‡) (2. 38) Perubahan bias pada persamaan (2.32) dan (2.36), berubah menjadi:

∆QG<(‡ + 1) = ]¾. ∆QG<(‡) + (1 − ]¾)». N<( ) (2. 39) ∆QG(‡ + 1) = ]¾. ∆QG(‡) + (1 − ]¾)». NG( ) (2. 40) Kinerja jaringan pada bobot dan bias yang telah diperbaharui dibandingkan dengan kinerja jaringan pada bobot dan bias sebelumnya untuk pembelajaran adaptif, memiliki beberapa kondisi sebagai berikut:

» ∗= ¿ ÀÀ Á ÀÀ

». ; ÃyWZ‡\ {2‡\ { > max _‡\ {_yU¾ »; ÃyWZ‡\ {2‡\ { = max _‡\ {_yU¾ ». ; ÃyWZ‡\ {2‡\ { < max _‡\ {_yU¾

(2. 41)

Dengan cara ini, apabila laju pembelajaran terlalu tinggi dan mengarah ke ketidakstabilan, maka laju pembelajaran akan diturunkan. Sebaiknya jika laju pembelajaran terlalu kecil untuk menuju kekonvergenan, maka laju pembelajaran akan tetap terjaga pada kondisi stabil.

(20)

26

2.4 Hybrid ARIMA ANN

Hybrid ARIMA ANN adalah menggabungkan metode ARIMA yang

linier dan metode ANN yang bersifat non linier. Penggabungan metode hybrid ARIMA ANN terdiri dari tiga langkah yaitu masukan sampel yang akan diteliti pada metode ARIMA, membangun model ANN berdasarkan residual model ARIMA terbaik, dan menggabungkan peramalan ARIMA dan ANN untuk peramalan hybrid. Residual pada periode ke-t pada model linier diberikan sebagai berikut untuk digunakan sebagai data pembelajaran pada jaringan saraf tiruan [35]. Menurut Zhang residual ARIMA harus mengandung beberapa non linier untuk membentuk deret detreteding.

Z = {(Z + Z>+ ⋯ + Z ) + Å

Dengan f adalah fungsi non linier dan Å adalah eror. Komponen estimasi linier dari model ARIMA dimisalkan adalah ¥ dan komponen estimasi non linier dari ANN dimisalkan adalah Æ¥ . Kombinasi antara ¥ dan Æ¥ digabungkan untuk peramalan deret waktu dalam beberapa periode ke depan d , sehingga [35]

d = ¥ + Æ¥ (2. 42)

2.5 Forecasting

Menilai seberapa baik akurasi peramalan dari model ARIMA dan arsitektur hybrid ARIMA-ANN berdasarkan kriteria statistik seperti mean square

error (MSE) dan mean absolute percentage error (MAPE). Semakin kecil nilai

yang dihasilkan MSE dan MAPE maka akurasi peramalan yang dihasilkan semakin baik. Indeks kesalahan peramalan berdasarkan MAPE<10% menunjukkan akurasi peramalan tinggi, 10%<MAPE<20% menunjukkan peramalan yang baik, 20%<MAPE<50% menunjukkan peramalan yang dapat diterima, dan MAPE>50% menunjukkan prediksi yang tidak akurat; Indeks kesalahan MSE dan MAPE peramalan dapat dituliskan sebagai berikut [36]:

ÇqV = 1U m(d − d) > È j (2. 43) ÇÉ V =1U m Êd − dd Ê ›100%∗ È j (2. 44)

Gambar

Tabel 2. 1 Transformasi Box Cox
Tabel 2. 2 ACF dan PACF pada model ARMA
Tabel 2. 3 Identifikasi Parameter
Gambar 2. 1 Saham Penutupan Harian TBLA September – Desember 2020
+2

Referensi

Dokumen terkait

Orang-orang di Night’s Watch adalah orang -orang yang cukup berani, tapi jumlah mereka lebih sedikit untuk tugas yang harus mereka hadapi.. Nama aslinya adalah

NAFTA (North America Free Trade Agreement) juga terus membuka industri domestik terhadap kompetisi dari ekspor; pernjanjian tersebut menghapuskan tarif cukai untuk produk produk dari

Pertempuran ini menjadi salah satu prestasi bagi Nuruddin dalam perlawanannya terhadap tentara Salib, karena tidak hanya membunuh pasukan Slib biasa saja, tetapi

- Bahwa sebelumnya, atas tanah yang terletak di Jalan Sungai Belutu I No. Medan Baru yang telah dikuasai ± 52 tahun oleh Tergugat sejak dari orangtuanya in casu, pernah digugat

Dari hasil penelitian diperoleh bahwa menaiknya konsentrasi kolkisin memberikan pengaruh yang berbeda nyata terhadap parameter persentase perkecambahan, tinggi

Lokasi pengambilan sampel bambu belangke ( Gigantochloa pruriens Widjaja.).. Dokumentasi analisis sampel

hukum III Newton dan hukum III Newton dan  penerapannya dalam  penerapannya dalam kehidupan sehari-hari kehidupan sehari-hari Tes unjuk  Tes unjuk  kerja kerja Tes unjuk 

Permasalahan yang akan dibahas adalah mengenai penjelasan tentang program Ini Talkshow, seberapa besar pengaruh terpaan program Ini Talkshow terhadap minat menonton