BAB II
II. Teori Dasar
II.1 Konsep Jaringan Saraf Tiruan
(Artificial Neural Network)
Secara biologis jaringan saraf terdiri dari neuron-neuron yang saling berhubungan. Neuron merupakan unit struktural dan fungsional dari sistem saraf, mempunyai kemampuan untuk mengadakan respon bila dirangsang dengan intensitas rangsangan cukup kuat. Respon neuron bila dirangsang adalah memulai dan menghantarkan impuls. Jaringan saraf tiruan merupakan gabungan sejumlah elemen yang memproses informasi dari input sehingga memberikan suatu
informasi keluaran. Sekelompok obyek dipelajari oleh sistem belajar dengan tujuan untuk mengenali bentuk pola setiap bentuk tersebut. Proses ini dilakukan dengan cara melatih sistem belajar (train neural network) melalui pemberian bobot dan bias pada hubungan antar simpul. Hasil yang dicapai adalah didapatkannya sekelompok bobot dan bias (pada kesalahan minimum yang dicapai) untuk semua pola yang dipelajari, hal ini sesuai dengan anggapan menemukan energi
terendah dalam proses mengenali sekelompok obyek pola yang dipelajari. Jaringan saraf tiruan mempunyai distribusi pararel arsitektur dengan sejumlah besar simpul mempunyai bobot dan bias tertentu.
Gbr 1 . Model struktur jaringan saraf tiruan.
Kontruksi jaringan saraf tiruan terdiri dari :
1. Penentuan Perangkat Jaringan 2. Penentuan Perangkat Simpul 3. Penentuan Sistem Dinamik
II.1.1 Perangkat Jaringan
Jaringan saraf tiruan terdiri dari sejumlah lapisan dan simpul yang berbeda untuk tiap-tiap layer. Jenis layer dapat dibedakan menjadi
1. Input Layer : terdiri dari unit-unit simpul yang berperan sebagai input proses pengolahan data
2. Hidden Layer : terdiri dari unit-unit simpul yang dianalogikan sebagai lapisan tersembunyi dan berperan sebagai lapisan yang meneruskan respon dari input. 3. Output Layer : terdiri dari
unit-unit simpul yang berperan memberikan solusi dari data input.
II.1.2 Perangkat Simpul
Tingkat aktivasi dari simpul (node) dapat berharga diskrit yaitu 0 dan 1, atau kontinu yaitu antara 0 dan 1. Hal tersebut bergantung dari penerapan fungsi aktivasi itu sendiri. Jika menggunakan fungsi ‘hard limitting’ , maka tingkat aktivasinya bernilai 0 (atau -1) dan 1. Apabila menggunakan fungsi sigmoid maka tingkat aktivasinya
terbatas pada daerah antara 0 dan 1. Pada tugas akhir kali ini lebih banyak menggunakan fungsi sigmoid terutama logsig. contoh fungsi sigmoid dengan
fungsi aktivasi logsig yaitu :
Gbr 2 . fungsi aktivasi logsig.
II.1.3 Sistem Dinamik
Pemberian bobot dan bias bergantung pada model jaringan saraf tiruan yang dipilih, tetapi dalam banyak kasus pemberian bobot dapat berupa bilangan real yang kecil dan dipilih secara acak. Pelatihan (train) terhadap jaringan adalah satu hal yang terpenting dalam neural network. Train neural network
menentukan bagaimana cara mengadaptasi nilai-nilai bobot dan bias dalam usaha untuk mengoptimalkan kerja suatu jaringan dalam mengenali suatu bentuk atau pola, dan menghitung besar nilai bobot (weight adjustment) dan bias selama proses berlangsung. Salah satu yang perlu diperhatikan adalah perhitungan kesalahan (error) pada jaringan dengan berubahnya nilai bobot dan bias. Pada perubahan nilai bobot neural network perlu diketahui tingkat aktivasi yang terjadi dengan tingkat aktivasi yang diinginkan. Tingkat aktivasi dari input tidak perlu dihitung tetapi yang perlu dihitung adalah tingkat aktivasi dari hidden dan output layer. Sebagai contoh, dari untuk fungsi sigmoid tingkat aktivasi dari unit i(ai)
Dimana pi adalah masukan dari unit i, Wij adalah nilai bobot pada hubungan dari unit i ke j, dan bj adalah nilai bias pada unit j.
II.1.4 Pengelompokan Jaringan Saraf
Tiruan
Jaringan saraf tiruan mengelompokan obyek yang diberikan sesuai dengan tingkat aktivasi keluarannya dapat dibedakan menjadi :
1. Single Layer Perceptrons (SPL)
SLP terdiri dari satu lapisan input
dan output. Fungsi aktivasi yang digunakan adalah hard limitting yaitu unit output akan bernilai satu, jika jumlah pemberian bobot input lebih besar dari nilai bias-nya. Dalam hal pengelompokan suatu obyek akan dikelompokan oleh unit j jika memenuhi : ∑Wijpi ≥ bi. Juga sebaliknya, suatu obyek akan dikelompokkan pada kelompok yang lain jika : ∑Wijpi < bi.
Gbr 3 . Single Layer Perceptrons
2. Multi Layer Perceptrons (MLP)
MLP adalah jaringan saraf tiruan alur
maju dengan sedikitnya ada satu lapisan tersembunyi. Salah satu masalah dalam membentuk jaringan saraf tiruan MLP adalah berapa banyak unit tersembunyi yang memberikan hasil yang optimal pada suatu jaringan saraf tiruan.
Gbr 4 . Multi Layer Perceptrons
II.1.5 Model Train Neural Network
dengan Sistem Backpropagation
Backpropagation adalah salah satu
program komputasi untuk penerapan neural network yang banyak digunakan
untuk memecahkan masalah non-linear serta network multilayer dengan menggeneralisasi persamaan widrow-hoff. Metoda ini menggunakan metoda
penurunan gradien. Backpropagation menggunakan pelatihan terbimbing (train neural network) dan dalam
pengaturan jumlah lapisan (layer) mudah dilakukan sehingga banyak diterapkan pada berbagai permasalahan.
Backpropagation merupakan sistem
train neural network yang dapat
menghitung tingkat kesalahan dari hasil keluarannya, sehingga neural network yang digunakan memiliki kesalahan terkecil. Neural network harus dilatih berulang-ulang dengan pola input yang sesuai, sehingga neural network dapat
mengenali pola dan diperoleh bobot dan bias tiap simpul dengan kesalahan
terkecil.
Kelemahan Backpropagation diantaranya adalah :
• Backpropagation dapat mengenali
pola input yang telah diajarkan tetapi tidak dapat mengenali pola input yang baru.
• Dalam mengenali pola input yang baru, maka pola tersebut harus diajarkan sehingga pola yang lama akan dilupakan. Parameter backpropagation :
• Inisiasi bobot
Memasukan nilai bobot dan nilai bias untuk tiap simpul dengan
bilangan acak (random).
• Menghitung tingkat aktivasi 1. Tingkat aktivasi dari simpul
input tidak perlu dihitung
2. Menghitung tingkat aktivasi dari simpul hidden dan output dengan rumus :
• Untuk simpul hidden
(2.2) • Untuk simpul output
(2.3)
dengan :
pi : nilai input
Wij : bobot ke simpul hidden
bj : nilai bias simpul hidden
bk : nilai bias simpul output
3. Melatih bobot
a. Penyesuaian bobot : mencari nilai bobot sesuai dengan keluaran yang diinginkan dengan persamaan :
• Perubahan bobot ke
simpul hidden
Wij(t+1) = Wij(t) + ∆Wij (2.3) • Perubahan bobot ke
simpul output
Wjk(t+1) = Wjk(t) + ∆Wjk (2.4) b. Perhitungan perubahan bobot dengan persamaan :
• Perubahan bobot ke
simpul hidden
∆Wij = ηδj . pi (2.5) • Perubahan bobot ke simpul output
∆ Wjk = ηδk . aj (2.6) 4. Perhitungan gradient error
• Perubahan bobot ke
simpul hidden
δj = aj(1 - aj)Σδk . Wij (2.7) • Perubahan bobot ke simpul output
δk = ak(1 – ak)(Tk - ak) (2.8) dengan :
η : koefesien
pembelajaran (antara 0
dan 1)
δj : gradien error pada
unit j
δk : gradien error pada
unit k
Tk : harga aktivasi yang
diinginkan dari simpul
output ke k (target)
ak : harga aktivasi yang diperoleh pada simpul
keluaran ke k
5. Mengulang langkah
algoritma diatas sehingga dapat menentukan nilai error terkecil (yang diinginkan).
II.2 Dekonvolusi
Dekonvolusi merupakan suatu proses kebalikan dari konvolusi. Dekonvolusi merupakan tahapan preprocessing dalam pengolahan data seismik dan merupakan inverse filter. Dekonvolusi adalah suatu
bumi pada suatu penampang seismik. Prinsip dasar dari analisa dekonvolusi adalah mencari bentuk solusi dari filter inverse atau least square inverse filter.
Dalam penentuan operator filter, sering didefinisikan bentuk output yang diinginkan.
Dekonvolusi bertujuan untuk meningkatkan resolusi temporal, sehingga data seismik menjadi lebih mudah untuk diinterpretasikan.
Pada metoda dekonvolusi konvensional khususnya dekonvolusi spiking input harus berfasa minimum agar memberikan output yang spike dan tanpa delay, jika tidak harus menggunakan
wavelet shaping. Suatu proses dekonvolusi tidak akan menghasilkan suatu bentuk spike yang sempurna selama ada komponen frekuensi tinggi yang hilang pada proses konvolusi antara wavelet dan operator filter. Hal yang sering terjadi adalah operator filter sering berperilaku untuk menambah frekuensi, yang sebetulnya tidak terkandung dalam wavelet dari seismogram yang mengakibatkan spektrum amplitudo hasil dekonvolusi tidak memberikan bentuk yang flat.