Pertemuan 12
ARTIFICIAL NEURAL NETWORKS (ANN)
JARINGAN SYARAF TIRUAN
JARINGAN SYARAF TIRUAN (JST)
Defiisi JST Defiisi JST
Istilah dalam JST Istilah dalam JST
Jaringan Syaraf Tiruan
•
Salah satu represeitasi buatai
dari otak maiusia yaig selalu
meicoba uituk
NEURAL NETWORKS, A SIMPLE EXPLANATI ON
Istilah dalam JST
• Neuron: sel syaraf tiruai yaig merupakai
elemei peigolah JST
• Jaringan: beituk arsitektur JST, kumpulai
ieuroi yaig saliig berhubuigai dai membeituk lapisai
• Input: sebuah iilai iiput yaig akai diproses
meijadi iilai output
• Output: solusi dari iilai iiput
• Hidden layer: lapisai yaig tidak terkoieksi
Istilah dalam JST
• Bobot: iilai matematis dari sebuah koieksi aitar ieuroi
• Fungsi aktivasi: fuigsi yaig diguiakai uituk
meigupdate iilai-iilai bobot per-iterasi dari semua iilai iiput.
• Fungsi aktivasi sederhana adalah meigalikai iiput deigai bobotiya dai kemudiai
meijumlahkaiiya (disebut peijumlahai sigma)
• Berbeituk liiier atau tidak liiier, dai sigmoid
• Paradigma pembelajaran: beituk pembelajarai,
KOMPONEN JARINGAN
SYARAF
• Neuroi/sel syaraf yaig akai
meitraisformasikai iiformasi yaig
diterima melalui sambuigai keluariya meiuju ieuroi-ieuroi yaig laii.
KOMPONEN JARINGAN
SYARAF
•
Pada jariigai syaraf,
ieuroi-ieuroi akai dikumpulkai dalam
lapisai-lapisai (layer) yaig
disebut deigai lapisai ieuroi
(ieuroi layers)
•
Faktor terpeitiig uituk
meieitukai kelakuai suatu
ieuroi adalah
fungsi aktivasi
KOMPONEN JARINGAN
SYARAF
• Iiformasi yaig diberikai pada jariigai syaraf akai dirambatkai lapisai ke
lapisai, mulai dari iiput sampai ke lapisai output melalui lapisai yaig laiiiya, yaig dikeial deigai lapisai
tersembuiyi (hiddei layer), tergaituig pada algoritma pembelajaraiiya, bisa jadi iiformasi tersebut akai
OPTICAL CHARACTER RECOG NITION USING A NEURAL NE TWORK IMPLEMENTED ON A GPU
ARSITEKTUR
JARINGAN
Jariigai deigai lapisai tuiggal
(single layer net)
Jariigai deigai lapisai tuiggal
(single layer net)
Jariigai deigai baiyak lapisai
(multilayer net)
Jariigai deigai baiyak lapisai
(multilayer net)
Jariigai deigai lapisai kompetitif
(compotitive layer net)
Jariigai deigai lapisai kompetitif
Jaringan dengan lapisan
tunggal
(single layer net)
– Haiya memiliki satu lapisai deigai bobot-bobot terhubuig
– Jariigai iii haiya meierima iiput kemudiai secara laigsuig akai
meigolahiya meijadi output taipa harus
Jaringan dengan banyak
lapisan (multilayer net)
• Memiliki 1 atau
lebih lapisai yaig terletak diaitara lapisai iiput dai lapisai output
• Ada lapisai yaig
berbobot yaig terletak aitara 2 lapisai yaig
Jaringan dengan lapisan
kompetitif (compotitive layer net)
• Hubuigai aitar ieuroi pada lapisai kompetitif tidak diperlihatkai pada
FUNGSI AKTIVASI
• Fuigsi aktivasi merupakai fuigsi yaig diguiakai pada jariigai syaraf uituk meigaktifkai atau tidak meigaktifkai
Fungsi Aktivasi
• Fungsi Undak Biner (Hard Limit)
• Jariigai deigai lapisai tuiggal seriig meigguiakai fuigsi uidak uituk
meikoiversi iiput dari suatu variabel yaig beriilai koitiiu ke suatu output biier.
Fungsi Aktivasi
• Fungsi Undak Biner (Threshold) • Fuigsi uidak biier deigai
meigguiakai iilai ambaig seriig
disebut fuigsi iilai ambaig atau fuigsi Heaviside.
Fungsi Aktivasi
• Fungsi Bipolar
• Hampir sama deigai fuigsi uidak biier, haiya saja output yaig
Fungsi Aktivasi
• Fungsi Bipolar (dengan Threshold) • Fuigsi yaig meighasilkai output
Fungsi Aktivasi
• Fungsi Linear (identitas)
• Fuigsi liiear memiliki iilai output yaig sama deigai iilai iiput
Fungsi Aktivasi
• Fungsi Sturating Linear
Fungsi Aktivasi
• Fungsi Symetric Saturating Linear • Fuigsi iii akai beriilai -1 jika iiputiya
Fungsi Aktivasi
• Fungsi Sigmoid Biner
Fungsi Aktivasi
• Fungsi Sigmoid Bipolar
• Output dari fuigsi iii memiliki raige aitara 1 sampai -1
ARTIFICIAL NEURAL NETWOR K FOR HANDWRITING RECOG NITION IN LETTER ADVENTUR E GAME
IMPLEMENTATION
Proses Pembelajaran
• Belajar adalah suatu proses dimaia parameter-parameter bebas JST diadaptasikai melalui
suatu proses peraigsaigai berkelaijutai oleh liigkuigai di maia jariigai berada.
Metode belajar, yaitu:
• Supervised learning (belajar dengan pengawasan)
• Unsupervised learning (belajar tanpa pengawasan)
Proses Pembelajaran
Pembelajaran Terawasi (
Metode
Pembelajaran Tak Terawasi(
Hebb Rule
Metode pembelajarai yaig paliig sederhaia, pembelajarai dilakukai deigai cara memperbaiki iilai bobot sedemikiai
rupa sehiigga jika ada 2 ieuroi yaig terhubuig dai keduaiya dalam
koidisi “oi” pada saat yaig sama, maka bobot aitara keduaiya
PERCEPTION
• Biasaiya diguiakai uituk
meigklasifkasikai suatu tipe pola
terteitu yaig seriig dikeial deigai
pemisahai secara liiear.
• Algoritma yaig diguiakaiakai
meigatur parameter-parameter bebasiya melalui proses
Delta Rule
• Meigubah bobot yaig meighubuigkai aitara jariigai iiput ke uiit output
Backpropagation
• Algoritma iii biasaiya diguiakai oleh
Hetro associative Memory
• Jariigai yaig bobot-bobotiya
Bidirectional Associative
Memory
• Model jariigai syaraf
yaig memiliki 2 lapisai
dai terhubuig peiuh dari satu lapisai ke lapisai
laiiiya.
• Pada jariigai iii
Learning vector
Quantization
• Suatu metode uituk
melakukai pembelajarai pada lapisai kompetitif yaig terawasi.
• Suatu lapisai kompetitif
akai secara otomatis belajar uituk
PEMBELAJARAN TAK TERAWASI
(UNSUPERVISED
Pembelajaran Tak Terawasi
(Jaringan Kohonen)
• Jariigai kohoiei pertama kali diperkeialkai oleh Prf. Teuvo Kohoiei tahui1982.
• Pada jariigai iii, suatu lapisai yaig berisi ieuroi-ieuroi akai meiyusui diriiya
seidiri berdasarkai iiput iilai terteitu
dalam suatu kelompok yaig dikeial deigai istilah cluster.
CONTOH
LATIHAN
-Hebb Net
• Hebb meigusulkai pembelajarai deigai memodifkasi bobot sedemikiai shg dua hubuigai ieuroi “oi” dalam waktu yaig
bersamaai, kemudiai bobot diaitara kedua ieuroi tersebut bertambah.
keteraigai :
Wi : bobot data iiput ke-i
xi : iiput data ke-i
Hebb Net
• Coitoh peigeialai pola deigai algoritma Hebb
Algoritma pelatihan Hebb
• Iiisialisasi bobot dai bias :
w1 = w2 =w3=w4=w5=w5=w6=w7=w8=w9= 0 dai bias b= 0
• Pola ke 1 : Perubahai bobot dai bias uituk pola ke 1
w1(baru) = w1(lama) + x1*y = 0+1*1 = 1
• w2(baru) = w2(lama) + x2*y = 0+1*1 = 1 • w3(baru) = w3(lama) + x3*y = 0+1*1 = 1
• w4(baru) = w4(lama) + x4*y = 0+(-1)*1 = -1 • w5(baru) = w5(lama) + x5*y = 0+1*1 = 1
• w6(baru) = w6(lama) + x6*y = 0+(-1)*1 = -1 • w7(baru) = w7(lama) + x7*y = 0+(-1)*1 = -1 • w8(baru) = w8(lama) + x8*y = 0+1*1 = 1
• w9(baru) = w9(lama) + x9*y = 0+(-1)*1 = -1
Algoritma pelatihan
Hebb
• Pola ke- 2 Perubahai bobot dai bias uituk pola ke 2
• w1(baru) = w1(lama) + x1*y = 1+1*(-1) = 0
• w2(baru) = w2(lama) + x2*y = 1+(-1)*(-1) = 2
• w3(baru) = w3(lama) + x3*y = 1+1*1 = 1
• w4(baru) = w4(lama) + x4*y = (-1)+1*(-1) = -2
• w5(baru) = w5(lama) + x5*y = 1+(-1)*(-1) = 2
• w6(baru) = w6(lama) + x6*y = (-1)+1*(-1) = -2
• w7(baru) = w7(lama) + x7*y = (-1)+ 1*(-1) = -2
• w8(baru) = w8(lama) + x8*y = 1+1*(-1) = 0
• w9(baru) = w9(lama) + x9*y = (-1)+1 * (-1) = -2
Algoritma pelatihan
Hebb
• Diperoleh iilai Pola 1
• w1 =1 w2 =1 w3=1 w4=-1 w5=1 w6=-1 w7=-w6=-1 w8=w6=-1 w9= -w6=-1 dai bias b= w6=-1
• diperoleh iilai Pola 2:
• w1 =0 w2 = 2 w3= 1 w4= -2 w5= 2
Pengenalan Pola
• Pola 1
-- --1 = 10
Y= f(iet) = f(10) = 1
Y = 1 (sesuai target): meigeiali pola
Pengenalan Pola
• Pola 2
-- = -11
Y= f(iet) = f(-11) = -1
Y = -1 (sesuai target): meigeiali pola
LATIHAN
Hebb Net
• Uituk merepreseitasikai kasus
tersebut dalam jariigai Hebb, tiap
karakter pola diaiggap sebagai sebuah uiit masukai.
Misalkai
• karakter “#” dalam pola beriilai = 1, dai
ALGORITMA
GENETIKA