• Tidak ada hasil yang ditemukan

Pelatihan ANN di RC-OPPINET ITB Sri Kusumadewi, Artificial Intelligence (Teknik dan Aplikasinya). Perkuliah ANN Elektro ITB

N/A
N/A
Protected

Academic year: 2021

Membagikan "Pelatihan ANN di RC-OPPINET ITB Sri Kusumadewi, Artificial Intelligence (Teknik dan Aplikasinya). Perkuliah ANN Elektro ITB"

Copied!
80
0
0

Teks penuh

(1)

•Pelatihan ANN di RC-OPPINET ITB

•Sri Kusumadewi, Artificial Intelligence (Teknik dan Aplikasinya).

(2)

 Model komputasi yang terinspirasi dari nuerological model brain/otak.

 Otak manusia bekerja dengan cara yang berbeda dibandingkan komputer digital.

◦ highly complex, nonlinear, and parallel computing ◦ many times faster than d-computer in

 pattern recognition, perception, motor control

◦ has great structure and ability to build up its own rules by experience

 dramatic development within 2 years after birth  continues to develop afterward

 Language Learning Device before 13 years old

◦ Plasticity : ability to adapt to its environment

12/11/2009 2 LSR, AI: IK103

(3)

 Struktur otak manusia sangat komplek  Otak manusia terdiri dari sel-sel syaraf

(neuron) dan penghubung (sinapsis)

 Neuron bekerja berdasarkan impuls/sinyal yang diberikan padanya, dan diteruskan ke neuron lainnya.

(4)

 Diantaranya :

◦ Mengenali pola

◦ Melakukan perhitungan

◦ Mengontrol organ-organ tubuh

semuanya dilakukan dengan kecepatan tinggi dibandingkan komputer digital.

Contoh:

Pengenalan wajah seseorang yang sedikit berubah (memakai topi, jenggot tambahan).

12/11/2009 4 LSR, AI: IK103

(5)
(6)

12/11/2009 6 LSR, AI: IK103

(7)
(8)

 Sistem Pemrosesan informasi dengan karakteristik

menyerupai jaringan syaraf biologi.

 Dibentuk sebagai generalisasi model matematika

dari jaringan syaraf biologi.

 Asumsi pada model:

◦ Pemrosesan informasi terjadi pada neuron.

◦ Sinyal dikirimkan antar neuron melalui penghubung.

◦ Penghubung antar neuron memiliki bobot yang

akan memperkuat atau memperlemahkan sinyal.

◦ Untuk menentukan output, setiap neuron

menggunakan fungsi aktivasi, yang menentukan sinyal diteruskan ke neuron lain atau tidak.

12/11/2009 8 LSR, AI: IK103

(9)

 Machine designed to model the way in which brain

performs tasks

◦ implemented by electronic devices and/or software

(simulation)

◦ Learning is the major emphasis of NN

 Massively parallel distributed processor

◦ massive interconnection of simple processing units

◦ simple processing units store experience and make it

available to use

◦ knowledge is acquired from environment thru learning

process

 Learning Machine

◦ modify synaptic weights to obtain design objective

◦ modify own topology - neurons die and new one can grow

(10)

Human Brain

Human nervous system

– 1011 neurons in human cortex

– 60 x 1012 synaptic connections

– 104 synapses per neuron

– 10-3 sec cycle time (computer : 10-9 sec)

– energetic efficiency : 10-16 joules operation per second

(computer : 10-6 joules)

Receptors Neural Net Effectors

stimulus response

12/11/2009 10 LSR, AI: IK103

(11)

Human Brain

Neuron structure

– nucleus, cell body, axon, dendrite, synapses

Neurotransmission

– Neuron’s output is encoded as a series of voltage pulses

• called action potentials or spikes

– by means of electrical impulse effected by chemical transmitter

– Period of latent summation

(12)

Models of Neuron

Neuron is information processing unit

A set of synapses or connecting links

– characterized by weight or strength

An adder

– summing the input signals weighted by synapses

– a linear combiner

An activation function

– also called squashing function

• squash (limits) the output to some finite values

12/11/2009 12 LSR, AI: IK103

(13)
(14)

 JST sederhana pertama kali diperkenalkan oleh

McCulloh dan Pitts tahun 1943.

◦ Menyimpulkan bahwa kombinasi beberapa

neuron sederhana menjadi sebuah sistem neuron akan meningkatkan kemampuan komputasinya.

◦ Bobot dalam jaringan diatur untuk melakukan fungsi logika sederhana

◦ Fungsi aktivasi yang digunakan adalah fungsi threshold.

 Tahun 1958, Rosenblatt memperkenalkan model

jaringan perceptron

◦ Terdapat metode pelatihan untuk mengoptimalkan hasil

iterasi.

12/11/2009 14 LSR, AI: IK103

(15)

 Widrow dan Hoff (1960) mengembangkan perceptron

dengan memperkenalkan aturan pelatihan jaringan (ADALINE = adative Linear Neuron).

◦ Disebut aturan delta (kuadrat rata-rata terkecil)

◦ Mengubah bobot perceptron apabila keluaran yang dihasilkan tidak sesuai dengan target yang diinginkan.

 Apa yang dilakukan peneliti sebelumnya hanya

menggunakan single layer.

 Rumelhart (1986) mengembangkan perceptron menjadi

backpropagation.

(16)

 Pengenalan pola (pattern recognition)

◦ Mengenal huruf, angka, suara, tanda tangan.

◦ Menyerupai otak manusia yang masih mampu

mengenali orang sudah beberapa lama tidak dijumpai (wajah/bentuk tubuh sedikit berubah)

 Pengolahan signal

◦ Menekan noise dalam saluran telepon

 Peramalan (forecasting)

◦ Meramal kejadian masa datang berdasarkan pola

kejadian yang ada di masa lampau.

◦ JST mampu mengingat dan membuat generalisasi

dari apa yang sudah ada sebelumnya.

12/11/2009 16 LSR, AI: IK103

(17)

 Kelebihan :

◦ Banyak hal/aplikasi yang dapat dilakukan oleh JST.

 Kekurangan:

◦ Ketidak akuratan hasil yang diperoleh.

◦ Bekerja berdasarkan pola yang terbentuk pada inputnya.

(18)

 Input: data masukan beserta bobot-bobotnya.

 Summation(Σ): menjumlahkan semua hasil perkalian nilai dengan bobotnya.

 Fungsi aktifasi: sebagai penentuan nilai ambang, jika terpenuhi maka signal

diteruskan.

 Output: hasil dari komputasi.

12/11/2009 18 LSR, AI: IK103

(19)

Nonlinear model of a neuron

wk1 x1 wk2 x2 wkm xm ... ... Bias bk (.) vk Input signal Synaptic weights Summing junction Activation function Output yk

(20)

Ilustrasi Processing Unit ANN

12/11/2009 20 LSR, AI: IK103

(21)

 Input: data masukan dari processing unit sebelumnya atau dari luar.

 Bobot(weight): derajat pengaruh nilai input pada processing unit.

 Summation: weighted sum dari nilai input.

 Nilai ambang(threshold value): jika weighted sum melebihi nilai threshold maka signal

akan ditransmisikan.

(22)

 Pembelajaran terawasi: jika output yang diharapkan telah diketahui sebelumnya.  Pembelajaran tak terawasi: tidak

memerlukan/tidak dapat ditentukan target output.

12/11/2009 22 LSR, AI: IK103

(23)

 McCulloch dan Pitts (penemu)  Hebb Rule.

 Perceptron.

 Delta rule. (ADALINE = Adative Linear

Neuron)

 Backpropagation.

 Heteroassociative Memory.

 Bidirection Associative Memory (BAM).  Learning Vector Quantization (LVQ).

(24)

 Jaringan Kohonen

12/11/2009 24 LSR, AI: IK103

(25)

 Model JST pertama pada tahun 1943

 Menyimpulkan bahwa kombinasi beberapa neuron sederhana menjadi suatu sistem neuron dapat meningkatkan kemampuan komputasi.

 Digunakan untuk melakukan fungsi logika sederhana.

 Banyak prinsipnya yang masih digunakan pada JST saat ini.

(26)

12/11/2009 26 LSR, AI: IK103

(27)
(28)

 Metode pembelajaran paling sederhana.  Untuk menghitung nilai logika.

 Pembelajaran dengan cara memperbaiki nilai bobot yaitu bobot dinaikkan jika terdapat 2 neuron yang terhubung dan keduanya pada kondisi “on” pada saat yang sama.

wi= bobot pada input ke-i.

xi = input data ke-i

y = output data

(

)

(

)

*

i i i

w baru

w lama

x

y

12/11/2009 28 LSR, AI: IK103

(29)

 Misalkan kita ingin membangun jaringan dengan kriteria sbb:

Input Bias Target/Out

put x1 X2 -1 -1 1 -1 -1 1 1 1 1 -1 1 1 1 1 1 1

(30)

 Langkah:

◦ Hitung perubahan bobot untuk tiap data input. ◦ Lakukan iterasi sebanyak data input.

◦ Lakukan testing/pengujian. x1 x2 w1 w2 Σ(x*w)+b b y_in F(y_in) y 1 1, _ 0 ( _ ) 1, _ 0 y in f y in y in 12/11/2009 30 LSR, AI: IK103

(31)

Pengujian:

Misal ambil data x=[-1,-1] Maka

Berdasarkan fungsi aktifasi maka

1* 1* 1 2 * 2 2 ( 1* 2) ( 1* 2) 2 Y b x w x w Y 1, _ 0 ( _ ) y in f y in

(32)

 Jaringan perceptron menyerupai arsitektur jaringan Hebb.

 Diperkenalkan oleh Rosenblatt (1962) dan Minsky-Papert(1969).

 Model dengan aplikasi dan pelatihan yang terbaik pada masa tersebut.

12/11/2009 32 LSR, AI: IK103

(33)
(34)

12/11/2009 34 LSR, AI: IK103

(35)
(36)

12/11/2009 36 LSR, AI: IK103

(37)
(38)

12/11/2009 38 LSR, AI: IK103

(39)
(40)

12/11/2009 40 LSR, AI: IK103

(41)
(42)

12/11/2009 42 LSR, AI: IK103

(43)
(44)

12/11/2009 44 LSR, AI: IK103

(45)
(46)

12/11/2009 46 LSR, AI: IK103

(47)
(48)

12/11/2009 48 LSR, AI: IK103

(49)
(50)

12/11/2009 50 LSR, AI: IK103

(51)
(52)

12/11/2009 52 LSR, AI: IK103

(53)
(54)

 Termasuk bentuk jaringan syaraf yang sederhana.

 Jaringan dengan satu layer.

Level Input Level Output

12/11/2009 54 LSR, AI: IK103

(55)

Input Output X1 X2 OR AN D XOR 0 0 0 0 0 0 1 1 0 1 1 0 1 0 1 1 1 1 1 0

• Misalkan ANN akan digunakan untuk melakukan logical AND, OR dan XOR.

• Telah dibangun jaringan neural spt terlihat diatas

Misalkan bobot diberikan untuk tiap kasus

(56)

12/11/2009 56 LSR, AI: IK103

(57)
(58)

1. Bagaimana kita tahu bobot yang tepat untuk

menghasilkan output seperti yg kita inginkan?

Dengan training, kita bisa melakukan inisialisasi weight sembarang.

2. Bagaimana untuk operasi XOR ?

dengan konfigurasi jaringan neural seperti itu (2 layer) tidak akan mendapatkan hasil XOR. Lantas bagaimana cara mendapatkannya ?

12/11/2009 58 LSR, AI: IK103

(59)

 Adalah mengatur kembali besarnya bobot sebagai jawaban atas ketidaktepatan hasil (output).

 Yang dirubah pada training hanyalah bobot, nilai aktivasi/threshold value, susunan input tidak diubah.

 Prinsip training: Besarnya kontribusi link thd

error menentukan besarnya perubahaan bobot pada link tsb.

(60)

12/11/2009 60 LSR, AI: IK103

(61)

 Gunakan delta rule:

(62)

wij j i ij j j ( ) a w y f a i j

AND Delta Rule OR

ij

(

j j

)

i

w

c g

a

a

j j i

konstanta (learning rate),

biasanya c 0.35 berhasil nilai target unit j

nilai output unit j

nilai output unit i

c g a a 12/11/2009 62 LSR, AI: IK103

(63)

Output 1 Lakukan Implementasi Ann

Dengan Bobot Seperti Pada Gambar Untuk Mendapatkan Target (Or)

(64)

Misal: Parameter c= 0.35

w13 dan w23 = 0.7

Implementasi Training

Menggunakan delta rule

12/11/2009 64 LSR, AI: IK103

(65)
(66)

 Jadi diperoleh

◦ W13 = 1.05

◦ W23 = 1.05

 Update bobot pada jaringan, lakukan perhitungan

 Lakukan iterasi kembali jika belum menghasilkan

sesuai dengan target

12/11/2009 66 LSR, AI: IK103

(67)
(68)

12/11/2009 68 LSR, AI: IK103

(69)

 Proses menghitung untuk mendapatkan output disebut FEED FORWARD.

 Proses mengubah bobot di tiap link disebut

LEARNING.

 Algorithma standard untuk proses learning adalah Back Propagation.

(70)

12/11/2009 70 LSR, AI: IK103

(71)
(72)

 Biasanya pilihannya adalah fungsi sigmoid dan tanh(x), keuntungannya fungsi-fungsi tersebut dapat diturunkan dengan mudah.

12/11/2009 72 LSR, AI: IK103

(73)
(74)

12/11/2009 74 LSR, AI: IK103

(75)

 Merupakan algorithma pebelajaran untuk melakukan update bobot.

 Biasanya digunakan untuk multilayer (input,

hidden, dan output).

 Langkah komputasi: lakukan proses maju

(forward propagation), kemudian update error dari bobot dengan backward

propagation.

 Biasanya menggunakan fungsi aktifasi

(76)

12/11/2009 76 LSR, AI: IK103

(77)

 Inisialisasi bobot (ambil acak)  jangan terlalu

besar/kecil biasanya [-0.5;0.5], [-1,1].

 Tetapkan: maksimum epoh, target error, learning rate

(α).

 Inisialisasi: epoh = 0, MSE (mean square error) =1.

 Kerjakan langkah berikut selama (epoh < maks epoh)

dan MSE > target error. 1. Epoh = Epoh + 1

2. Untuk tiap – tiap pasangan elemen yang akan dilakukan pembelajaran, lakukan :

3. Feed Forward.

4. Back Propagation.

(78)

 Feed Forward:

a. Setiap unit input (xi, i=1,..n) menerima input xi dan meneruskannya ke semua hidden layer.

b. Hitung: c. Hitung: 0 1 _ ( _ ), ( 1,..., ) n j i ij j i z in j v x v dan z f z in j j p 0 1 _ ( _ ), ( 1,..., ) p k j jk k j

y ink w z w dan y f y ink k m

12/11/2009 78 LSR, AI: IK103

(79)

 Back Propagation of Error

a. Tiap unit output menerima target tk (k=1,…,m) hitung:

hitung koreksi bobot:

hitung koreksi bobot pada bias : b. Hitung: 2k

(

t

k

y

k

). '( _

f

y ink

), (

k

1,..., )

m

2

.

.

jk k j

w

z

0k . 2k w 2 1 1 1 _ . _ . '( _ ) . . ( ( ) m k jk k j ij j i inj w inj f z inj

(80)

c. Update bobot dan bias

(

)

(

)

(

)

(

)

jk jk jk ij ij ij

w

baru

w

lama

w

v baru

v lama

v

12/11/2009 80 LSR, AI: IK103

Gambar

Ilustrasi Processing Unit ANN

Referensi

Dokumen terkait