• Tidak ada hasil yang ditemukan

Pelatihan ANN di RC-OPPINET ITB Sri Kusumadewi, Artificial Intelligence (Teknik dan Aplikasinya). Perkuliah ANN Elektro ITB

N/A
N/A
Protected

Academic year: 2021

Membagikan "Pelatihan ANN di RC-OPPINET ITB Sri Kusumadewi, Artificial Intelligence (Teknik dan Aplikasinya). Perkuliah ANN Elektro ITB"

Copied!
80
0
0

Teks penuh

(1)

•Pelatihan ANN di RC-OPPINET ITB

•Sri Kusumadewi, Artificial Intelligence (Teknik dan Aplikasinya).

(2)

 Model komputasi yang terinspirasi dari nuerological model brain/otak.

 Otak manusia bekerja dengan cara yang berbeda dibandingkan komputer digital.

◦ highly complex, nonlinear, and parallel computing ◦ many times faster than d-computer in

 pattern recognition, perception, motor control

◦ has great structure and ability to build up its own rules by experience

 dramatic development within 2 years after birth  continues to develop afterward

 Language Learning Device before 13 years old

◦ Plasticity : ability to adapt to its environment

12/11/2009 2 LSR, AI: IK103

(3)

 Struktur otak manusia sangat komplek  Otak manusia terdiri dari sel-sel syaraf

(neuron) dan penghubung (sinapsis)

 Neuron bekerja berdasarkan impuls/sinyal yang diberikan padanya, dan diteruskan ke neuron lainnya.

(4)

 Diantaranya :

◦ Mengenali pola

◦ Melakukan perhitungan

◦ Mengontrol organ-organ tubuh

semuanya dilakukan dengan kecepatan tinggi dibandingkan komputer digital.

Contoh:

Pengenalan wajah seseorang yang sedikit berubah (memakai topi, jenggot tambahan).

12/11/2009 4 LSR, AI: IK103

(5)
(6)

12/11/2009 6 LSR, AI: IK103

(7)
(8)

 Sistem Pemrosesan informasi dengan karakteristik

menyerupai jaringan syaraf biologi.

 Dibentuk sebagai generalisasi model matematika

dari jaringan syaraf biologi.

 Asumsi pada model:

◦ Pemrosesan informasi terjadi pada neuron.

◦ Sinyal dikirimkan antar neuron melalui penghubung.

◦ Penghubung antar neuron memiliki bobot yang

akan memperkuat atau memperlemahkan sinyal.

◦ Untuk menentukan output, setiap neuron

menggunakan fungsi aktivasi, yang menentukan sinyal diteruskan ke neuron lain atau tidak.

12/11/2009 8 LSR, AI: IK103

(9)

 Machine designed to model the way in which brain

performs tasks

◦ implemented by electronic devices and/or software

(simulation)

◦ Learning is the major emphasis of NN

 Massively parallel distributed processor

◦ massive interconnection of simple processing units

◦ simple processing units store experience and make it

available to use

◦ knowledge is acquired from environment thru learning

process

 Learning Machine

◦ modify synaptic weights to obtain design objective

◦ modify own topology - neurons die and new one can grow

(10)

Human Brain

Human nervous system

– 1011 neurons in human cortex

– 60 x 1012 synaptic connections

– 104 synapses per neuron

– 10-3 sec cycle time (computer : 10-9 sec)

– energetic efficiency : 10-16 joules operation per second

(computer : 10-6 joules)

Receptors Neural Net Effectors

stimulus response

12/11/2009 10 LSR, AI: IK103

(11)

Human Brain

Neuron structure

– nucleus, cell body, axon, dendrite, synapses

Neurotransmission

– Neuron’s output is encoded as a series of voltage pulses

• called action potentials or spikes

– by means of electrical impulse effected by chemical transmitter

– Period of latent summation

(12)

Models of Neuron

Neuron is information processing unit

A set of synapses or connecting links

– characterized by weight or strength

An adder

– summing the input signals weighted by synapses

– a linear combiner

An activation function

– also called squashing function

• squash (limits) the output to some finite values

12/11/2009 12 LSR, AI: IK103

(13)
(14)

 JST sederhana pertama kali diperkenalkan oleh

McCulloh dan Pitts tahun 1943.

◦ Menyimpulkan bahwa kombinasi beberapa

neuron sederhana menjadi sebuah sistem neuron akan meningkatkan kemampuan komputasinya.

◦ Bobot dalam jaringan diatur untuk melakukan fungsi logika sederhana

◦ Fungsi aktivasi yang digunakan adalah fungsi threshold.

 Tahun 1958, Rosenblatt memperkenalkan model

jaringan perceptron

◦ Terdapat metode pelatihan untuk mengoptimalkan hasil

iterasi.

12/11/2009 14 LSR, AI: IK103

(15)

 Widrow dan Hoff (1960) mengembangkan perceptron

dengan memperkenalkan aturan pelatihan jaringan (ADALINE = adative Linear Neuron).

◦ Disebut aturan delta (kuadrat rata-rata terkecil)

◦ Mengubah bobot perceptron apabila keluaran yang dihasilkan tidak sesuai dengan target yang diinginkan.

 Apa yang dilakukan peneliti sebelumnya hanya

menggunakan single layer.

 Rumelhart (1986) mengembangkan perceptron menjadi

backpropagation.

(16)

 Pengenalan pola (pattern recognition)

◦ Mengenal huruf, angka, suara, tanda tangan.

◦ Menyerupai otak manusia yang masih mampu

mengenali orang sudah beberapa lama tidak dijumpai (wajah/bentuk tubuh sedikit berubah)

 Pengolahan signal

◦ Menekan noise dalam saluran telepon

 Peramalan (forecasting)

◦ Meramal kejadian masa datang berdasarkan pola

kejadian yang ada di masa lampau.

◦ JST mampu mengingat dan membuat generalisasi

dari apa yang sudah ada sebelumnya.

12/11/2009 16 LSR, AI: IK103

(17)

 Kelebihan :

◦ Banyak hal/aplikasi yang dapat dilakukan oleh JST.

 Kekurangan:

◦ Ketidak akuratan hasil yang diperoleh.

◦ Bekerja berdasarkan pola yang terbentuk pada inputnya.

(18)

 Input: data masukan beserta bobot-bobotnya.

 Summation(Σ): menjumlahkan semua hasil perkalian nilai dengan bobotnya.

 Fungsi aktifasi: sebagai penentuan nilai ambang, jika terpenuhi maka signal

diteruskan.

 Output: hasil dari komputasi.

12/11/2009 18 LSR, AI: IK103

(19)

Nonlinear model of a neuron

wk1 x1 wk2 x2 wkm xm ... ... Bias bk (.) vk Input signal Synaptic weights Summing junction Activation function Output yk

(20)

Ilustrasi Processing Unit ANN

12/11/2009 20 LSR, AI: IK103

(21)

 Input: data masukan dari processing unit sebelumnya atau dari luar.

 Bobot(weight): derajat pengaruh nilai input pada processing unit.

 Summation: weighted sum dari nilai input.

 Nilai ambang(threshold value): jika weighted sum melebihi nilai threshold maka signal

akan ditransmisikan.

(22)

 Pembelajaran terawasi: jika output yang diharapkan telah diketahui sebelumnya.  Pembelajaran tak terawasi: tidak

memerlukan/tidak dapat ditentukan target output.

12/11/2009 22 LSR, AI: IK103

(23)

 McCulloch dan Pitts (penemu)  Hebb Rule.

 Perceptron.

 Delta rule. (ADALINE = Adative Linear

Neuron)

 Backpropagation.

 Heteroassociative Memory.

 Bidirection Associative Memory (BAM).  Learning Vector Quantization (LVQ).

(24)

 Jaringan Kohonen

12/11/2009 24 LSR, AI: IK103

(25)

 Model JST pertama pada tahun 1943

 Menyimpulkan bahwa kombinasi beberapa neuron sederhana menjadi suatu sistem neuron dapat meningkatkan kemampuan komputasi.

 Digunakan untuk melakukan fungsi logika sederhana.

 Banyak prinsipnya yang masih digunakan pada JST saat ini.

(26)

12/11/2009 26 LSR, AI: IK103

(27)
(28)

 Metode pembelajaran paling sederhana.  Untuk menghitung nilai logika.

 Pembelajaran dengan cara memperbaiki nilai bobot yaitu bobot dinaikkan jika terdapat 2 neuron yang terhubung dan keduanya pada kondisi “on” pada saat yang sama.

wi= bobot pada input ke-i.

xi = input data ke-i

y = output data

(

)

(

)

*

i i i

w baru

w lama

x

y

12/11/2009 28 LSR, AI: IK103

(29)

 Misalkan kita ingin membangun jaringan dengan kriteria sbb:

Input Bias Target/Out

put x1 X2 -1 -1 1 -1 -1 1 1 1 1 -1 1 1 1 1 1 1

(30)

 Langkah:

◦ Hitung perubahan bobot untuk tiap data input. ◦ Lakukan iterasi sebanyak data input.

◦ Lakukan testing/pengujian. x1 x2 w1 w2 Σ(x*w)+b b y_in F(y_in) y 1 1, _ 0 ( _ ) 1, _ 0 y in f y in y in 12/11/2009 30 LSR, AI: IK103

(31)

Pengujian:

Misal ambil data x=[-1,-1] Maka

Berdasarkan fungsi aktifasi maka

1* 1* 1 2 * 2 2 ( 1* 2) ( 1* 2) 2 Y b x w x w Y 1, _ 0 ( _ ) y in f y in

(32)

 Jaringan perceptron menyerupai arsitektur jaringan Hebb.

 Diperkenalkan oleh Rosenblatt (1962) dan Minsky-Papert(1969).

 Model dengan aplikasi dan pelatihan yang terbaik pada masa tersebut.

12/11/2009 32 LSR, AI: IK103

(33)
(34)

12/11/2009 34 LSR, AI: IK103

(35)
(36)

12/11/2009 36 LSR, AI: IK103

(37)
(38)

12/11/2009 38 LSR, AI: IK103

(39)
(40)

12/11/2009 40 LSR, AI: IK103

(41)
(42)

12/11/2009 42 LSR, AI: IK103

(43)
(44)

12/11/2009 44 LSR, AI: IK103

(45)
(46)

12/11/2009 46 LSR, AI: IK103

(47)
(48)

12/11/2009 48 LSR, AI: IK103

(49)
(50)

12/11/2009 50 LSR, AI: IK103

(51)
(52)

12/11/2009 52 LSR, AI: IK103

(53)
(54)

 Termasuk bentuk jaringan syaraf yang sederhana.

 Jaringan dengan satu layer.

Level Input Level Output

12/11/2009 54 LSR, AI: IK103

(55)

Input Output X1 X2 OR AN D XOR 0 0 0 0 0 0 1 1 0 1 1 0 1 0 1 1 1 1 1 0

• Misalkan ANN akan digunakan untuk melakukan logical AND, OR dan XOR.

• Telah dibangun jaringan neural spt terlihat diatas

Misalkan bobot diberikan untuk tiap kasus

(56)

12/11/2009 56 LSR, AI: IK103

(57)
(58)

1. Bagaimana kita tahu bobot yang tepat untuk

menghasilkan output seperti yg kita inginkan?

Dengan training, kita bisa melakukan inisialisasi weight sembarang.

2. Bagaimana untuk operasi XOR ?

dengan konfigurasi jaringan neural seperti itu (2 layer) tidak akan mendapatkan hasil XOR. Lantas bagaimana cara mendapatkannya ?

12/11/2009 58 LSR, AI: IK103

(59)

 Adalah mengatur kembali besarnya bobot sebagai jawaban atas ketidaktepatan hasil (output).

 Yang dirubah pada training hanyalah bobot, nilai aktivasi/threshold value, susunan input tidak diubah.

 Prinsip training: Besarnya kontribusi link thd

error menentukan besarnya perubahaan bobot pada link tsb.

(60)

12/11/2009 60 LSR, AI: IK103

(61)

 Gunakan delta rule:

(62)

wij j i ij j j ( ) a w y f a i j

AND Delta Rule OR

ij

(

j j

)

i

w

c g

a

a

j j i

konstanta (learning rate),

biasanya c 0.35 berhasil nilai target unit j

nilai output unit j

nilai output unit i

c g a a 12/11/2009 62 LSR, AI: IK103

(63)

Output 1 Lakukan Implementasi Ann

Dengan Bobot Seperti Pada Gambar Untuk Mendapatkan Target (Or)

(64)

Misal: Parameter c= 0.35

w13 dan w23 = 0.7

Implementasi Training

Menggunakan delta rule

12/11/2009 64 LSR, AI: IK103

(65)
(66)

 Jadi diperoleh

◦ W13 = 1.05

◦ W23 = 1.05

 Update bobot pada jaringan, lakukan perhitungan

 Lakukan iterasi kembali jika belum menghasilkan

sesuai dengan target

12/11/2009 66 LSR, AI: IK103

(67)
(68)

12/11/2009 68 LSR, AI: IK103

(69)

 Proses menghitung untuk mendapatkan output disebut FEED FORWARD.

 Proses mengubah bobot di tiap link disebut

LEARNING.

 Algorithma standard untuk proses learning adalah Back Propagation.

(70)

12/11/2009 70 LSR, AI: IK103

(71)
(72)

 Biasanya pilihannya adalah fungsi sigmoid dan tanh(x), keuntungannya fungsi-fungsi tersebut dapat diturunkan dengan mudah.

12/11/2009 72 LSR, AI: IK103

(73)
(74)

12/11/2009 74 LSR, AI: IK103

(75)

 Merupakan algorithma pebelajaran untuk melakukan update bobot.

 Biasanya digunakan untuk multilayer (input,

hidden, dan output).

 Langkah komputasi: lakukan proses maju

(forward propagation), kemudian update error dari bobot dengan backward

propagation.

 Biasanya menggunakan fungsi aktifasi

(76)

12/11/2009 76 LSR, AI: IK103

(77)

 Inisialisasi bobot (ambil acak)  jangan terlalu

besar/kecil biasanya [-0.5;0.5], [-1,1].

 Tetapkan: maksimum epoh, target error, learning rate

(α).

 Inisialisasi: epoh = 0, MSE (mean square error) =1.

 Kerjakan langkah berikut selama (epoh < maks epoh)

dan MSE > target error. 1. Epoh = Epoh + 1

2. Untuk tiap – tiap pasangan elemen yang akan dilakukan pembelajaran, lakukan :

3. Feed Forward.

4. Back Propagation.

(78)

 Feed Forward:

a. Setiap unit input (xi, i=1,..n) menerima input xi dan meneruskannya ke semua hidden layer.

b. Hitung: c. Hitung: 0 1 _ ( _ ), ( 1,..., ) n j i ij j i z in j v x v dan z f z in j j p 0 1 _ ( _ ), ( 1,..., ) p k j jk k j

y ink w z w dan y f y ink k m

12/11/2009 78 LSR, AI: IK103

(79)

 Back Propagation of Error

a. Tiap unit output menerima target tk (k=1,…,m) hitung:

hitung koreksi bobot:

hitung koreksi bobot pada bias : b. Hitung: 2k

(

t

k

y

k

). '( _

f

y ink

), (

k

1,..., )

m

2

.

.

jk k j

w

z

0k . 2k w 2 1 1 1 _ . _ . '( _ ) . . ( ( ) m k jk k j ij j i inj w inj f z inj

(80)

c. Update bobot dan bias

(

)

(

)

(

)

(

)

jk jk jk ij ij ij

w

baru

w

lama

w

v baru

v lama

v

12/11/2009 80 LSR, AI: IK103

Gambar

Ilustrasi Processing Unit ANN

Referensi

Dokumen terkait

Untuk menguji apakah pemahaman Wajib Pajak orang pribadi pada instrumen kewajiban melapor sendiri berpengaruh terhadap kemauan membayar pajak Wajib Pajak orang

Ketiga hal tersebut menjadi kebutuhan ruang yang pada umumnya berada dalam suatu co-working space, namun tidak menutup juga kemungkinan bahwa akan terdapat

Hukum memiliki batas dalam efektivitasnya (degree of compliance). Terdapat kecenderungan umum di berbagai negara untuk membuat peraturan perundangan tanpa melakukan

Tujuan penelitian ini untuk mengetahui hubungan antara pengetahuan dan sikap dengan tindakan pencegahan penyakit malaria di Wilayah Kerja Puskesmas Bacan Timur Kabupaten

1) Output daya listrik dari kapal yang didesain sebesar 144 MW. 3) Perhitungan teknis yang dilakukan telah memenuhi. Perhitungan berat yang telah dilakukan menghasilkan

Masa Pajak Parkir adalah jangka waktu 1 (satu) bulan kalender atau jangka waktu lain yang diatur dengan Peraturan Kepala Daerah paling lama 3 (tiga) bulan kalender,

Pengendalian penyakit HDB pada tanaman padi yang disebabkan oleh Xoo masih cukup sulit dilakukan, mengingat patogen ini mempunyai daerah pencar yang luas dan mempunyai kemampuan

Pengutipan hanya diberikan bagi kepentingan akademik, penelitian, penulisan karya ilmiah dan penyusunan laporanT. Hasil Pengujian Senyawa Alkaloid Tabel Hasil Pengujian