• Tidak ada hasil yang ditemukan

Analisis Perbandingan Neural Network Backpropagation dengan Simple Perceptron dalam Mengenali Image Daun

N/A
N/A
Protected

Academic year: 2016

Membagikan "Analisis Perbandingan Neural Network Backpropagation dengan Simple Perceptron dalam Mengenali Image Daun"

Copied!
90
0
0

Teks penuh

(1)

ANALISIS PERBANDINGAN

NEURAL NETWORK BACKPROPAGATION

DENGAN

SIMPLE PERCEPTRON

DALAM MENGENALI

IMAGE

DAUN

TESIS

Oleh

OMMI ALFINA

097038016/TINF

PROGRAM STUDI MAGISTER (S2) TEKNIK INFORMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENEGETAHUAN ALAM

UNIVERSITAS SUMATERA UTARA

M E D A N

(2)

ANALISIS PERBANDINGAN

NEURAL NETWORK BACKPROPAGATION

DENGAN

SIMPLE PERCEPTRON

DALAM MENGENALI

IMAGE

DAUN

TESIS

Diajukan sebagai salah satu syarat untuk memperoleh gelar

Magister Komputer dalam Program Studi Magister

Teknik Informatika Program Pascasarjana

Fakultas MIPA Universitas Sumatera Utara

Oleh

OMMI ALFINA

097038016/TINF

PROGRAM STUDI MAGISTER (S2) TEKNIK INFORMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENEGETAHUAN ALAM

UNIVERSITAS SUMATERA UTARA

M E D A N

(3)

PENGESAHAN TESIS

Judul Tesis : ANALISIS PERBANDINGAN NEURAL NETWORK

BACKPROPAGATION DENGAN SIMPLE PERCEPTRON

DALAM MENGENALI IMAGE DAUN

Nama Mahasiswa : Ommi Alfina

Nomor Induk Mahasiswa : 097038016

Program studi : Magister (S2) Teknik Informatika

Fakultas : Matematika dan Ilmu Pengetahuan Alam

Universitas Sumatera Utara

Menyetujui Komisi Pembimbing

M. Andri Budiman,ST, M.Comp.Sc,MEM

Anggota

Ketua

Prof. Dr. Opim Salim Sitompul

Ketua Program Studi,

Dekan FMIPA USU,

Prof. Dr. Muhammad Zarlis

NIP. 195707011986011003

NIP. 196310261991031001

(4)

PERNYATAAN ORISINALITAS

ANALISIS PERBANDINGAN

NEURAL NETWORK BACKPROPAGATION

DENGAN

SIMPLE PERCEPTRON

DALAM MENGENALI

IMAGE

DAUN

T E S I S

Dengan ini saya nyatakan bahwa saya mengakui semua karya tesis ini adalah hasil kerja saya sendiri kecuali kutipan dan ringkasan yang tiap bagiannya telah dijelaskan sumbernya dengan benar.

Medan, 10 Januari 2012

(5)

PERNYATAAN PERSETUJUAN PUBLIKASI

KARYA ILMIAH UNTUK KEPENTINGAN

AKADEMIS

Sebagai sivitas akademika Universitas Sumatera Utara, saya yang telah bertandatangan dibawah ini :

Nama : Ommi Alfina

NIM : 097038016

Program Studi : Magister Teknik Informatika Jenis Karya Ilmiah : Tesis

Demi pengembangan ilmu pengetahuan, menyetujui untuk memberikan kepada Universitas Sumatera Utara Hak Bebas Royalti Non-Ekslusif (Non-Exclusive Royalty Free Right) atas tesis saya yang berjudul :

Analisis Perbandingan Neural Network Backpropagation dengan Simple Perceptron dalam Mengenali Image Daun

Beserta perangkat yang ada (jika diperlukan). Dengan Hak Bebas Royalti Non-Ekslusif ini, Universitas Sumatera Utara berhak menyimpan, mengalih media, memformat, mengelola dalam bentuk data-base, merawat dan mempublikasikan Tesis saya tanpa meminta izin dari saya selama tetap mencantumkan nama saya sebagai penulis dan sebagai pemegang dan atau sebagai pemilik hak cipta.

Demikian pernyataan ini dibuat dengan sebenarnya.

Medan, Januari 2012

(6)

Telah diuji pada

Tanggal : 15 Januari 2012

PANITIA PENGUJI TESIS

Ketua : Prof. Dr. Opim Sitompul

Anggota : 1. M. Andri Budiman,ST,M.Comp.Sc, MEM

(7)

RIWAYAT HIDUP

DATA PRIBADI

Nama Lengkap Berikut Gelar : Ommi Alfina, S.Kom Tempat dan Tanggal Lahir : Medan, 26 Juni 1983

Alamat Rumah : Jl. Kl Yos Sudarso Km 13,8 No 71 Medan

Telepon/Faks/HP : 085358775458

E-mail

Instansi Tempat Bekerja : STMIK POTENSI UTAMA Alamat Kantor : Jl. KL. Yos Sudarso

Telepon/Faks/HP : 061-6854659

DATA PENDIDIKAN

SD : Alwasliyah No.29, Medan Tamat : 1995

SMP : Harapan I, Medan Tamat : 1998

SMA : SMA Negeri 3, Medan Tamat : 2001

Diploma-1 : STMIK Potensi Utama, Medan Tamat : 2002

(8)

KATA PENGANTAR

Bismillahirrahmanirrahim. Alhamdulillah, Puji dan syukur penulis panjatkan kehadirat Allah SWT, yang telah melimpahkan rahmat dan hidayahNya, sehingga Tesis ini dapat diselesaikan tepat pada waktunya. Dengan selesainya tesis ini, perkernankanlah penulis mengucapkan terimakasih yang sebesar-besarnya kepada:

Rektor Universitas Sumatera Utara, Bapak Prof. Dr. dr. Syahril Pasaribu, DTM&H, M.Sc (CTM), Sp. A(K) atas kesempatan yang diberikan kepada penyusun mengikuti dan menyelesaikan pendidikan Program Magister.

Dekan Fakultas MIPA Universitas Sumatera Utara, Bapak Dr. Sutarman, M.Sc atas kesempatan menjadi mahasiswa Program Magister pada Program Pascasarjana FMIPA Universitas Sumatera Utara.

Ketua Program Studi Magister Teknik Informatika, Bapak Prof. Dr. Muhammad Zarlis. Sekretaris Program Studi Magister Teknik Informatika, Bapak M. Andri Budiman, ST, M.Comp. Sc, MEM. beserta seluruh Staf Pengajar Program Studi Magister Teknik Informatika Program Pascasarjana Fakultas MIPA Universitas Sumatera Utara.

Terimakasih yang tak terhingga dan penghargaan setinggi-tingginya atas bimbingan, pengarahan dan dorongan yang telah diberikan selama penyusunan tesis ini kepada Bapak Prof. Dr. Opim Sitompul selaku Promotor/Pembimbing Utama, demikian juga kepada Bapak M. Andri Budiman, ST, M.Comp. Sc, MEM selaku Co. Promotor/Pembimbing yang dengan penuh kesabaran menuntun dan membimbing penulis hingga selesainya tesis ini dengan baik.

Terimakasih yang tak terhingga dan penghargaan setinggi-tingginya penulis ucapkan kepada Bapak Prof. Dr. Muhammad Zarlis, Bapak Dr. Zakarias Situmorang, dan Bapak Syahril Efendi, S.Si, MIT sebagai pembanding yang telah memberikan saran dan masukan serta arahan yang baik demi penyelesaian tesis ini.

(9)

Suami tercinta Ferdinand Aroen, ST dan buah hati kami tersayang Kiran Syahira Aroen atas segala dorongan semangat, doa dan bantuan serta pengorbanan yang telah diberikan kepada penulis selama ini.

Rekan mahasiswa/I angkatan pertama (2011) pada Program Pascasarjana Fakultas FMIPA Universitas Sumatera, Yudhi, Tesa, Rosita, dan Nurdin serta para Dosen yang telah banyak membantu penulis selama mengikuti perkuliahan.

Dan seluruh pihak yang tidak dapat penulis sebutkan satu persatu dalam tesis ini, terimakasih atas segala bantuan dan doa yang telah diberikan.

Dengan penuh kesadaran dan rendah hati, penulis menyadari bahwa penelitian ini masih jauh dari kesempurnaan, hal ini karena keterbatasan kemampuan dan pengetahuan penulis. Harapan penulis semoga penelitian ini bermanfaat bagi penulis khususnya dan pembaca pada umumnya. Sekali lagi penulis mengucapkan terimakasih. Semoga kiranya Tuhan membalas segala bantuan dan kebaikan yang telah kalian berikan.

Medan, 15 Januari 2012 Penulis,

(10)

ANALISIS PERBANDINGAN NEURAL NETWORK BACKPROPAGATION

DENGAN SIMPLE PERCEPTRON DALAM MENGENALI

IMAGE DAUN

ABSTRAK

Dewasa ini jaringan saraf tiruan (JST) sebagai salah satu sistem pengolah informasi yang

memiliki karakteristik kinerja menyerupai jaringan saraf biologis berkembang sangat pesat. Salah satu penerapan jaringan saraf tiruan ini adalah di bidang biologi yaitu dalam pengenalan jenis tanaman. Untuk mengenalkan jenis tanaman tersebut, ada yang melihat dari segi bunga ada pula dari daunnya. Pada riset ini peneliti akan melakukan pelatihan dan pengenalan terhadap daun, dengan menerapkan metode jaringan saraf tiruan

yaitu backpropagation dan simple perceptron. Berdasarkan permasalahan tersebut, maka diperlukan suatu aplikasi pengenalan daun dengan gambar daun sebagai input data dan

feature extraction untuk memroses gambar tersebut. Penelitian ini dimaksudkan untuk membandingkan tingkat akurasi kedua metode tersebut dalam pengenalan image daun. Dari pengujian pada beberapa daun jarak dan bukan jarak, hasil pengenalan pada daun untuk metode perceptron dan backpropagation adalah sama. Tetapi dari tingkat kecepatan untuk pelatihan, pada learning rate(α) = 0.2, 0.5 dan 1, metode perceptron lebih cepat dibandingkan metode backpropagation.

Kata kunci:

(11)

COMPARATIVE ANALYSIS OF BACKPROPAGATION NEURAL NETWORK WITH SIMPLE PERCEPTRON TO IDENTIFY

IMAGE LEAVES

ABSTRACT

As one of the information processing systems, artificial neural networks (ANN) which resembles biological neural networks has grown rapidly. One application of artificial neural networks is in the field of biology which to categorize plant species. In order to determine the species of a plant, one usually looks at its flowers or its leaves. In this research, two artificial neural networks (ANN) methods which are backpropagation and simple perceptron are applied separately in order to evaluate whether a single leaf. A recognition with leaf images as input data is built. Then, the application will do feature extraction whose result will be trained further with both backpropagation and simple perceptron. This study aimed to compare the accuracy of both methods is the introduction of the leaf image. From testing to the

some “jarak” and not “jarak” leaves, the result of recognition on the leaves for the perceptron and the backpropagation method is the same. But the rate of speed for training, the learning rate (α)= 0.2, 0.5 and 1, the perceptron method is faster than the backpropagation method.

Key words:

(12)

DAFTAR ISI

... Halaman

KATA PENGANTAR ... i

ABSTRAK ... iii

ABSTRACT ... iv

DAFTAR ISI ... v

DAFTAR TABEL ... vii

DAFTAR GAMBAR ... viii

BAB I PENDAHULUAN I.1 Latar Belakang ... 1

I.2 Perumusan Masalah ... 3

I.3 Tujuan Penelitian ... 3

I.4 Manfaat Penelitian ... 3

I.5 Batasan Masalah ... 4

BAB II TINJAUAN PUSTAKA 2.1 Jaringan Saraf Tiruan (JST) ... 5

2.2 Karakteristik JST ... 6

2.3 Pemrosesan Informasi dalam JST ... 7

2.4 Arsitektur Jaringan ... 8

2.5 Pembelajaran/Training dan Testing ... 9

2.6 Metode Pengenalan Pola dengan JST ... 10

2.7 Learning Rate (α) ... 11

2.8 Jaringan Saraf Tiruan Perceptron ... 11

2.9 Jaringan Saraf Tiruan Backpropagation ... 14

2.10 Digital Image Processing ... 18

2.10 Riset-Riset Terkait ... 20

BAB IIIMETODOLOGI PENELITIAN 3.1 Analisis Sistem metode perceptron dan backpropagation ... 22

3.2 Arsitektur Jaringan Metode Perceptron dan Backpropagation ... 23

(13)

3.5 Flowchart Recognition Perceptron dan Backpropagation ... 33

3.6 Perencanaan User Interface ... 35

BAB IVANALISIS DAN PEMBAHASAN 4.1 Inisialisasi untuk Metode Perceptron dan Backpropagation ... 38

4.2 Pelatihan (Training) Perceptron pada daun ... 45

4.3 Pelatihan (Training) Backpropagation pada daun ... 50

4.4 Hasil Evaluasi ... 63

4.5 Pengenalan Perceptron dan Backpropagation pada daun ... 67

4.6 Uji Coba Data yang Dilatihkan ... 67

BAB VANALISIS DAN PEMBAHASAN 5.1 Kesimpulan ... 69

5.2 Saran ... 70

(14)

DAFTAR TABEL

Nomor Judul Halaman

4.1 Hasil input dari daun 42

4.2 Hasil target menggunakan operasi OR dari input 44 4.3 Hasil pembelajaran perceptron sampai Epoh ke-2 48 4.4 Hasil pembelajaran backpropagation sampai Epoh ke-41 57 4.5 Tabel hasil training perceptron dengan learning rate (α)= 0.2 64 4.6 Tabel hasil training Backpropagation dengan learning rate (α)= 0.2 64 4.7 Tabel hasil training perceptron dengan learning rate (α)= 0.5 65 4.8 Tabel hasil training Backpropagation dengan learning rate (α)= 0.5 65 4.9 Tabel hasil training Backpropagation dengan learning rate (α)= 1 66 4.10 Tabel hasil training Backpropagation dengan learning rate (α)= 1 66 4.11 Tabel hasil recognition daun training perceptron dan backpropagation 67 4.12 Tabel hasil recognition daun non-training perceptron dan

(15)

DAFTAR GAMBAR

Nomor Judul Halaman

2.1 JST dengan n input dan satu elemen pemroses 7 2.2 JST dengan n input dan j elemen pemroses 7

2.3 Arsitektur jaringan lapisan tunggal 8

2.4 Arsitektur jaringan banyak lapisan 8

2.5 Arsitektur Jaringan Perceptron 2.6

11 Arsitektur Jaringan Backpropagation

2.7 Boundary Enhancement 20

14

3.1 Arsitektur jaringan metode perceptron 23

3.2 Arsitektur jaringan metode backpropagation 24 3.3 Flowchart garis besar sistem

3.4

25

Flowchart untuk proses gambar 26

3.5 Flowchart untuk proses grayscale 27

3.6 Flowchart proses mengubah gambar menjadi binary image 28

3.7 Flowchart proses Boundary Enhancement 29

3.8 Flowchart pelatihan daun (training) perceptron 30 3.9 Flowchart pelatihan daun (training) backpropagation 32 3.10 Flowchart untuk pengenalan daun (recognition) perceptron 33

3.12

3.11 Flowchart untuk pengenalan daun (recognition) backpropagation 34

Rencana Interface Form Menu 35

3.13 Rencana Interface Form Pelatihan (Training) 36 3.14 Rencana Interface Form Pengenalan (Recognition) 37

4.1 Tampilan Menu Utama 38

4.2 Tampilan Sub Menu Pilihan 39

4.3 Tampilan form training perceptron 39

4.4 Tampilan daun matriks 100 x 100 40

4.5 Tampilan penyederhanaa daun matriks 100 x 100 41

4.6 Tampilan daun matriks 10 x 10 41

(16)

4.8 Tampilan form training Backpropagation 51 4.9 Grafik penurunan Mean Square Error sampai epoh ke-41 62

4.10 Daun yang akan dilatih (training) 63

4.11 Daun yang tidak dilatih (non training) 63

(17)

ANALISIS PERBANDINGAN NEURAL NETWORK BACKPROPAGATION

DENGAN SIMPLE PERCEPTRON DALAM MENGENALI

IMAGE DAUN

ABSTRAK

Dewasa ini jaringan saraf tiruan (JST) sebagai salah satu sistem pengolah informasi yang

memiliki karakteristik kinerja menyerupai jaringan saraf biologis berkembang sangat pesat. Salah satu penerapan jaringan saraf tiruan ini adalah di bidang biologi yaitu dalam pengenalan jenis tanaman. Untuk mengenalkan jenis tanaman tersebut, ada yang melihat dari segi bunga ada pula dari daunnya. Pada riset ini peneliti akan melakukan pelatihan dan pengenalan terhadap daun, dengan menerapkan metode jaringan saraf tiruan

yaitu backpropagation dan simple perceptron. Berdasarkan permasalahan tersebut, maka diperlukan suatu aplikasi pengenalan daun dengan gambar daun sebagai input data dan

feature extraction untuk memroses gambar tersebut. Penelitian ini dimaksudkan untuk membandingkan tingkat akurasi kedua metode tersebut dalam pengenalan image daun. Dari pengujian pada beberapa daun jarak dan bukan jarak, hasil pengenalan pada daun untuk metode perceptron dan backpropagation adalah sama. Tetapi dari tingkat kecepatan untuk pelatihan, pada learning rate(α) = 0.2, 0.5 dan 1, metode perceptron lebih cepat dibandingkan metode backpropagation.

Kata kunci:

(18)

COMPARATIVE ANALYSIS OF BACKPROPAGATION NEURAL NETWORK WITH SIMPLE PERCEPTRON TO IDENTIFY

IMAGE LEAVES

ABSTRACT

As one of the information processing systems, artificial neural networks (ANN) which resembles biological neural networks has grown rapidly. One application of artificial neural networks is in the field of biology which to categorize plant species. In order to determine the species of a plant, one usually looks at its flowers or its leaves. In this research, two artificial neural networks (ANN) methods which are backpropagation and simple perceptron are applied separately in order to evaluate whether a single leaf. A recognition with leaf images as input data is built. Then, the application will do feature extraction whose result will be trained further with both backpropagation and simple perceptron. This study aimed to compare the accuracy of both methods is the introduction of the leaf image. From testing to the

some “jarak” and not “jarak” leaves, the result of recognition on the leaves for the perceptron and the backpropagation method is the same. But the rate of speed for training, the learning rate (α)= 0.2, 0.5 and 1, the perceptron method is faster than the backpropagation method.

Key words:

(19)

BAB 1

PENDAHULUAN

1.1. LATAR BELAKANG MASALAH

Dewasa ini jaringan saraf tiruan (JST) sebagai salah satu sistem pengolah informasi yang memiliki karakteristik kinerja menyerupai jaringan saraf biologis berkembang sangat pesat. Perkembangan ini seiring dengan munculnya berbagai masalah yang tidak dapat diselesaikan dengan efisien oleh proses komputasi konvensional, karena algoritma yang ada tidak dapat diformulasikan secara eksplisit dan membutuhkan informasi dalam jumlah yang besar. Jaringan saraf tiruan, selama ini banyak diterapkan dalam menyelesaikan permasalahan-permasalahan tentang pengenalan pola (pattern recognition), signal processing dan peramalan, menurut Purnomo (2001). .

(20)

nilai bobot-bobotnya dalam dua arah yaitu arah mundur (backward) dan perambatan maju (forward propagation), ini memungkinkan pembentukan jaringan lebih baik dari metode yang lain. Terlebih setelah berhasil ditemukannya berbagai aplikasi yang dapat diselesaikan dengan menggunakan jaringan saraf tiruan backpropagation (Shihab, 2006). Misalnya, Sholahuddin (2002), Wahab (2004), Khan & Sharma (2008), Handayani (2008), Yulianto (2010), Tahmasebi & Hezarkhani (2010).

Salah satu penerapan jaringan saraf tiruan ini adalah di bidang biologi yaitu dalam pengenalan jenis tanaman. Untuk mengenalkan jenis tanaman tersebut, ada yang melihat dari segi bunga ada pula dari daunnya. Dari penelitian sebelumnya, Babu & Srinivasa (2004) telah membahas tentang pengenalan jenis daun menggunakan image processing untuk pengendalian hama dan penyakit pada tanaman. Sistem yang dibuat dengan menggunakan metode backpropagation ini bertujuan untuk melihat daun yang terinfeksi hama dan penyakit pada daun yang nantinya bisa didapatkan solusi untuk penanganannya.

Berdasarkan riset yang pernah diteliti sebelumnya, maka dalam penelitian ini, peneliti ingin melakukan analisa lebih lanjut terhadap daun, dimana daun yang diuji untuk dikenali jenisnya akan menggunakan 2 metode yaitu backpropagation dan simple perceptron, yang didesain untuk operasi pada JST dalam hal pengenalan pola.

Adapun langkah pertama, gambar (image) daun yang didapat terlebih dahulu diproses dengan pemrosesan citra digital seperti pengubahan ke grayscale, konversi ke biner, serta boundary enhancement. Kemudian dilakukan feature extraction untuk mendapatkan ciri-ciri yang dapat mewakili fitur dari

masing-masing daun yang diuji cobakan. Hasil dari feature extraction ini nantinya akan digunakan sebagai input terhadap metode backpropagation dan simple perceptron, kemudian akan diuji dalam sebuah sistem yang dapat melakukan

(21)

Berdasarkan latar belakang masalah diatas, maka penulis tertarik untuk meneliti bidang ini dengan mengambil judul “Analisis Perbandingan Neural Network Backpropagation dengan Simple Perceptron dalam Mengenali Image

daun”.

1.2.

Metode Backpropagation telah banyak digunakan sebelumnya oleh para peneliti untuk diaplikasikan ke berbagai objek, seperti pengenalan pola huruf abjad, pengenalan hama dan penyakit pada daun, tes psikologi, identifikasi bentuk rancang bangun gambar 2D, dan yang lainnya. Yang menjadi rumusan masalah dalam penelitian ini adalah metode backpropagation dan simple perceptron akan digunakan untuk melakukan pelatihan dan pengenalan terhadap daun, hal ini dimaksudkan untuk membandingkan tingkat akurasi kedua metode tersebut dalam pengenalan daun.

PERUMUSAN MASALAH

1.3. TUJUAN PENELITIAN

Tujuan dari penelitian ini adalah menganalisis dan membandingkan tingkat keberhasilan metode backpropagation dan metode simple perceptron dalam mengenali pola image daun.

1.4. MANFAAT PENELITIAN

Manfaat yang diharapkan dalam penelitian ini adalah:

1. Hasil penelitian dan program aplikasi ini dibuat untuk mengetahui kelebihan dan kekurangan dari metode perceptron dan backpropagation dalam mengenali image daun.

(22)

1.5. BATASAN MASALAH

Batasan masalah dalam penelitian ini adalah : 1.

2.

Metode Jaringan Saraf Tiruan yang digunakan yaitu metode backpropagation dan simple perceptron untuk training dan

recognition.

Daun yang digunakan untuk training dan recognation adalah :

Daun dewasa, dikarenakan bentuk dan ciri daun tersebut tidak akan berubah.

Jumlah daun yang diujikan adalah 1 jenis daun, yaitu daun jarak.

Kondisi daun yang dikondisikan sebagai input data adalah daun utuh, rusak sebahagian dan layu.

Input neural network adalah hasil ekstraksi fitur dari gambar daun.

(23)

BAB II

TINJAUAN PUSTAKA

2.1. Jaringan Saraf Tiruan (JST)

Jaringan saraf tiruan pertama kali secara sederhana diperkenalkan oleh McCulloch dan Pitts pada tahun 1943. McCulloch dan Pitts menyimpulkan bahwa kombinasi beberapa neuron sederhana menjadi sebuah sistem neural akan meningkatkan kemampuan komputasinya. Bobot dalam jaringan yang diusulkan oleh McCulloch dan Pitts diatur untuk melakukan fungsi logika sederhana. Fungsi aktivasi yang dipakai adalah fungsi threshold.

Artificial Neural Network atau Jaringan Saraf Tiruan (JST) adalah salah

satu cabang dari Artificial Intelligence. JST merupakan suatu sistem pemrosesan informasi yang memiliki karakteristik-karakteristik menyerupai jaringan saraf biologi (Fauset, 1994). Hal yang sama diutarakan oleh Simon Haykin, yang menyatakan bahwa JST adalah sebuah mesin yang dirancang untuk memodelkan cara otak manusia mengerjakan fungsi atau tugas-tugas tertentu. Mesin ini memiliki kemampuan menyimpan pengetahuan berdasarkan pengalaman dan menjadikan simpanan pengetahuan yang dimiliki menjadi bermanfaat (Haykin, 2008).

JST dibentuk sebagai generalisasi model matematika dari jaringan saraf biologi, dengan asumsi bahwa :

1. Pengolahan informasi terdiri dari elemen-elemen sederhana yang disebut neuron. Neuron dalam jaringan saraf tiruan sering diganti dengan istilah simpul.

(24)

3. Tiap hubungan koneksi mempunyai nilai bobot sendiri. Nilai bobot ini menyediakan informasi yang akan digunakan oleh jaringan untuk memecahkan masalah.

4. Tiap simpul mempergunakan fungsi aktivasi terhadap input yang diterimanya untuk menentukan sinyal keluaran.

2.2. Karakteristrik JST

Karakteristik JST ditentukan oleh 3 hal yaitu:

1. Pola hubungan antar neuron disebut arsiktektur jaringan.

2. Metode untuk menentukan nilai bobot tiap hubungan disebut training/pembelajaran.

3. Fungsi aktivasi (Fungsi Transfer). Fungsi aktivasi dipakai untuk menentukan keluaran suatu neuron. Argumen fungsi aktivasi adalah net masukan (kombinasi linier masukan dan bobotnya). Jika net= ∑xiwi, maka fungsi aktivasinya adalah f(net)=f(∑x iwi

a. Fungsi treshold (batas ambang)

). Beberapa fungsi aktivasi yang sering dipakai adalah sebagai berikut:

f(x) = jikax a

a x jika

  1

0

b.Fungsi Sigmoid

f(x) = x e− + 1

1

Fungsi sigmoid sering dipakai karena nilai fungsinya yang terletak antara 0 dan 1 dan dapat diturunkan dengan mudah.

f’(x) = f(x) (1-f(x)) c.Fungsi Identitas

f(x) = x.

(25)

2.3. Pemrosesan Informasi dalam JST

Aliran informasi yang diproses disesuaikan dengan arsitektur jaringan. Beberapa konsep utama yang berhubungan dengan proses adalah:

1. Input (masukan), setiap input bersesuaian dengan suatu atribut tunggal. Serangkaian input pada JST diasumsikan sebagai vektor X yang bersesuaian dengan sinyal-sinyal yang masuk ke dalam sinapsis neuron biologis.

2. Output (keluaran), output dari jaringan adalah penyelesaian masalah. Tujuan akhir pembelajaran terhadap variabel masukan X adalah menghasilkan nilai keluaran Y (output) sedekat mungkin dengan nilai keluaran d yang ditargetkan (beda nilai antara keluaran terhadap masukan disebut nilai kesalahan atau error value)

3. Weight (bobot), mengekspresikan kekuatan relatif (atau nilai matematis) dari input data awal atau bermacam-macam hubungan yang mentransfer data dari layer ke layer.

4. Fungsi Penjumlahan, menggandakan setiap nilai input xi dengan bobot

wi dan menjumlahkannya bersama-sama untuk memperoleh suatu

output Y. Fungsi penjumlahan ini bersesuaian dengan badan sel biologis (soma). Untuk n input terhadap satu elemen pemroses (node) terlihat pada gambar 2.1:

Gambar 2.1. JST dengan n input dan satu elemen pemroses(Fausett, 1994) (2.1)

(2.2)

(26)

Untuk n input terhadap beberapa (j) elemen pemroses terlihat pada gambar 2.2:

Gambar 2.2. JST dengan n input dan j elemen pemroses (Fausett, 1994)

2.4. Arsitektur Jaringan

Arsitektur jaringan saraf tiruan digolongkan menjadi 2 model: 1. Jaringan dengan lapisan tunggal (single layer net)

Dalam jaringan ini, sekumpulan input neuron dihubungkan langsung dengan sekumpulan output-nya, seperti gambar 2.3 :

Gambar 2.3. Arsitektur jaringan lapisan tunggal (Siang, 2005)

(2.4)

(2.5)

(27)

2. Jaringan dengan banyak lapisan (multilayer net)

Jaringan ini merupakan perluasan dari lapisan tunggal. Dalam jaringan ini, selain unit input dan output, ada unit-unit lain yang sering disebut lapisan tersembunyi. Lapisan tersembunyi ini bisa saja lebih dari satu, seperti gambar 2.4 :

Gambar 2.4. Arsitektur jaringan banyak lapisan(Siang, 2005)

2.5. Pembelajaran / Training dan Testing

Proses pembelajaran suatu JST melibatkan tiga pekerjaan, sebagai berikut: 1. Menghitung output.

2. Membandingkan output dengan target yang diiinginkan. 3. Menyesuaikan bobot dan mengulangi proses

Proses training dimulai dengan men-set bobot dengan aturan tertentu atau random. Perbedaan output aktual (Y atau YT) dan output yang diinginkan disebut

delta. Tujuan yang sebenarnya adalah meminimalkan error. Dalam proses testing ini diberikan input data yang disimpan dalam disk (file testing). JST yang telah dilatih akan mengambil data tersebut dan memberikan output yang merupakan “Hasil Prediksi JST”. JST memberikan output berdasarkan bobot yang disimpan dalam proses training.

(28)

2.6. Metode Pengenalan Pola (Recognition) dengan Jaringan Saraf Tiruan

Metode pengenalan pola dengan JST ini dilatih dengan seperangkat data untuk bisa mengenal dan mengidentifikasi pola data atau kurva. Proses pelatihan ini sering disebut tahap belajar (learning process). Sehingga learning process ini menjadi bagian yang penting juga dalam metode ini. Pemilihan algoritma dan parameter yang bersesuaian dan penentuan berapa banyak perangkat data yang dibutuhkan dalam learning process ini sangat penting untuk menentukan akurasi dari peramalan yang dihasilkan (Hagan, 1996).

Pada saat awal neural network diset secara acak, kemudian perangkat data dimasukkan ke jaringan saraf untuk pembelajaran atau pelatihan. Ketika data dimasukkan, jaringan saraf akan belajar dengan mengubah parameter-parameternya sehingga semakin mendekati atau semakin sesuai dengan pola data masukan tersebut. Ketika semua data latih sudah dimasukkan, jaringan saraf dianggap sudah dapat mengenal dan mengidentifikasi pola data tersebut sehingga telah siap digunakan untuk menghasilkan keluaran. Hasil keluarannya dengan demikian akan sesuai dengan pola data yang telah diidentifikasi oleh neural network.

Pada prinsipnya ada dua cara untuk melatih neural network yaitu dengan supervised learning dan unsupervised learning. Pada unsupervised learning,

neural network hanya diberi data masukan saja tapi bagaimana outputnya tidak

ditentukan. Ketika data yang dimasukkan bertambah, neural network akan mengkategorikan atau mengelompokkan data masukan tersebut. Pada supervised learning, neural network diberi sepasang data latih yang terdiri dari data masukan

dan target. Jadi ketika data yang dimasukan bertambah neural network akan mengubah karakteristik internalnya agar sebisa mungkin menghasilkan keluaran seperti targetnya. Maka dengan demikian cara learning yang bisa dipakai untuk pengenalan pola adalah yang supervised learning karena data yang harus dilatihkan adalah berupa pasangan data input dan target (Hagan, 1996).

Neural network yang dilatih dengan supervised learning ada banyak

(29)

adaptive linear neuron (ADALINE), backpropagation, Gradient Type Network,

Linear Associative Memory (Hagan, 1996).

2.7. Learning Rate(α)

Learning rate merupakan salah satu parameter training untuk menghitung nilai

koreksi bobot pada waktu proses training. Nilai α ini berada pada range nol (0) sampai (1). Semakin besar nilai learning rate, maka proses training akan berjalan semakin cepat. Namun apabila nilai learning rate relatif terlalu besar, pada umumnya proses training dapat melampaui keadaan optimal yaitu pada saat dicapai nilai error yang paling minimal. Dengan kata lain, learning rate mempengaruhi ketelitian jaringan suatu sistem. Semakin besar learning rate, maka ketelitian jaringan akan semakin berkurang, tetapi berlaku sebaliknya, apabila learning rate-nya semakin kecil, maka ketelitian jaringan akan semakin besar atau

bertambah dengan konsekuensi proses training akan memakan waktu yang semakin lama (Skapura, 1991, pp.104)

2.8. Jaringan Saraf Tiruan Perceptron

Model jaringan perceptron ditemukan oleh Rosenblatt (1962) dan Minsky-Papert

(1969)

(30)
[image:30.595.235.408.131.268.2]

Gambar 2.5.Arsitektur Jaringan Perceptron (Du et al, 2006)

Jaringan terdiri dari beberapa unit masukan (ditambah sebuah bias), dan memiliki sebuah unit keluaran. Hanya saja fungsi aktivasi bukan merupakan fungsi biner (atau bipolar), tetapi memiliki kemungkinan nilai -1, 0 atau 1.

Untuk suatu harga treshold θ yang ditentukan:

f (net) =

Secara geometris, fungsi aktivasi membentuk 2 garis sekaligus, masing-masing dengan persamaan :

w1x1 + w2x2 + ... + wnxn

w

+ b = θ, dan 1x1 + w2x2 + ... + wnxn + b = -θ

2.8.1. Algoritma perceptron Misalkan

s adalah vektor masukan dan t adalah target keluaran α adalah laju pemahaman (learning rate) yang ditentukan θ adalah threshold yang ditentukan

Algoritma pelatihan perceptron adalah sebagai berikut:

1

X

X

x

y

b

w

w

w ...

{

1 0 -1

Jika net > θ Jika –θ≤ net ≤θ

Jika net <- θ

(2.7)

(31)

1. Inisialisasi semua bobot dan bias (umumnya wi

Set learning rate :

α

(0<

α

≤ 1). Untuk penyederhanaan, biasanya α diberi nilai=1

= b = 0)

2. Selama kondisi berhenti bernilai false, lakukan langkah-langkah berikut: a. Set aktivasi unit masukan xi = si

b. Hitung respon unit keluaran : y_in =

(i = 1, ..., n)

+

i i

iw b

x

y=f (net) =

c. Perbaiki bobot dan bias jika terjadi error: Jika y ≠ t maka :

wi (baru) = wi (lama) +α t x

b (baru) = b (lama) + α t

i

Jika tidak maka : wi (baru) = wi

b (baru) = b (lama) (lama)

3. Tes kondisi berhenti : jika terjadi perubahan bobot pada (i) maka kondisi berhenti TRUE, namun jika masih terjadi perubahan maka kondisi berhenti FALSE.

2.8.2. Delta Rule

Widrow dan Hoff (1960) mengembangkan perceptron dengan memperkenalkan aturan pelatihan jaringan, yang dikenal sebagai aturan delta (atau sering disebut kuadrat rata-rata terkecil). Aturan ini akan mengubah bobot perceptron apabila keluaran yang dihasilkan tidak sesuai dengan target yang diinginkan. Pada delta rule akan mengubah bobot yang menghubungkan antara jaringan input ke unit

input (y_in) dengan nilai target (t). Hal ini dilakukan untuk meminimalkan error

{

1 0 -1

Jika y_in > θ

(32)

selama pelatihan pola. Delta rule untuk memperbaiki bobot ke-i (untuk setiap pola) adalah :

∆wi=α(t-y_in) x

dengan :

i

x = vektor input

y_in = input jaringan ke unit output Y y_in =

=

n

i i

iw

x

1

t = target (output)

Nilai w baru diperoleh dari nilai w lama ditambah dengan ∆w, wi = wi+∆wi

2.9. Jaringan Saraf Tiruan Backpropagation

Jaringan Saraf Tiruan Propagasi Balik (Backpropagation) merupakan jaringan saraf tiruan yang populer digunakan untuk memecahkan masalah. Model Propagasi Balik pertama kali ditemukan oleh Paul Werbos pada tahun 1974, kemudian dikembangkan secara terpisah oleh Rumelhart, yang memungkinkan jaringan diproses melalui beberapa layer. Sejak dikembangkan oleh Rumelhart, model Propagasi Balik sangat diminati untuk digunakan sebagai algoritma pembelajaran pada JST multilayer. Hal ini disebabkan karena model Propagasi Balik dapat menangulangi kelemahan pada JST single layer dalam pengenalan pola. Kelemahan ini dapat ditanggulangi dengan menambahkan satu atau beberapa lapisan tersembunyi (hidden layer) diantara lapisan masukan dan keluaran. Gambar 2.6 merupakan arsitektur model backpropagation yang memiliki beberapa unit yang ada dalam satu atau lebih lapisan tersembunyi.

(2.9)

(2.10)

(33)
[image:33.595.209.402.96.244.2]

Gambar 2.6.Arsitektur Model Backpropagation (Du et al, 2006)

JST propagasi balik adalah JST dengan topologi multilayer dengan satu layer masukan (lapis X), satu atau lebih lapis hidden atau tersembunyi (lapis Z) dan satu layer keluaran (lapis Y). Setiap lapis memiliki neuron-neuron (unit-unit) yang dimodelkan dengan lingkaran (Gambar 2.6). Di antara neuron pada satu layer dengan neuron pada layer berikutnya dihubungkan dengan model koneksi

yang memiliki bobot-bobot (weights), w dan v. Lapis tersembunyi dapat memiliki bias

Pelatihan dengan backpropagation sama halnya seperti pelatihan pada jaringan saraf yang lain. Pada jaringan feedfoward (umpan maju), pelatihan dilakukan dalam rangka perhitungan bobot sehingga pada akhir pelatihan akan diperoleh bobot-bobot yang baik. Selama proses pelatihan, bobot-bobot diatur secara iteratif untuk meminimumkan error (kesalahan) yang terjadi. Kesalahan dihitung berdasarkan rata-rata kuadrat kesalahan (MSE). Rata-rata kuadrat kesalahan juga dijadikan dasar perhitungan unjuk kerja fungsi aktivasi.

, yang memiliki bobot sama dengan satu (Dhaneswara et al, 2004).

Ada 3 fase Pelatihan backpropagation antara lain : 1. Fase 1, yaitu propagasi maju.

Dalam propagasi maju, setiap sinyal masukan dipropagasi (dihitung maju) ke layer tersembunyi hingga layer keluaran dengan menggunakan fungsi aktivasi

(34)

2. Fase 2, yaitu propagasi mundur.

Kesalahan (selisih antara keluaran jaringan dengan target yang diinginkan) yang terjadi dipropagasi mundur mulai dari garis yang berhubungan langsung dengan unit-unit di layar keluaran.

3. Fase 3, yaitu perubahan bobot.

Pada fase ini dilakukan modifikasi bobot untuk menurunkan kesalahan yang terjadi. Ketiga fase tersebut diulang-ulang terus hingga kondisi penghentian dipenuhi.

2.9.1. Algoritma backpropagation:

o Inisialisasi bobot (ambil bobot awal dengan nilai random yang cukup kecil). o Kerjakan langkah-langkah berikut selama kondisi bernilai FALSE :

1. Untuk tiap-tiap pasangan elemen yang akan dilakukan pembelajaran, kerjakan:

Feedforward:

a. Tiap-tiap unit input (Xi, i=1,2,3,...,n) menerima sinyal xi

b. Tiap-tiap unit tersembunyi (Z

dan meneruskan sinyal tersebut ke semua unit pada lapisan yang ada diatasnya (lapisan tersembunyi).

i

z_in

, j=1,2,3,...,p) menjumlahkan sinyal-sinyal input terbobot :

j= v0 j

= n i ij iv x 1 +

gunakan fungsi aktivasi untuk menghitung sinyal output-nya : zj = f(z_inj

dan kirimkan sinyal tersebut ke semua unit di layer atasnya (unit-unit output)

)

c. Tiap-tiap unit output (Yk

y_in

, k=1,2,3,...,m) menjumlahkan sinyal-sinyal input terbobot.

k= w0 k

(35)

gunakan fungsi aktivasi untuk menghitung sinyal outputnya : yk = f(y_ink

dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya (unit-unit output).

)

Backpropagation:

d. Tiap-tiap unit output (Yk

δ

, k=1,2,3,...,m) menerima target pola yang berhubungan dengan pola input pembelajaran, hitung informasi error-nya:

k= (tk-yk) f’(y_ink

kemudian hitung koreksi bobot (yang nantinya akan digunakan untuk memperbaiki nilai w

)

jk

∆w

) :

jk=α δk zj

hitung juga koreksi bias (yang nantinya akan digunakan untuk memperbaiki nilai w0k

∆w ):

0k=α δk

kirimkan ini ke unit-unit yang ada layer bawahnya. e. Tiap-tiap unit tersembunyi (Zj

δ_in

, j=1,2,3,...,p) menjumlahkan delta input-nya (dari unit-unit yang berada pada lapisan di atasinput-nya):

j

= m k jk kw 1 δ =

kalikan nilai ini dengan turunan dari fungsi aktivasinya untuk menghitung informasi error :

δj = δ_ in j f’(z_inj

kemudian hitung koreksi bias (yang nantinya akan digunakan untuk memperbaiki nilai v

)

ij

∆v ) :

jk=α δj x

hitung juga koreksi bias (yang nantinya akan digunakan untuk memperbaiki nilai v

i

(36)

∆v0j=α δ

f. Tiap-tiap unit output (Y

j

k

w

, k=1,2,3,...,m) memperbaiki bias dan bobotnya (j=0,1,2,...,p):

jk(baru)=wjk(lama)+ ∆w

tiap-tiap unit tersembunyi (Z

jk

j

v

, j=1,2,3,...,p) memperbaiki bias dan bobtnya (i=0,1,2,...,n):

ij(baru)= vij (lama)+ ∆ vij

2. Tes kondisi berhenti.

2.10. Digital Image Processing

Gonzales (2002) mendefenisikan image processing adalah suatu metode yang digunakan untuk mengolah atau memanipulasi gambar dalam bentuk 2 dimensi. Image Processing dapat juga dikatakan segala operasi untuk memperbaiki,

menganalisa, atau mengubah suatu gambar. Konsep dasar pemrosesan gambar digital menggunakan image processing diambil dari kemampuan indera manusia yang selanjutnya dihubungkan dengan kemampuan otak manusia untuk melakukan proses atau pengolahan terhadap gambar digital tersebut.

Pada umumnya objektivitas dari image processing adalah melakukan transformasi atau analisa suatu gambar sehingga informasi baru tentang gambar dibuat lebih jelas.

2.10.1.Grayscaling

Grayscaling adalah proses perubahan nilai pixel dari warna (RGB) menjadi

gray-level (Gonzalez, 2002). Pada dasarnya proses ini dilakukan dengan meratakan

(37)

Gray= 0.2989 * R + 0.5870 * G + 0.1140 * B

Keterangan: R = merah(red) G = hijau(G) B = biru(B)

2.10.2.Thresholding

(Wu, 2007), Gambar hitam putih relatif lebih mudah dianalisa dibandingkan dengan gambar berwarna Karena itu sebelum dianalisa, gambar dikonversikan terlebih dahulu menjadi binary image. Proses konversi ini disebut thresholding. Dalam proses thresholding, warna yang ada dikelompokkan menjadi 0 (hitam) dan 1 (putih). Pengelompokannya berdasarkan pada suatu konstanta ambang batas (level). Jika nilai pixel lebih besar sama dengan level, maka nilai output-nya adalah 1, dan sebaliknya, jika nilai pixel lebih kecil dari level, maka nilai output-nya 0. Jika f(n,m) adalah pixel pada gambar awal, dan g(n,m) adalah picel gambar yang sudah melalui proses thresholding, maka:

g(n,m) = 0 jika f(n,m) < level g(n,m) = 1 jika f(n,m) ≥ level

2.10.3.Boundary Enhancement

(Wu, 2007), Boundary dari sebuah region adalah kumpulan dari semua pixel yang terdapat pada region tersebut yang memiliki paling sedikit satu tetangga pixel yang tidak terdapat di dalam region tersebut. Boundary Enhancement digunakan untuk menentukan margin dari daun. Pada bagian ini, untuk menentukan margin suatu objek menggunakan Laplacian Filter dengan 3x3 spatial mask, seperti Gambar 2.7:

(38)

Gambar 2.7. Boundary Enhancement (Wu, 2007)

Laplacian adalah sebuah ukuran isotropic 2-D dari turunan spatial kedua dari

sebuah image. Laplacian Filter menyoroti area gambar dengan mengubah intensitas secara cepat dan biasanya digunakan untuk mendeteksi garis.

2.11. Riset-riset terkait

Terdapat beberapa riset yang telah dilakukan oleh banyak peneliti berkaitan dengan metode backpropagation dan simple perceptron seperti yang akan dijelaskan di bawah ini.

Sholahuddin (2002), dalam risetnya menjelaskan bahwa neural network dengan menggunakan metode backpropagation telah diaplikasikan dengan sukses untuk pengenalan pola huruf abjad. Untuk mencobanya dibuat software yang di-training untuk mengenali pola huruf setelah itu dicoba untuk mengenali huruf

yang dimasukkan, ternyata software tersebut mengenalinya bahkan dicoba huruf-huruf tersebut diberi noise, tapi dalam batas-batas tertentu tetap masih mengenali huruf-huruf tersebut. Dari metode tersebut bisa dikembangkan lebih jauh lagi, misalnya pengenalan pola wajah, pengenalan pola tanda tangan dan lain-lain.

Wahab (2004), dalam risetnya menjelaskan bahwa aplikasi jaringan saraf tiruan berupa perceptron dengan algoritma supervised learning, yaitu metode backpropagation dan dikenal sebagai backpropagation multi layer perceptron

atau BMLP. Jaringan BMLP ini menggunakan fungsi integrasi linier dan fungsi aktivasi sigmoid unipolar dengan λ=1. Jaringan BMLP ini akan digunakan untuk mengidentifikasi persamaan dinamika sistem. Pada kasus pertama, digunakan dinamika sistem berupa persamaan matematika non-linier sederhana, yang memiliki karakteristik dinamika sistem satu masukan dan satu keluaran. Jaringan

(39)

BMLP yang digunakan terdiri dari dua lapis, lapis tersembunyi pertama dengan 8 simpul dan lapis kedua merupakan layer keluaran. Proses belajar jaringan akan menggunakan aturan belajar backpropagation dengan konstanta belajar η=1. Identifikasi menggunakan sejumlah data yang diperoleh dari pasangan masukan-keluaran sistem yang akan dibangkitkan dari sistem tersebut sehingga hasil identifikasi dapat dibandingkan langsung. Pada kasus kedua, jaringan BMLP digunakan untuk mengidentifikasi dinamika sistem kiln semen, yang merupakan sistem nonlinier multivariabel. BMLP terdiri dari 8 masukan dan 20 neuron pada layer tersembunyi pertama, 10 neuron pada layer tersembunyi kedua dan 5 keluaran, digunakan untuk mengidentifikasi dinamika sistem kiln semen berdasarkan data masukan dan keluaran sistem yang diperoleh langsung dari akuisisi data di suatu pabrik semen di dalam negeri. Hasil riset menunjukkan ketelitian identifikasi tergantung kepada jumlah epoch yang digunakan dalam melatih JST tersebut.

Yulianto (2010), dalam risetnya menjelaskan bahwa di dunia teknologi, media layar sentuh atau smartboard sebagai langkah kemajuan dibidang media pembelajaran. Sedang dari layar sentuh atau smartboard yang dijadikan dalam penelitian ini adalah bagaimana layar sentuh atau smartboard tersebut bisa mengidentifikasi bentuk rancang bangun gambar 2D menjadi output sesuai dengan target yang diinginkan. Neural Network adalah salah satu cabang dari Artificial Intelligent. Salah satu metode dalam Neural Network adalah

Backpropagation. Aplikasi Neural Network diantaranya : untuk prediksi, pengenalan pola, identifikasi dan simulasi. Proses identifikasi rancang bangun memerlukan image processing agar dapat digunakan sebagai masukan pada Neural Network. Dalam paper ini, Neural Network dengan menggunakan metode

(40)

BAB 3

METODOLOGI PENELITIAN

3.1 Analisis Sistem metode perceptron dan backpropagation

Tahapan analisis terhadap suatu sistem dilakukan sebelum tahapan perancangan dilakukan. Sistem pengenalan pola pada penelitian ini adalah neural network dengan backpropagation dan perceptron sebagai metode pelatihan untuk memperoleh bobot neural network sebagai aplikasi pengenalan daun. Gambar yang akan digunakan sebagai data pelatihan maupun data pengujian terlebih dahulu diolah menggunakan image processing sehingga dapat digunakan sebagai masukan neural network. Data gambar berwarna diubah menjadi manjadi data gambar grayscale sehingga diperoleh dimensi data yang lebih kecil. Proses selanjutnya adalah proses thresholding yaitu proses mengubah gambar yang memiliki tingkat warna abu-abu menjadi gambar biner berdasarkan suatu nilai tertentu yang menjadi tolak ukurnya yaitu nilai antara 0 (hitam) 255 (putih).

Salah satu unsur pokok yang harus dipertimbangkan dalam tahapan analisis sistem ini yaitu masalah perangkat lunak, karena perangkat lunak yang digunakan haruslah sesuai dengan masalah yang akan diselesaikan. Software yang dipakai untuk perancangan perangkat lunak adalah Microsoft Visual Basic 6.0. Software ini dipilih karena tampilan dan penggunaan tools-nya yang user friendly.

Untuk memudahkan perancangan perangkat lunak tersebut, maka dibutuhkan arsitektur jaringan dari metode perceptron dan backpropagation serta flowchart dari setiap mekanisme yang ada. Alasan penggunaan arsitektur jaringan dan flowchart adalah supaya dapat digambarkan secara jelas alur dari proses, struktur

(41)

pada sistem. Setelah arsitektur jaringan dan flowchart terbentuk, barulah dilakukan proses pembentukan sistem yang sebenarnya.

3.2 Arsitektur Jaringan Metode Perceptron dan Backpropagation

Arsitektur jaringan untuk metode perceptron yang akan diterapkan pada sistem dalam penelitian ini yaitu terdapat 2 input (x1 dan x2) dengan 1 output (target t).

Arsitektur jaringan terdiri dari 1 lapisan input dan 1 lapisan output. Hanya ada 1 neuron pada lapisan output, karena target yang diharapkan berbentuk biner, maka fungsi aktivasi yang digunakan adalah fungsi hard limit, dirumuskan sebagai:

y=

Arsitektur jaringan untuk metode perceptron seperti yang ditunjukkan pada gambar 3.1:

Gambar 3.1.Arsitektur jaringan metode perceptron

{

1, 0,

Jika x ≤ 0

Jika x > 0

x2

x1

∑xw

w2

F(y_in) y_in

w1

(42)

Untuk metode backpropagation seperti yang ditunjukkan pada gambar 3.2, akan dibentuk jaringan saraf untuk operasi XOR. Ada 2 input (x1 dan x2

• Lapisan input, Bobot awal yang menguhubungkan neuron-neuron pada lapisan input dan lapisan tersembunyi (v

) dengan 1 output (target t). Arsitektur jaringan terdiri dari:

11, v12, v21, v22) dan bobot bias v01

dan v02 dipilih secara acak. Demikian pula bobot awal yang menghubungkan

neuron-neuron pada lapisan tersembunyi dan lapisan output (w1,w2) dan

bobot bias w0

• Lapisan tersembunyi dengan 4 neuron, fungsi aktivasi yang digunakan pada setiap neuron pada lapisan ini adalah fungsi sigmoid : z=

juga dipilih secara acak.

in z e _ 1 1 − +

• Lapisan output dengan 1 neuron, fungsi aktivasi yang digunakan pada neuron di lapisan ini adalah fungsi sigmoid: y= y in

e _ 1

1

[image:42.595.113.558.442.707.2]

+

Gambar 3.2.Arsitektur jaringan metode backpropagation z1

y x1

V01+

= 2 1 1 i i iv

x z_in1

z2 V02+

= 2 1 2 i i iv

x z_in2

z3 V03+

= 2 1 3 i i iv

x z_in3

z4 V04+

= 2 1 4 i i iv

x z_in4

x2

1

w0+

(43)

3.3 Flowchart Sistem

[image:43.595.194.440.278.708.2]

Pada sub bab ini, akan membahas flowchart dari sistem secara keseluruhan menggunakan metode backpropagation dan simple perceptron. Secara garis besar, sistem aplikasi ini dibagi menjadi 2 bagian utama, yaitu pelatihan (training) daun, dan pengenalan (recognition) daun. Flowchart dari sistem akan ditunjukkan pada gambar 3.3:

Gambar 3.3.

Ya

Flowchart garis besar sistem Mulai

Training ?

Input Gambar

Proses Gambar

Ekstraksi Fitur

Recognition

NN

Bandingkan Hasil Input Gambar

Proses Gambar

Ekstraksi Fitur

Set Nama Tanaman

Training NN

SELESAI

Tidak

Simpan ke database

Recognition ?

(44)
[image:44.595.260.364.316.560.2]

Pada proses gambar merupakan proses yang menunjukkan pendahuluan gambar untuk mendapatkan ekstraksi fitur pada daun. Proses ini mengubah gambar RGB menjadi grayscale. Kemudian dari grayscale diproses menjadi gambar biner (image binary), yang biasanya disebut dengan proses thresholding. Untuk mencari tepi daun yang biasanya disebut margin, menggunakan boundary enhancement. Flowchart ini dapat dilihat pada gambar 3.4:

Gambar 3.4.Flowchart untuk proses gambar

Proses Gambar

Grayscale

Binary Image

boundary enhancement

(45)

Berikut ini adalah penjelasan lebih detail dari flowchart di atas:

3.3.1 Grayscale

Pada proses grayscale, mengambil nilai dari tiap-tiap pixel gambar, dimana nilai pixel R dikalikan dengan 0.2989, nilai pixel G dikalikan dengan 0.5870, dan nilai

pixel B dikalikan dengan 0.1140. Gambar 3.5 berikut ini adalah flowchart dari

[image:45.595.191.435.296.569.2]

proses grayscale:

Gambar 3.5.Flowchart untuk proses grayscale

Grayscale

Get pixel

R= Pixel R*0.2989 G= Pixel G*0.5870 B= Pixel B*0.1140

Stop Grayscale = 255

binari = 0

grayscale> 190

Ya

Tidak

(46)

3.3.2 Convert ke Binary Image

[image:46.595.196.457.221.580.2]

Pada proses ini mengubah gambar dari grayscale menjadi gambar binary (hitam-putih) dengan batasan level tertentu. Gambar 3.6 berikut ini adalah flowchart dari proses convert ke binary image :

Gambar 3.6.Flowchart untuk proses mengubah gambar menjadi binary

Convert ke Binary Image

for Y=0 to 100

For X=0 to 100

get pixel

Pixel = 0

Stop

Pixel > level Ya pixel = 1

Tidak

i = Y

(47)

3.3.3 Boundary Enhancement

[image:47.595.191.461.202.685.2]

Pada proses ini terjadi proses untuk mencari margin dengan menggunakan laplacian filter, dimana laplacian filter sebagai template, seperti Gambar 3.7:

Gambar 3.7.Flowchart untuk boundary enhancement

Boundary Enhancement

for i=0 to tinggi gambar-1

for j=0 to lebar gambar-1

get pixel

margin = 0

Stop

Margin>pow(dimensi 2) Ya Margin=1

Tidak

Margin=0

for k=-dimensi/2 to

Margin=margin-pixel^tempalte

Print margin

k = 0

i = 0

(48)

3.4 Flowchart Training Perceptron dan Backpropagation

Pada bagian ini, input training adalah geometri dasar daun dari proses ekstraksi fitur. Kemudian dilakukan inisialisasi bobot awal (set weight) dengan data transpose dari input training. Kemudian masuk ke dalam proses pembelajaran

[image:48.595.237.502.310.621.2]

atau training untuk mendapatkan bobot (weight) yang sesuai. Proses akhir menyimpan bobot awal dan bobot akhir yang akan digunakan untuk proses pengenalan. Flowchart untuk training perceptron ini dapat dilihat pada gambar 3.8:

Gambar 3.8.Flowchart pelatihan daun (training) perceptron

Training NN

Input NN

Set weight = transpose dari input

Y_in =∑xiwi

Stop Save weight awal

dan akhir Y_in=target

Ya

Tidak New weight =

(49)

Sedangkan 3.9:

untuk training backpropagation ditunjukkan pada flowchart gambar

Training NN

Input NN

Set weight = transpose dari input

Y_in =∑xiwi

z_in j= v0 j+

=

n

i ij iv

x

1

fungsi aktivasi untuk menghitung sinyal output-nya: zj = f(z_inj)

y_in k= w0 k+

=

p

i

jk

iw

z

1

fungsi aktivasi untuk menghitung sinyal output-nya= yk = f(y_ink)

hitung informasi error-nya:

δk= (tk-yk) f’(y_ink)

hitung koreksi bobot untuk memperbaiki nilai wjk ; ∆wjk=α δk zj

hitung koreksi bias untuk memperbaiki nilai w0k: ∆w0k=α δk

(50)
[image:50.595.200.485.101.638.2]

Gambar 3.9.Flowchart pelatihan daun (training) backpropagation

Stop error<target error

Save weight awal dan akhir menjumlahkan delta input-nya

δ_in j=

=

m

k

jk

kw

1

δ

hitung informasi error-nya:

δj= δ_ in j f’(z_inj)

hitung koreksi bobot untuk memperbaiki nilai vij ; ∆vjk=α δj xi

hitung koreksi bias untuk memperbaiki nilai v0j: ∆v0j=α δj

memperbaiki bias dan bobotnya wjk(baru)=wjk(lama)+ ∆wjk

memperbaiki bias dan bobotnya vij(baru)= vij (lama)+ ∆ vij

Ya

Tidak

1

(51)

3.5 Flowchart Recognition Perceptron dan Backpropagation

[image:51.595.250.374.344.702.2]

Proses pertama yang dilakukan adalah mengambil (load) dan menentukan target pelatihan (training) yang disimpan dari database. Input NN diperoleh dari ekstraksi geometri dasar daun. Kemudian mengambil (load) data bobot (weight) awal dan akhir database dan memasukkan nilai bobot ke dalam variabel bobot untuk proses pengenalan (recognition). Setelah mendapatkan nilai aktivasinya, dicari hasil output (find output) dan dibandingkan hasilnya dengan membandingkan target yang sudah disimpan di dalam database. Flowchart untuk recognition perceptron ini disajikan pada gambar 3.10:

Gambar 3.10. Flowchart untuk pengenalan daun (recognition) perceptron

Recognition NN

Input NN

Load & Set weight

Y_in =∑xiwi

Stop

Compare output dengan data yang menjadi target

Display result

Load & set target

(52)
[image:52.595.229.410.165.716.2]

Sedangkan flowchart untuk recognition backpropagation ditunjukkan pada gambar 3.11:

Gambar 3.8.Flowchart untuk pengenalan daun (recognition) backpropagation

Recognition NN

Input NN

Load & Set weight

Stop

Compare output dengan data yang menjadi target

Display result

Load & set target

Find Output z_in j= v0 j+

=

n

i ij iv

x

1

fungsi aktivasi untuk menghitung sinyal output-nya= zj = f(z_inj)

y_in k= w0 k+

=

p

i

jk

iw

z

1

(53)

3.6 Perencanaan User Interface

Pada aplikasi ini terdapat lima user interface utama yang digunakan untuk mendukung penampilan dari aplikasi, yaitu perencanaan form menu, perencanaan form pelatihan (training) untuk metode perceptron, perencanaan form pelatihan (training) untuk metode backpropagation, perencanaan form pengenalan untuk metode perceptron, dan perencanaan form pengenalan untuk metode backpropagation.

3.5.1 Perencanaan Desain Form Menu

Perencanaan desain form menu ini, terdapat menu pilihan yang menghubungkan ke form lainnya. Tampilan desain form menu dapat dilihat pada gambar 3.12 :

Gambar 3.12.Rencana Interface Form Menu

Menu bar pilihan untuk training atau recognition metode perceptron dan backpropagation

Tombol : Keluar Label : Judul Program

(54)

3.5.2 Perencanaan Desain Form Pelatihan (Training)

Gambar 3.13.Rencana Interface Form Pelatihan (Training)

Tampilan perencanaan form pelatihan (training) pada gambar 3.13, digunakan untuk metode perceptron dan backpropagation. Terdapat tombol untuk menampilkan gambar yang akan dibuka (open file), dan tombol untuk memproses gambar (Proses Image), pada saat gambar daun yang dimasukkan diproses, maka pada bagian 1 akan muncul ekstraksi fitur daun yang sudah dikonversikan ke dalam binary Image. Sedangkan hasil dari ekstraksi fitur akan dijadikan input yang ditampilakan pada bagian 2. Tombol training digunakan untuk melakukan pelatihan (training), yang hasilnya akan ditampilkan di bagian 3.

Tombol : Open File

1

[image:54.595.107.540.139.462.2]

PictureBox : Gambar daun

Tombol Proses Image

Tombol : Training

Tombol : Save

Label Nomor

Label Nama

TextBox: Isi Nomor

TextBox: Isi Nama

Tombol : Keluar

DataGrid

2

3

(55)

3.5.3 Perencanaan Desain Form Pengenalan (Recognition)

Gambar 3.14.Rencana Interface Form Pengenalan (Recognition)

Perencanaan desain form pengenalan pada gambar 3.14, terdapat tombol untuk menampilkan gambar yang akan dibuka (open file), dan tombol untuk memproses gambar (Proses Image), sedangkan hasil proses gambar sebelum pengenalan dan hasil proses pengenalan akan ditampilkan pada canvas bagian 1. Tombol kenali berfungsi untuk melakukan pengenalan (recognition). Kemudian hasil pengenalan akan ditampilkan pada kotak nama daun beserta persen(%) pengenalannya.

Tombol : Open File

1

[image:55.595.118.502.153.437.2]

PictureBox : Gambar daun

Tombol Proses Image

Tombol : Kenali

Label Nama Daun

Label % Pengenalan TextBox: Nama daun

TextBox: % Pengenalan

(56)

BAB IV

ANALISIS DAN PEMBAHASAN

Pada bab ini akan membahas tentang pengujian dari sistem yang dibuat. Pengujian ini dilakukan dengan tujuan untuk mengetahui kelebihan dan kekurangan dari aplikasi ini.

4.1 Inisialisasi untuk Metode Perceptron dan Backpropagation

Proses ini diawali dengan memilih menu yang ada pada tampilan utama saat aplikasi dijalankan. Form tampilan menu utama ditunjukkan pada gambar 4.1:

Gambar 4.1. Tampilan Menu Utama

(57)
[image:57.595.238.397.132.198.2]

Gambar 4.2. Tampilan Sub Menu Pilihan

Setelah itu akan masuk ke form training seperti yang ditunjukkan pada gambar 4.3. Untuk training, langkah awal yang harus dilakukan adalah masuk ke tahap image processing yaitu memilih jenis daun dalam bentuk *.bmp atau *.jpg

melalui tombol open file untuk diproses sehingga dapat dipakai pada proses pelatihan dan pengenalan.

Gambar 4.3. Tampilan form training

[image:57.595.137.491.380.590.2]
(58)

Binary image dari gambar daun akan diubah menjadi matriks biner 100 x 100,

[image:58.595.131.496.290.719.2]

dimana warna putih direpresentasikan dengan nilai 1, dan warna hitam dengan nilai 0. Berikut ini adalah hasil gambar yang sudah dikonversikan ke dalam bentuk matriks biner.

(59)

Untuk menyederhanakan perhitungan, matriks 100x100 diubah menjadi matriks 10x10 dengan cara menjumlahkan setiap matriks 10x10 seperti yang ditunjukkan pada potongan gambar 4.5:

Gambar 4.5. Tampilan penyederhanaa daun matriks 100 x 100

Cara ini berguna untuk mencari tepi daun yang biasanya disebut margin, menggunakan boundary enhancement. Apabila hasil penjumlahan matriks 10x10=100, maka matriks hasilnya diberi nilai 0, jika antara 1-99, maka matriks hasilnya diberi nilai 1. Tampilan daun matriks 10x10 disajikan pada gambar 4.6:

0 0 0 0 1 1 0 0 0 0

0 0 1 1 1 1 1 1 0 0

0 0 1 1 1 1 1 1 0 0

0 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

0 1 1 1 1 1 1 1 1 0

0 0 0 0 1 1 0 0 0 0

0 0 1 1 0 0 1 1 0 0

0 0 1 0 0 0 0 1 0 0

0 1 1 0 0 0 0 0 1 0 1 1 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 1 1 1 0 0 1 1 0 0 0 1

0 1 1 1 1 1 1 1 1 0

(60)

Setiap matriks 10 x 2 yang pertama ditransformasikan menjadi matriks 2x10, kemudian matriks 10x2 yang kedua ditransformasikan menjadi matriks 2x10 dan ditempatkan di bawah matriks 2x10 yang sebelumnya seperti tabel 4.1:

Tabel 4.1. Hasil Input dari daun

No

Input

x1 x2

1 0 0

2 0 0

3 0 1

4 0 1

5 1 0

6 1 0

7 0 1

8 0 1

9 0 0

10 0 0

11 0 0

12 0 1

13 1 1

14 0 0

15 0 0

16 0 0

17 0 0

18 1 0

19 0 1

20 0 0

21 1 1

22 1 0

23 0 0

24 0 0

25 0 0

26 0 0

27 0 0

28 0 0

29 0 0

(61)

31 1 1

32 0 0

33 0 0

34 0 0

35 0 0

36 0 0

37 0 0

38 0 0

39 0 0

40 1 1

41 1 0

42 1 1

43 0 1

44 0 1

45 1 1

46 1 1

47 0 1

48 0 1

49 0 1

50 1 0

(62)
[image:62.595.215.409.179.757.2]

Tabel 4.2. Hasil target menggunakan operasi OR dari input

No

Input Target (t)

x1 x2 x1 OR x2

1 0 0 0

2 0 0 0

3 0 1 1

4 0 1 1

5 1 0 1

6 1 0 1

7 0 1 1

8 0 1 1

9 0 0 0

10 0 0 0

11 0 0 0

12 0 1 1

13 1 1 1

14 0 0 0

15 0 0 0

16 0 0 0

17 0 0 0

18 1 0 1

19 0 1 1

20 0 0 0

21 1 1 1

22 1 0 1

23 0 0 0

24 0 0 0

25 0 0 0

26 0 0 0

27 0 0 0

28 0 0 0

29 0 0 0

30 1 1 1

31 1 1 1

(63)

33 0 0 0

34 0 0 0

35 0 0 0

36 0 0 0

37 0 0 0

38 0 0 0

39 0 0 0

40 1 1 1

41 1 0 1

42 1 1 1

43 0 1 1

44 0 1 1

45 1 1 1

46 1 1 1

47 0 1 1

48 0 1 1

49 0 1 1

50 1 0 1

4.2 Pelatihan (Training) Perceptron Pada Daun

Setelah proses ekstraksi fitur dari daun dilakukan, dan telah didapat inisialisasi 2 input (x1 dan x2) dengan 1 target (t), maka tahap selanjutnya adalah melakukan

training pada daun. Set nilai acak, dengan nilai threshold θ=0,5. Learning rate yang digunakan adalah α=0,2. Bobot awal yang dipilih w1=0,1 dan w2=0,1.

(64)
[image:64.595.136.485.132.339.2]

Gambar 4.7. Tampilan form training Perceptron

Pada epoh pertama: Data ke-1:

x11= 0; x21=0; t1

Bobot awal, w =0

1= 0,1 dan w2

Hasil aktivasi : a

=0,1

11= x11w1+x21w2

Output : y

=0*0,1+0*0,1=0

11= 0, karena a11

Nilai error : δ

=0≤0,5

11= t1-y11

Bobot akhir:

=0-0=0

w1= w1+α*x11* δ11

w

=0,1+0,2*0*0=0,1

2= w2+α*x21* δ11

Nilai bobot akhir ini akan menjadi nilai bobot awal pada data ke-2. =0,1+0,2*0*0=0,1

Data ke-2: x12= 0; x22=0; t2

w

=0

1= 0,1 dan w2

a

=0,1

12= x12w1+x22w2

y

=0*0,1+1*0,1=0

(65)

δ12= t2-y12

w

=0-0=0

1= w1+α*x12* δ12

w

=0,1+0,2*0*0=0,1

2= w2+α*x22* δ12=0,1+0,2*1*1=0,1

Data ke-3: x13= 0; x23=1; t3

w

=1

1=0,1 dan w2

a

=0,1

13= x13w1+x23w2

y

=0*0,1+1*0,1=0,1

13=0, karena a13

δ

=0,1≤0,5

13= t3-y13

w

=1-0=1

1= w1+α*x13* δ13

w

=0,1+0,2*0*1=0,1

2= w2+α*x23* δ13=0,1+0,2*1*1=0,3

Demikian seterusnya sampai Data ke-50. Training pada daun jarak di atas, untuk Epoh pertama masih didapatkan nilai error=6. Maka training akan dilanjutkan pada epoh kedua:

Pada Epoh kedua: Data ke-1:

x11=0; x12=0; t1

w

=0

1=0,7 dan w2

a

=0,7

21=x11w1+x12w2

y

=0*0,7+0*0,7=0

21=0, karena a21

δ

=0≤0,5

21=t1-y21

w

=0-0=0

1=w1+α*x11* δ21

w

=0,7+0,2*0*0=0,7

2=w2+α*x12* δ21=0,7+0,2*0*0=0,7

(66)
[image:66.595.79.550.140.777.2]

Tabel 4.3. Hasil pembelajaran perceptron sampai Epoh ke-2

Epoh Data ke-

Input Target Bobot 1

a y error

Bobot 2

x1 x2 t w1 w2 w1 w2

Epoh Ke 1

1 0 0 0 0,1 0,1 0 0 0 0,1 0,1

2 0 0 0 0,1 0,1 0 0 0 0,1 0,1

3 0 1 1 0,1 0,1 0,1 0 1 0,1 0,3

4 0 1 1 0,1 0,3 0,3 0 1 0,1 0,5

5 1 0 1 0,1 0,5 0,1 0 1 0,3 0,5

6 1 0 1 0,3 0,5 0,3 0 1 0,5 0,5

7 0 1

Gambar

Gambar 2.5. Arsitektur Jaringan Perceptron (Du et al, 2006)
Gambar 2.6. Arsitektur Model Backpropagation (Du et al, 2006)
Gambar 3.2. Arsitektur jaringan metode backpropagation
gambar 3.3:
+7

Referensi

Dokumen terkait

Penelitian ini membahas tentang prediksi nilai tukar rupiah terhadap dollar Amerika menggunakan model Fuzzy Backpropagation Neural Network, dimana bobot dari model

neural network backpropagation metode yang memberikan hasil yang lebih akurat dalam peramalan pada perhitungan tingkat kemiskinan di Indonesia karena metode ini

Kesimpulan yang dapat diambil berdasarkan penelitian ini adalah bahwa performa model neural network backpropagation untuk penentuan penyakit peradangan hati yang

Artificial Neural Network ( ANN ) Perceptron merupakan salah satu dari metode AI yang telah terbukti cukup handal untuk digunakan sebagai teknik pengenalan atau

neural network backpropagation metode yang memberikan hasil yang lebih akurat dalam peramalan pada perhitungan tingkat kemiskinan di Indonesia karena metode ini

Teori yang digunakan meliputi, tembakau, Sensor MQ, perhitungan menggunakan baseline, Neural Network menggunakan MLP (multilayer perceptron) dengan metode error

Neural Network Evaluation Setelah melakukan backpropagation untuk semua bobot dan bias, maka akan diperoleh hasil bobot sebagai berikut: Untuk mengevaluasi kita bisa mengecek kembali

Apabila dilihat pada gambar grafik bulan November 2019, kita dapat menyimpulkan bahwa hasil peramalan beban listrik menggunakan metode backpropagation neural network akan lebih