• Tidak ada hasil yang ditemukan

OPTIMALISASI JARINGAN BACKPROPAGATION DITINJAU DARI JUMLAH NEURON DALAM LAPISAN TERSEMBUNYI

N/A
N/A
Protected

Academic year: 2019

Membagikan "OPTIMALISASI JARINGAN BACKPROPAGATION DITINJAU DARI JUMLAH NEURON DALAM LAPISAN TERSEMBUNYI"

Copied!
15
0
0

Teks penuh

(1)

OPTIMALISASI JARINGAN

BACKPROPAGATION

DITINJAU

DARI JUMLAH NEURON DALAM LAPISAN

TERSEMBUNYI

SKRIPSI

diajukan sebagai salah satu syarat untuk memperoleh gelar Sarjana Komputer

AMRISA YANRI RAHMADHANI 1403040067

PROGRAM STUDI TEKNIK INFORMATIKA

FAKULTAS TEKNIK DAN SAINS

(2)

HALAMAN PERNYATAAN ORISINALITAS

Saya yang bertanda tangan di bawah ini:

Nama : Amrisa Yanri Rahmadhani

NIM : 1403040067

Program Studi : Teknik Informatika S1

Fakultas : Teknik dan Sains

Perguruan Tinggi : Universitas Muhammadiyah Purwokerto

Menyatakan dengan sebenar-benarnya bahwa skripsi ini adalah hasil karya saya

dan semua sumber baik yang dikutip maupun dirujuk telah saya nyatakan dengan

benar serta bukan hasil penjiplakan dari karya orang lain.

Demikian pernyataan ini saya buat dan apabila kelak dikemudian hari terbukti ada

unsur penjiplakan, saya bersedia mempertanggungjawabkan sesuai dengan

ketentuan yang berlaku.

Purwokerto, 21 April 2018 Yang membuat pernyataan

(3)

HALAMAN PERSETUJUAN

Skripsi yang diajukan oleh :

Nama : Amrisa Yanri Rahmadhani

NIM : 1403040067

Program Studi : Teknik Informatika S1

Fakultas : Teknik dan Sains

Perguruan Tinggi : Universitas Muhammadiyah Purwokerto

Judul : Optimalisasi Jaringan Backpropagation Ditinjau

Dari Jumlah Neuron Dalam Lapisan Tersembunyi

Telah diterima dan di setujui Purwokerto, 15 Mei 2018

PEMBIMBING

(4)

HALAMAN PENGESAHAN

Skripsi yang diajukan oleh :

Nama : Amrisa Yanri Rahmadhani

NIM : 1403040067

Program Studi : Teknik Informatika S1

Fakultas : Teknik dan Sains

Perguruan Tinggi : Universitas Muhammadiyah Purwokerto

Judul : Optimalisasi Jaringan Backpropagation Ditinjau Dari Jumlah Neuron Dalam Lapisan Tersembunyi

Telah berhasil dipertahankan di hadapan Dewan Penguji dan diterima sebagai

bagian persyaratan yang diperlukan untuk memperoleh gelar Sarjana Teknik

(S.Kom.) pada Program Studi Teknik Informatika, Fakultas Teknik dan Sains,

Ditetapkan di : Purwokerto Tanggal : 15 Mei 2018

Mengetahui,

Dekan Fakultas Teknik dan Sains

(5)

HALAMAN PERSEMBAHAN

Dengan segala kerendahan hati, serta rasa syukur terhadap Allah SWT

yang telah memberikan rahmat dan nikmat-Nya, maka saya persembahkan

Laporan Tugas Akhir ini kepada :

1. Kedua orang tua, adik-adikku dan keluarga besar terima kasih atas

dukungan, bimbingan dan doa yang telah diberikan.

2. Teman dekatku Muhamad Zaeni Budiastanto terimakasih untuk

dukungannya dan semangatnya.

3. Timku Chintia Permata Putri dan Silvia Nila Candra P terima kasih untuk

kerjasama dan kekompakannya.

4. Sahabat-sahabatku Risky Pamujiati, Nurkholis Hanifah, Trihardika Mei,

Rahayu Agustina, Kukuh Restu, Anggy Yudha, Fiqih Irvan, Aprilia Yosi,

Ekky Puspita, Karlina Oktaviani dan semua sahabatku yang tidak bisa

saya sebutkan satu persatu terima kasih untuk dukungan dan semangatnya.

(6)

HALAMAN MOTTO

Kebaikan yang kita berikan pada orang lain sesungguhnya adalah kebaikan yang

(7)

KATA PENGANTAR

Puji syukur penulis ucapkan atas kehadirat Allah SWT yang telah

melimpahkan rahmat, hidayah dan anugerah-Nya sehingga penulis dapat

menyelesaikan penulisan laporan tugas akhir dengan judul “OPTIMALISASI

JARINGAN BACKPROPAGATION DITINJAU DARI JUMLAH NEURON

DALAM LAPISAN TERSEMBUNYIdengan baik. Tugas akhir ini merupakan

salah satu persyaratan kurikulum untuk menyelesaikan pendidikan Sarjana pada

Program Studi Teknik Informatika Fakultas Teknik dan Sains Universitas

Muhammadiyah Purwokerto.

Dalam pelaksanaan tugas akhir dan pembuatan laporan, penulis tidak lepas

dari bantuan yang berupa fasilitas dan bimbingan secara materil dan spiritual.

Dengan segala kerendahan hati dan rasa hormat melalui tulisan ini, penulis ingin

mengucapkan terimakasih kepada :

1. Dr. H. Syamsuhadi Irsyad, M.H. selaku Rektor Universitas Muhammadiyah

Purwokerto

2. Muhamad Taufiq Tamam, S.T., M.T. selaku Dekan Fakultas Teknik dan

Sains.

3. Harjono, S.T., M.Eng. selaku ketua Program Studi Teknik Informatika.

4. Hindayati Mustafidah, S.Si, M.Kom. selaku dosen pembimbing Tugas Akhir

serta dosen pembimbing akademik Program Studi Teknik Informatika 2014.

5. Segenap dosen Program Studi Teknik Informatika Universitas

Muhammadiyah Purwokerto yang telah banyak memberikan ilmu dan

(8)

6. Teman-teman Teknik Informatika angkatan 2014 yang telah memberi

dukungan.

7. Serta semua pihak yang tidak dapat disebutkan satu per satu yang telah

membantu penulis menyelesaikan laporan ini.

Penulis menyadari bahwa laporan ini jauh dari sempurna dan masih

banyak kekurangan mengingat keterbatasan pengalaman dan kemampuan

penyusun, oleh karena itu kritik dan saran yang membangun sangat diharapkan

penulis demi hasil yang lebih baik di masa mendatang.

Purwokerto, 21 April 2018

(9)

DAFTAR ISI

HALAMAN JUDUL ... i

HALAMAN PERNYATAAN ORISINALITAS ... ii

HALAMAN PERSETUJUAN ... iii

HALAMAN PENGESAHAN ... iv

HALAMAN PERSEMBAHAN... v

HALAMAN MOTTO ... vi

3. Implementasi Jaringan Syaraf Tiruan ... 8

B. ALGORITMA PEMBELAJARAN BACKPROPAGATION ... 8

C. ALGORITMA LEVENBREG-MARQUARDT ... 14

D. MEAN SQUARED ERROR (MSE) ... 15

E. MATLAB ... 16

F. SPSS ... 17

(10)

BAB III TUJUAN DAN MANFAAT... 19

A. TUJUAN ... 19

B. MANFAAT ... 19

BAB IV METODE PENELITIAN ... 20

A. JENIS PENELITIAN ... 20

B. WAKTU DAN TEMPAT PENELITIAN ... 20

C. VARIABLE YANG DITELITI ... 20

D. SUMBER DATA ... 21

E. ALAT PENELITIAN ... 21

F. ALUR PENGEMBANGAN PROGRAM... 22

G. ANALISI DATA ... 23

BAB V HASIL DAN PEMBAHASAN ... 25

A. DATA PENELITIAN ... 25

B. ANALISIS DATA ... 26

BAB VI PENUTUP ... 32

A. KESIMPULAN ... 33

B. SARAN ... 33

(11)

DAFTAR TABEL

Tabel 1. Data Masukan Jaringan dan Target dengan Banyak Neuron = 15 .. 25

Tabel 2. Hasil Uji ANAVA pada Neuron Lapisan Tersembunyi 11 ... 26

Tabel 3. Rata – Rata MSE Setiap Learning Rate pada Neuron Lapisan Tersembunyi 11 ... 27

Tabel 4. Hasil Uji ANAVA pada Neuron Lapisan Tersembunyi 15 ... 27

Tabel 5. Rata – Rata MSE Setiap Learning Rate pada Neuron Lapisan Tersembunyi 15 ... 28

Tabel 6. Hasil Uji ANAVA pada Neuron Lapisan Tersembunyi 19 ... 28

Tabel 7. Rata – Rata MSE Setiap Learning Rate pada Neuron Lapisan Tersembunyi 19 ... 29

Tabel 8. Hasil Uji ANAVA pada Neuron Lapisan Tersembunyi 23 ... 29

Tabel 9. Rata – Rata MSE Setiap Learning Rate pada Neuron Lapisan Tersembunyi 23 ... 30

Tabel 10. Hasil Uji ANAVA pada Neuron Lapisan Tersembunyi 27 ... 30

Tabel 11. Rata – Rata MSE Setiap Learning Rate pada Neuron Lapisan Tersembunyi 27 ... 31

Tabel 12. Rata – Rata MSE Terkecil Berdasarkan Learning Rate pada Se-tiap n Neuron Lapisan Tersembunyi ... 31

Tabel 13. Hasil Uji ANAVA pada Banyaknya Neuron Lapisan Tersembunyi 32

(12)

DAFTAR GAMBAR

Gambar 1. Jaringan Syaraf Tiruan dengan Lapisan Tunggal ... 6

Gambar 2. Jaringan Syaraf Tiruan dengan Banyak Lapisan ... 7

Gambar 3. Jaringan Syaraf Tiruan dengan Kompetitif ... 7

Gambar 4. Arsitektur Jaringan Backpropagation ... 10

Gambar 5. Desain Jaringan Syaraf Tiruan dengan 15 Neuron Masukan, n Neuron pada Lapisan Tersembunyi ( n = 11, 15, 19, 23, 27) dan 1 Neuron pada Lapisan Keluaran. ... 21

Gambar 6. Alur Pengembangan Program JST ... 22

Gambar 7. Desain Pengujian Statistik untuk Setiap Learning Rate... 23

(13)

DAFTAR LAMPIRAN

Lampiran 1. Tabulasi Data ... 37

(14)

INTISARI

Salah satu model pembelajaran terawasi jaringan syaraf tiruan yang banyak diminati adalah model pembelajaran backpropagation. Backpropagation merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan banyak lapisan untuk mengubah bobot – bobot yang terhubung dengan neuron yang ada pada lapisan tersembunyi. Kinerja dari algoritma dipengaruhi oleh beberapa parameter jaringan diantaranya adalah banyaknya neuron dalam lapisan input, maksimum epoh yang digunakan, besarnya laju pemahaman (learning rate), dan kesalahan yang dihasilkan (MSE). Kinerja algoritma pelatihan dikatakan optimal dilihat dari error yang dihasilkan. Semakin kecil error yang dihasilkan, maka semakin optimal kinerja dari algoritma. Pengujian yang dilakukan pada penelitian sebelumnya diperoleh bahwa algoritma pelatihan yang paling optimal berdasarkan hasil error terkecil adalah algoritma pelatihan Levenberg – Marquardt dengan rata – rata MSE 0.001 dengan tingkat pengujian α = 5%. Pada penelitian ini dilakukan untuk mengetahui jumlah n neuron yang paling optimal dalam jaringan tersembunyi dengan menggunakan algoritma pelatihan Levenberg – Marquardt dimana = 11, 15, 19, 23, 27. Parameter jaringan yang digunakan yaitu target error = 0.001, maksimum epoh = 1000. Penelitian ini menggunakan metode campuran (mixed method) yaitu penelitian pengembangan dengan pengujian kuantitatif dan kualitatif (menggunakan uji statistik ANAVA). Data penelitian diambil dari data random dengan 15 neuron masukan dan 1 neuron keluaran. Hasil analisis menunjukan bahwa dengan 23 neuron pada lapisan tersembunyi menghasilkan error paling kecil yaitu 0.0002008 ± 0.0002498 dengan laju pembelajaran ( learning rate / lr) = 0.4.

(15)

ABSTRACT

One of the models of supervised neural network learning is a model of learning backpropagation. Backpropagation is a supervised learning algorithm and it is commonly used by perceptrons with multiple layers to alter the weights connected to neurons present in the hidden layer. The performance of the algorithm is influenced by several network parameters including the number of neurons in the input layer, the maximum epoh used, the magnitude of the learning rate, and the resulting error (MSE). The performance of the training algorithm is said to be optimally viewed from the resulting error. The smaller the error generated, the more optimal the performance of the algorithm. Tests conducted in the previous research found that the most optimal training algorithm based on the results of the smallest error is the Levenberg - Marquardt training algorithm with an average of MSE 0.001 with the level of testing α = 5%. In this study was conducted to determine the most optimal number of n neurons in hidden networks by using the Levenberg - Marquardt training algorithm where (n =11, 15, 19, 23,

27). Network Parameter which is target error 0.001, maximum epoh = 1000. This

research uses mixed method which is development research with quantitative and qualitative test (using ANOVA statistic test). The data were taken from random data with 15 input neurons and 1 neuron in the output layer. The results of the analysis show that with neuron 23 in the hidden layer, it gives the smallest error 0.0002008 ± 0.0002498 with the rate rate (learning rate / lr) = 0.4.

Gambar

Gambar 1. Jaringan Syaraf Tiruan dengan Lapisan Tunggal ...........................

Referensi

Dokumen terkait

Sistem pengenalan pola pada penelitian ini adalah neural network dengan backpropagation dan perceptron sebagai metode pelatihan untuk memperoleh bobot neural network

Pemilihan nilai random pada bobot awal algoritma Backpropagation sangat mempengaruhi proses pembelajaran algoritma, dengan penambahan algoritma Nguyen Widraw dan penambahan

Arsitektur JST dengan metode backpropagation pada sistem yang akan dibangun adalah arsitektur JST berlapisan banyak yang terdiri dari lapisan masukan (layer input)

Dengan menggunakan metode Backpropagation yang mengubah bobot dengan alur mundur dari lapisan keluaran kelapisan masukan untuk mendapatkan keseimbangan

Banyak metode yang dapat digunakan untuk melakukan prediksi, salah satunya adalah Jaringan Syaraf Tiruan Backpropagation yang terbukti dapat memberikan hasil yang

Dengan menggunakan Algoritma Backpropagation dapat menentukan kelulusan dari bobot yang

Pada penelitian ini arsitektur Jaringan Syaraf Tiruan yang digunakan adalah Jaringan Syaraf Tiruan dengan banyak lapisan (multilayer net) dengan algoritma

Arsitektur jaringan backpropagation seperti terlihat pada Gambar 4, pada Jaringan Backpropagation terdiri dari 3 unit (neuron) pada lapisan input, yaitu X1, X2, dan X3 ;