SKRIPSI
diajukan sebagai salah satu syarat untuk memperoleh gelar
Sarjana Komputer
DIMAS RIFKIE SETIAWAN
1503040068
PROGRAM STUDI TEKNIK INFORMATIKA
FAKULTAS TEKNIK DAN SAINS
HALAMAN PERSEMBAHAN
Puji syukur kepada Allah SWT atas segala rakhmat dan hidayahnya yang
telah memberikan kekuatan, kesehatan dan kesabaran untuk ku dalam mengerjakan
skripsi ini. Kupersembahkan Skripsi ini sebagai wujud cinta kasih dan tanda bukti
atas seluruh do’a, kasih sayang, bimbingan dan harapan yang telah diberikan selama
ini.
Untuk kedua Orang tua ku, kakakku, keluarga dan orang-orang yang selalu
memberikan semangat dan motivasi.
Untuk dosen-dosen pembimbing, penguji dan pengajar Teknik Informatika
Universitas Muhammadiyah Purwokerto.
Untuk sahabat-sahabatku seperjuangan di Universitas Muhammadiyah
Purwokerto yang senantiasa menjadi penyemangat dan sumber kebahagiaan selama
perkuliahan.
Purwokerto, Januari 2019
HALAMAN MOTTO
Jika kau tak suka sesuatu, ubahlah !
KATA PENGANTAR
Puji syukur dipanjatkan kepada Allah SWT sehingga tugas akhir ini dapat
diselesaikan. Tugas akhir ini diajukan untuk memenuhi salah satu persyaratan
memperoleh derajat kesarjanaan Strata-1 pada Jurusan Teknik Informatika Fakultas
Teknik dan Sains Universitas Muhammadiyah Purwokerto. Shalawat serta salam
semoga senantiasa tercurahkan kepada baginda Nabi Besar Muhammad SAW serta
keluarga dan sahabat-sahabat-Nya yang selalu setia membantu perjuangan beliau
dalam menegakan Dinullah di muka bumi ini.
Penyusunan tugas akhir ini, tentunya banyak pihak yang telah memberikan
bantuan. Oleh karena itu penulis sampaikan ucapan terimakasih kepada :
1. Hindayati Mustafidah, S.Si.,M.Kom selaku pembimbing yang telah banyak
memberikan bimbingan, nasehat dan arahan kepada penulis.
2. Dr. H. Syamsuhadi Irsyad, M.H selaku rektor Universitas Muhammadiyah
Purwokerto beserta dosen dan seluruh karyawan/staf pegawai Universitas
Muhammadiyah Purwokerto atas bantuan dan kerjasamanya yang diberikan
selama mengikuti studi.
3. Secara khusus penulis ingin mengucapkan terima kasih kepada kedua orang
tuaku dan kakakku serta ardila yang telah banyak memberikan dukungan dan
doa.
4. Saya ucapkan terima kasih juga kepada teman – teman angkatan 2015
Universitas Muhammadiyah Purwokerto yang telah memberikan
dukungannya.
Purwokerto, Januari 2019
DAFTAR ISI
HALAMAN PENGESAHAN ... ii
HALAMAN PERSETUJUAN ... iii
HALAMAN PERNYATAAN ORISINALITAS ... iv
HALAMAN PERSEMBAHAN ...v
HALAMAN MOTTO ... vi
KATA PENGANTAR ... vii
DAFTAR ISI ... viii
DAFTAR TABEL ...x
DAFTAR GAMBAR ... xii
DAFTAR LAMPIRAN ... xiii
INTISARI ... xiv
ABSTRACT ...xv
BAB I ...1
PENDAHULUAN ...1
A. LATAR BELAKANG ...1
B. PERUMUSAN MASALAH ...3
C. BATASAN MASALAH ...3
BAB II ...4
KAJIAN PUSTAKA ...4
A. Jaringan Syaraf Tiruan ...4
B. Algoritma Pembelajaran Backpropagation ...6
C. Hidden Layer ...10
D. Parameter Jaringan ...11
E. Studi Pendahuluan ...12
F. MSE (Mean Squared Error ) ...13
G. MATLAB ...14
H. SPSS ...15
I. ANAVA ...16
BAB III ...18
A. TUJUAN ...18
B. MANFAAT ...18
BAB IV ...19
METODE PENELITIAN ...19
A. Jenis Penelitian ...19
B. Waktu dan Tempat ...19
C. Variabel yang Diteliti ...19
D. Sumber Data ...20
E. Alat Penelitian ...20
F. Alur Pengembangan Program ...21
G. ANALISIS DATA ...22
BAB V ...24
HASIL DAN PEMBAHASAN ...24
DAFTAR TABEL
Tabel 1. Data Masukan Jaringan dan Target...24
Tabel 2. Hasil Uji ANAVA pada Algoritma Pelatihan Fletcher-Reeves Update ..25
Tabel 3. Rata–Rata Setiap Learning Rate pada Algoritma Pelatihan Fletcher eeves Update ...25
Tabel 4. Hasil Uji ANAVA pada Algoritma Pelatihan Polak-Ribiĕre ...26
Tabel 5. Rata–Rata Setiap Learning Rate pada Algoritma Pelatihan Polak-Ribiĕre ...26
Tabel 6. Hasil Uji ANAVA pada Algoritma Pelatihan Powell-Beale Restart...27
Tabel 7. Rata–Rata Setiap Learning Rate pada Algoritma Pelatihan Powell-Beale Restart ...27
Tabel 8. Hasil Uji ANAVA pada Algoritma Pelatihan Scaled Conjugate Gradient ...28
Tabel 9. Rata–Rata Setiap Learning Rate pada Algoritma Pelatihan Scaled Conjugate Gradient ...28
Tabel 10. Rata–Rata Setiap Learning Rate pada Algoritma Pelatihan Gradient Descent ...29
Tabel 11. Hasil Uji ANAVA pada Algoritma Pelatihan Gradient Descent dengan Adaptive Learning Rate ...29
Tabel 12. Rata–Rata Setiap Learning Rate pada Algoritma Pelatihan Gradient Descent dengan Adaptive Learning Rate ...30
Tabel 13. Rata–Rata Setiap Learning Rate pada Algoritma Pelatihan Gradient Descent dengan Momentum ...30
Tabel 14. Hasil Uji ANAVA pada Algoritma Pelatihan Gradient Descent dengan Momentum dan Adaptive Learning Rate ...31
Tabel 15. Rata–Rata Setiap Learning Rate pada Algoritma Pelatihan Gradient Descent dengan Momentum dan Adaptive Learning Rate ...31
Tabel 16. Hasil Uji ANAVA pada Algoritma Pelatihan Resilent Backpropagation ...32
Tabel 17. Rata–Rata Setiap Learning Rate pada Algoritma Pelatihan Resilent Backpropagation ...32
Tabel 18. Hasil Uji ANAVA pada Algoritma Pelatihan BFGS ...33
Tabel 19. Rata–Rata Setiap Learning Rate pada Algoritma Pelatihan BFGS ...33
Tabel 20. Hasil Uji ANAVA pada Algoritma Pelatihan One Step Secant ...34
Tabel 21. Rata–Rata Setiap Learning Rate pada Algoritma Pelatihan One Step Secant ...34
Tabel 22. Hasil Uji ANAVA pada Algoritma Pelatihan Levenberg-Marquardt ...35
Tabel 23. Rata–Rata Setiap Learning Rate pada Algoritma Pelatihan Levenberg-Marquardt ...35
Tabel 25. Hasil Uji ANAVA pada Learning Rate 0.01 ...37
Tabel 26. Hasil Uji Duncan pada Setiap 12 Algoritma Pelatihan ...37
Tabel 27. Rata–Rata Setiap 12 Algoritma Pelatihan pada Learning-Rate 0.01 ...38
Tabel 28. Hasil Uji ANAVA pada Learning Rate 0.05 ...38
Tabel 29. Hasil Uji Duncan pada Setiap Algoritma Pelatihan ...39
Tabel 30. Rata–Rata Error Setiap Algoritma Pelatihan pada Learning-Rate 0.0539 Tabel 31. Hasil Uji ANAVA pada Learning Rate 0.1 ...40
Tabel 32. Hasil Uji Duncan pada Setiap Algoritma Pelatihan ...40
Tabel 33. Rata–Rata Error Setiap 12 Algoritma Pelatihan pada Learning-Rate 0.1 ...41
Tabel 34. Hasil Uji ANAVA pada Learning Rate 0.2 ...41
Tabel 35. Rata–Rata Error Setiap Algoritma Pelatihan pada Learning-Rate 0.2..42
Tabel 36. Hasil Uji ANAVA pada Learning Rate 0.3 ...42
Tabel 37. Rata–Rata Error Setiap Algoritma Pelatihan pada Learning-Rate 0.3..43
Tabel 38. Hasil Uji ANAVA pada Learning Rate 0.4 ...43
Tabel 39. Rata–Rata Error Setiap Algoritma Pelatihan pada Learning-Rate 0.4..44
Tabel 40. Hasil Uji ANAVA pada Learning Rate 0.5 ...44
Tabel 41. Rata–Rata Error Setiap Algoritma Pelatihan pada Learning-Rate 0.5..45
Tabel 42. Hasil Uji ANAVA pada Learning Rate 0.6 ...45
Tabel 43. Rata–Rata Error Setiap Algoritma Pelatihan pada Learning-Rate 0.6..46
Tabel 44. Hasil Uji ANAVA pada Learning Rate 0.7 ...46
Tabel 45. Hasil Uji Duncan pada Setiap 12 Algoritma Pelatihan ...47
Tabel 46. Rata–Rata Error Setiap Algoritma Pelatihan pada Learning-Rate 0.7..47
Tabel 47. Hasil Uji ANAVA pada Learning Rate 0.8 ...48
Tabel 48. Rata–Rata Error Setiap Algoritma Pelatihan pada Learning-Rate 0.8..48
Tabel 49. Hasil Uji ANAVA pada Learning Rate 0.9 ...49
Tabel 50. Rata–Rata Error Setiap Algoritma Pelatihan pada Learning-Rate 0.9..49
Tabel 51. Hasil Uji ANAVA pada Learning Rate 1 ...50
Tabel 52. Rata–Rata Error Setiap Algoritma Pelatihan pada Learning-Rate 1...50
DAFTAR GAMBAR
Gambar 1. Jaringan Syarat Tiruan dengan Banyak Lapisan ...5
Gambar 2. Arsitektur Jaringan Backpropagation ...7
Gambar 3. Alur Pengembangan Program JST ...21
DAFTAR LAMPIRAN
Lampiran 1. Source Code...54 Lampiran 2. Independent Samples Test pada Algoritma Pelatihan Gradient
Descent ...55 Lampiran 3. Independent Samples Test pada Algoritma Pelatihan Gradient
INTISARI
Jaringan syaraf tiruan adalah model komputasi yang terinspirasi secara biologis, jaringan syaraf tiruan terdiri dari beberapa elemen pengolahan (neuron) dan ada hubungan antara neuron. Di dalam jaringan syaraf tiruan terdapat metode backpropagation. Backpropagation merupakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan banyak lapisan untuk mengubah bobot – bobot yang terhubung dengan neuron – neuron yang ada pada lapisan tersembunyi. Kinerja algoritma pelatihan dikatakan optimal dalam memberikan solusi bisa dilihat dari error yang dihasilkan oleh jaringan. Semakin kecil error yang dihasilkan, maka semakin optimal kinerja dari algoritma. Pada penelitian sebelumnya diperoleh hasil bahwa algoritma pelatihan yang paling optimal berdasarkan hasil error terkecil dengan menggunakan 5 neuron data masukan dengan tingkat pengujian α=5% adalah algoritma trainlm ( Levenberg-Marquardt ). Pada penelitian ini dilakukan pengujian terhadap 12 algoritma pelatihan untuk mengetahui algoritma paling optimal ditinjau dari tingkat error paling kecil. Sumber data penelitian yang digunakan adalah data random dengan 10 neuron input, 18 neuron dalam 1 lapisan hidden layer, 1 neuron output dengan learning rate 0.01, 0.05, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1. Kesimpulan dari hasil penelitian adalah bahwa algoritma pelatihan yang memiliki error terkecil (paling optimal) dengan target error = 0.001, maksimum epoh = 10000, learning rate (lr) = 0.8 adalah algoritma Levenberg-Marquardt dengan rata-rata tingkat error sebesar 0.000129748405 + 0.0002289567366.
Kata kunci : Jaringan Syaraf Tiruan, Backpropagation, algoritma pelatihan,
ABSTRACT
Artificial neural networks are biologically inspired computational models, artificial neural networks consist of several processing elements (neurons) and there are connections between neurons. In artificial neural networks there is a backpropagation method. Backpropagation is a supervised learning algorithm and is usually used by perceptrons with many layers to change weights - weights that are connected to neurons in hidden layers. The performance of the training algorithm is said to be optimal in providing solutions can be seen from the errors generated by the network. The smaller the error generated, the more optimal the performance of the algorithm. In the previous study, the most optimal training algorithm based on the results of the smallest error using 5 input data neurons with
the test level α = 5% was the (Levenberg-Marquardt) trainlm algorithm. In this research, 12 training algorithms were tested to find out the most optimal algorithm in terms of the smallest error rate. The research data sources used are random data with 10 input neurons, 18 neurons in 1 layer hidden layer, 1 neuron output with learning rate 0.01, 0.05, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1 The conclusion of the study is that training algorithms that have the smallest error (most optimal) with target error = 0.001, maximum epoch = 10000, learning rate (lr) = 0.8 is the Levenberg-Marquardt algorithm with an average error rate of 0.000129748405 + 0.0002289567366.