Misal JST Backpropagation dengan spesifikasi seperti dibawah ini: Arsitektur : 2-2-1
Fungsi Aktifasi layer tersembunyi dan output fungsi sigmoid biner Bobot
V10=0,2 V20=0,5 V11=-0,4 V21=0,3 V12=-0,3 W0=0,1 W1=-0,5 W2=0,2
Perintah Matlab
p=[0.1 0.3 0.5 ; 0.2 0.4 0.1]; t=[0.3 0.2 0.4];
net=newff(minmax(p),[2,1],{‘logsig’, ‘logsig’},’traingd’); >> net.trainParam.goal=1e-5;
>> net.trainParam.epoch=1000; >> net.trainParam.show=50; >> net=train(net,p);
P=[0.161369000786782 0.13940204563336 0.11705743509048 0.106986624704957 0.134177812745869 0.173768686073958 0.420440597954367 0.689583005507474 0.636270653029111
0.365680566483084 0.226577498033045 0.167789142407553;0.13940204563336 0.11705743509048 0.106986624704957 0.134177812745869 0.173768686073958 0.420440597954367 0.689583005507474 0.636270653029111
0.365680566483084 0.226577498033045 0.167789142407553
0.143870967741936;0.11705743509048 0.106986624704957 0.134177812745869 0.173768686073958 0.420440597954367 0.689583005507474
0.636270653029111 0.365680566483084 0.226577498033045
0.167789142407553 0.143870967741936 0.12492525570417;0.106986624704957 0.134177812745869 0.173768686073958 0.420440597954367
0.689583005507474 0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417 0.10125885129819;0.134177812745869 0.173768686073958 0.420440597954367 0.689583005507474 0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417 0.10125885129819 0.1;0.173768686073958 0.420440597954367
0.689583005507474 0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417 0.10125885129819 0.1 0.117938630999213;0.420440597954367
0.689583005507474 0.636270653029111 0.365680566483084
0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417 0.10125885129819 0.1 0.117938630999213
0.367757671125098;0.689583005507474 0.636270653029111 0.365680566483084 0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417 0.10125885129819 0.1 0.117938630999213 0.367757671125098
0.483760818253344;0.636270653029111 0.365680566483084
0.483760818253344 0.9;0.365680566483084 0.226577498033045
0.167789142407553 0.143870967741936 0.12492525570417 0.10125885129819 0.1 0.117938630999213 0.367757671125098 0.483760818253344 0.9
0.701667977970102;0.226577498033045 0.167789142407553 0.143870967741936 0.12492525570417 0.10125885129819 0.1 0.117938630999213 0.367757671125098 0.483760818253344 0.9 0.701667977970102 0.518882769472856;0.167789142407553 0.143870967741936 0.12492525570417 0.10125885129819 0.1 0.117938630999213 0.367757671125098 0.483760818253344 0.9 0.701667977970102 0.518882769472856 0.239354838709677]
T=[0.143870967741936 0.12492525570417 0.10125885129819 0.1 0.117938630999213 0.367757671125098 0.483760818253344 0.9 0.701667977970102 0.518882769472856 0.239354838709677 0.183713611329662]
Net=newff(minmax(p),[2,1],{‘logsig’, ‘logsig’},‘traingdx’): net.trainParam.goal=1e-5;
net.trainParam.epoch=1000; net.trainParam.show=500; net=train(net,p);