• Tidak ada hasil yang ditemukan

LANDASAN TEOR

2.3. Ekstraksi Fitur

2.3.1. Direction Feature

Direction Feature adalah pencarian nilai-nilai fitur berdasarkan label arah pada setiap pixel. Pada metode Direction Feature, setiap pixel foreground pada gambar memiliki

arah tersendiri dimana arah yang digunakan memiliki empat arah dan masing-masing arah diberikan label nilai tersendiri (Liu & Blumenstein, 2008). Arah yang digunakan dapat dilihat pada tabel 2.1 dibawah ini (Agung et al, 2009).

Tabel 2.1 Nilai Label dan Arah pada Direction Feature

Arah Nilai Bentuk

Vertikal 2 |

Diagonal Kanan 3 /

Horizontal 4 _

Diagonal Kiri 5 \

Nilai arah pada setiap pixel dapat diperoleh melalui proses pengecekan secara raster dari arah kiri ke kanan. Pengecekan secara raster bertujuan untuk mencari pixel yang memiliki nilai 1 atau pixel yang berasal dari foreground. Selama pengecekan raster berlangsung, pixel yang memilii nilai1 atau berasal dari pixel foreground akan mengecek nilai neighbour dari pixel tersebut. Apabila P adalah pixel foreground yang tercek, pixel neighbour akan dicek adalah P1atau P5 terdapat pixel foreground maka diberikan label nilai 2, P2 atau P6 terdapat pixel foreground maka diberikan label nilai 3, P3 atau P7 terdapat pixel foreground maka diberikan label nilai 4, P4 atau P8 terdapat pixel foreground maka diberikan label nilai 5. Tabel 2.2 menunjukkan matriks neighbour pixel P dalam pelabelan nilai arah.

Tabel 2.2 Matriks neighbour pixel P dalam pelabelan nilai arah P1 P2 P3

P8 P P4 P7 P6 P5

Selanjutnya, nilai-nilai fitur yang berdimensi sesuai dengan citra biner yang diubah akan mengalami proses transisi. Proses transisi melakukan pengecekan secara raster dari empat arah (kiri ke kanan, kanan ke kiri, atas ke bawah, bawah ke atas). Sebelum melakukan transisi, nilai transisi maksimum didefinisikan terlebih dahulu. Apabila nilai T adalah nilai transisi maksimum yang didefinisikan, nilai W dan H adalah nilai lebar dan tinggi dari citra yang diproses.

Persamaan 2.6 ukuran dari Direction Feature dari kiri menuju kanan di bawah ini. LR = T . H (2.6)

Persamaan 2.7 ukuran dari transisi pada Direction Feature dari kanan menuju kanan dibawah ini.

RL = T . H (2.7)

Persamaan 2.8 ukuran dari transisi pada Direction Feature dari atas menuju bawah dibawah ini.

UD = T . W (2.8) Persamaan 2.9 ukuran dari transisi pada Direction Feature dari bawah menuju atas dibawah ini.

DU = T . W (2.9) Dimana : LR = ukuran transisi kiri ke kanan

RL = ukuran transisi kanan ke kiri

UD = ukuran transisi atas ke bawah DU = ukuran transisi bawah ke atas T = nilai transisi

W = lebar dari citra asli H = tinggi dari citra asli

Proses berikutnya adalah menormalkan ukuran fitur dari transisi fitur pertama sekali pada Direction Feature. Proses menormalkan ukuran matriks transisi bertujuan untuk mengecilkan data input fitur supaya proses pengklasifikasian menghasilkan hasil yang lebih akurat dan proses yang tidak memakan waktu terlalu banyak. Ukuran penormalan citra dilakukan secara berurutan dengan menjumlahkan baris pertama sampai dengan baris yang berindeks jumlah transisi setiap arah. Persamaan 2.10 menunjukkan ukuran normalisasi dari nilai transisi direction feature.

(2.10)

Dimana : NS = ukuran fitur normalisasi setiap arah

DT =ukuran transisi pada direction feature pada setiap arah (kiri ke kanan, kanan ke kiri, atas ke bawah, bawah ke atas)

T = nilai transisi

Hasil akhir yang dihasilkan oleh fitur ekstraksi Direction Feature adalah nilai normalisasi dari keempat arah yang digabungkan. Nilai fitur akhir dari Direction

Feature memiliki ukuran yang berukuran dengan jumlah dari normalisasi keempat

arah. Persamaan 2.11 menunjukkan ukuran akhir dari nilai fitur yang dihasilkan.

(2.11)

Dimana : DF = ukuran dari hasil akhir Direction Feature

NS = ukuran fitur normalisasi setiap arah(kiri ke kanan, kanan ke kiri, atas ke bawah, bawah ke atas)

T = nilai transisi 2.4. Backpropagation

Jaringan feed-forward dapat digunakan untuk bermacam masalah klasifikasi dan pengenalan. Di dalam algoritma Backpropagation, tidak penting untuk mengetahui model matematika dari permasalahan pengenalan dan klasifikasi untuk melatih dan kemudian memanggil informasi yang berasal dari jaringan (Khusbu & Mehta, 2013).

Di dalam algoritma ini, apabila arsitektur dari jaringan yang dipilih tepat dan sekumpulan data training yang memadai disertakan, jaringan Backpropagation akan memberikan solusi yang tepat (Khusbu & Mehta, 2013).

Langkah-langkah yang dilakukan oleh algoritma Backpropagation adalah sebagai berikut (Khusbu & Mehta, 2013):

1. Data input disertakan di dalam elemen yang memproses lapisan pertama dari jaringan Backpropagation dan diperbanyak sepanjang jalur penghubung menuju lapisan pertama.

2. Setiap elemen pemrosesan, h di dalam hidden layer menghitung jumlah dari bobot input dari setiap input, i, dari lapisan sebelumnya. Persamaan 2.12 menunjukkan jumlah bobot yang terdapat pada setiap elemen di lapisan input yang menuju lapisan hidden.

(2.12) Dimana : Weighted sum h = jumlah bobot pada elemen dari lapisan input ke

hiddden

weight h = bobot pada elemen dari lapisan input ke hidden input h = nilai input yang berada pada lapisan hidden.

3. Keluaran dari pemrosesan pada lapisan hidden¸h, kemudian dikalkulasikan dengan fungsi aktivasi, f, dan kemudian diperbanyak ke lapisan selanjutnya. Fungsi aktivasi sigmoidal biasanya adalah f(x) = 1 / (1+ex). Persamaan 2.13 menunjukkan perhitungan fungsi aktivasi sigmoid keluaran elemen h dari lapisan

hidden.

(2.13) Dimana : Hidden output h = nilai dari fungsi aktivasi sigmoidal elemen h dari

lapisan hidden

weighted sum h = jumlah bobot di elemen h bias h = nilai bias pada elemen h

4. Langkah pada nomor 2 dan nomor 3 mengalami perulangan pada lapisan hidden sampai lapisan output dijangkau.

5. Setiap elemen pemrosesan o, di dalam lapisan output mengkalkulasikan jumlah dari bobot input yang berada pada setiap elemen h, dari lapisan sebelumnya. Persamaan 2.14 menunjukkan jumlah bobot yang berasal dari lapisan hidden menuju lapisan output.

, untuk semua elemen h (2.14) Dimana : Weighted sum o = jumlah bobot dari lapisan hidden menuju output

weight oh = jumlah bobot pada elemen h pada hidden ke output layer

input oh = nilai input yang berada pada lapisan output

6. Nilai keluaran dari elemen pemrosessan lapisan output o, kemudian dikalkulasikan dengan fungsi aktivasi, f. Persamaan 2.15 menunjukkan perhitungan fungsi aktivasi elemen o di lapisan output.

(2.15) Dimana : Output o = nilai dari fungsi aktivasi elemen o di lapisan output

weighted sum o = jumlah bobot di elemen o bias o = nilai bias di elemen o

7. Nilai output yang telah dihitung dibandingkan dengan output tujuan untuk menghitung nilai error untuk setiap elemen pemrosesan lapisan output. Turunan dari fungsi aktivasi f digunakan untuk mencari nilai rata-rata perubahan. Untuk contoh ini f’(x) = f(x) (1-f(x)). Persamaan 2.16 menunjukkan perhitungan kesalahan yang terjadi di lapisan output. Perulangan dan jaringan mempelajari ketika melakukan perulangan sampai menemukan nilai error yang paling kecil.

(2.16) Dimana : Error o = nilai error yang terdapat pada setap elemen o

target o = nilai elemen pada node target elemen o

output o = nilai output pada elemen o

weightedsumo = jumlah beban pada elemen o

biaso = nilai bias pada elemen o

8. Error pada lapisan-lapisan hidden di dalam elemen pemrosesan dihitung dengan

melajukan error kembali melalui jaringan. Sangat penting bahwa weightedh adalah bobot dari output unit,o yang berhubungan dengan unit hidden, h. Persamaan 2.17 menunjukkan

(2.17) Dimana : Error h = nilai error yang terdapat pada setiap elemen h

weightedsumh = jumlah bobot yang berada pada elemen h biash = nilai bias yang terdapat pada elemen h

erroro = nilai error yang terdapat pada elemen o weightoh = nilai bobot yang berada pada elemen o

9. Bobot-bobot di dalam lapisan output telah terupdate, β = learning rate diantara 1 dan 0, α = konstanta momentum. Penggunaan β*erroro mewakili peran dari delta.

Input o adalah nilai input bergerak di jalur-jalur yang berasal dari lapisan hidden menuju lapisan output. Persamaan 2.18 menunjukkan proses update bobot yang dilakukan oleh Backpropagation pada lapisan output.

( )

(2.18) Dimana : Weighto() = bobot pada elemen o

t = indeks elemen pada bobot

α = konstanta momentum β = learning rate antara 1 dan 0

erroro = nilai error pada elemen o

input = nilai input dari lapisan hidden menuju output.

input2 = nilai input dari lapisan hidden menuju output selanjutnya. 10. Bobot-bobot pada setiap lapisan hidden telah terupdate. β = konstanta learning

rate antara 1 dan 0, α = konstanta momentum. Persamaan 2.19 menunjukkan proses update bobot yang dilakukan oleh Backpropagation pada lapisan hidden.

( )

(2.19) Dimana : Weighth() = bobot pada elemen o

t = indeks elemen pada bobot α = konstanta momentum

β = konstanta learning rate

errorh = nilai error pada elemen h

input = nilai input dari lapisan hidden menuju output.

input2 = nilai input dari lapisan hidden menuju output selanjutnya.

Dalam menjalankan algoritma Backpropagation, proses feedforward menjalankan langkah 1 sampai 6 dan proses backpropagation terjadi selama langkah 7 sampai 10 untuk mengecek error yang dihasilkan (Khusbu & Mehta, 2013).

Dokumen terkait