• Tidak ada hasil yang ditemukan

3.4 Analisis Pengolahan Citra ANN

3.4.2 Pengolahan Citra

Distribusi spasial karakteristik habitat dasar perairan dangkal diolah dari citra satelit menggunakan beberapa pendekatan seperti komposit Band dan penajaman citra dengan algoritma depth invariant index. Algoritma ini mengaplikasikan metode koreksi kolom air atau dikenal dengan Algoritma Lyzenga (1981). Metode ini efektif untuk meningkatkan kualitas identifikasi dan klasifikasi habitat dasar perairan dangkal secara tematik. Persamaan algoritma

depth invariant index diturunkan sebagai berikut:: Y = Ln B1 – (ki/kj) Ln B2

dimana

Y = indek dasar perairan; B = band yang dipilih; ki/kj= koefisien atenuasi = Variance Band ke i, = Variance Band ke j, = Covar Band ke ij

Pengolahan citra ANN selanjutnya memerlukan ekstraksi ciri parameter input untuk data pembelajaran (learning), dan paramater training masing-masing metode ANN supervised dan unsupervised.

1) Ekstraksi Parameter Input

Penelitian ini menyelidiki kombinasi 6 (enam) parameter input, yaitu A1, A2, A3, A4, A5 dan A6. Ilustrasi kesemuanya disajikan pada Tabel 3-2.

Tabel 3-2 Parameter input klasifikasi

Kode Input Jumlah

Node

Proses/

Metode Output

A1 Band 1, 2, 3 dan 4 (4 Band asli)

4 SOM Klaster citra

A2 Komposit Band 1, 2 dan 3 (Band 321)

3 SOM Klaster citra

A3 Komposit Band 1, 2 dan 4 (Band 421)

3 SOM Klaster citra

A4 Komposit Band 2, 3 dan 4 (Band 432)

3 SOM Klaster citra

A5 Band 1, 2, 3 dan 4 (4 Band asli) dan komposit Band 432

7 Lyzenga Klaster/klasifikasi citra, dan koreksi kolom air

A6 Data A5 (rationing) 3 SOM/BP/

AdaBoost

Klaster/klasifikasi citra, dan koreksi kolom air

2) Parameter Training

Parameter training untuk membangun model pembelajaran ANN

unsupervised mengikuti parameter-parameter SOM berikut:

Tabel 3-3 Parameter training ANN unsupervised

Item parameter Nilai

Jumlah input citra 3

Training rate 0.5 – 0.001

Radius ketetanggaan pixel 4

Jumlah Iterasi training 10,000

Sedangkan algoritma ANN supervised untuk membangun model pembelajaran ANN-BP dan AdaBoost mengacu parameter training (Tabel 3-4) dan ROI (Tabel 3-5) sebagai data pembelajaran (learning).

Tabel 3-4 Parameter training ANN supervised

Item parameter Nilai

Training threshold 0.9

Training momentum 0.9

Kriteria RMS 0 - 0.1

Jumlah unit hidden layer*) 2 – 4

Jumlah node hidden layer**) 8

Training rate 0.2

Jumlah Iterasi training 10,000

*) Unit hidden layer berjumlah 2 khusus untuk AdaBoost **) Unit node hidden layer khusus untuk AdaBoost

29

Tabel 3-5Region of Interest (ROI) training ANN supervised Jenis penutupan No/ Kode ∑ ∑∑ ∑ Sampel (pixel) Warna Deskripsi

Karang hidup 1 (KH) 1652 Cyan Dominan karang hidup Karang mati 2(KM) 68 Magenta Dominan karang mati

Lamun 3(L) 599 Green Dominan lamun

Pasir 4(P) 1383 Yellow Dominan pasir

Pasir campur karang

5(PK) 375 Maroon

Campuran pasir dan karang Pasir campur

lamun

6(PL) 279 Purple Hamparan pasir ditumbuhi lamun

Daratan 7(D) 612 Red Pemukiman penduduk dan

karang mati yang timbul di permukaan air

Laut 8(L) 2764 Blue Perairan terendam lebih dalam

Total jumlah pixel

7,737

3) Model Pembelajaran/Training ANN

Pelatihan (training) ANN dalam penelitian ini ditempuh dengan dua cara pembelajaran (learning), yaitu unsupervised learning (algoritma SOM) dan

supervisedlearning (algoritma Backpropagation).

Algoritma SOM (self organizing map)

Desain unsupervised learning menggunakan algoritma SOM (Kohonen 1984) memiliki kemampuan atau pengorganisasian mandiri tanpa adanya pendefinisian kelas sebelumnya, sehingga membentuk suatu klaster. Pendekatan ini memerlukan Parameter training (Tabel 3-3) dengan input minimal dari user (unit input layer) untuk membagi jumlah kelas/klaster yang dihasilkan (unit output layer):

a. Unit input layer xi diaktifkan oleh input data citra. Input nilai pixel citra secara linear dibuat dari skala 0.0 dan 1.0 untuk input dengan Band minimum dan maksimum.

b. Unit output layer yj merupakan output klaster. Output layer adalah kelompok yang paling dekat/mirip radius ketetanggan pixel dari masukan yang diberikan.

Dimana:

xi : input variabel dari node i dalam input layer

yj : output node k dalam

output layer (nilai prediksi untuk node j) wji : bobot koneksi node i

input layer dengan node j dalam output layer

Gambar 3-4 Jaringan Algoritma ANN-SOM

Pelatihan jaringan Algoritma ANN-SOM (Gambar 3-3) melalui langkah berikut:

(1) Inisialisasi:

• bobot-bobot wij (biasanya random antara 0 - 1)

• laju pemahaman awal dan faktor penurunannya

• bentuk dan jari-jari (=R) topologi sekitarnya (2) Jika kondisi henti gagal, lakukan langkah 3-8. (3) Untuk setiap vektor masukan x, lakukan langkah 3-6 (4) Untuk setiap j, hitung:

... (3-3)

dimana adalah input neuron ke i pada iterasi n, dan adalah bobot dari input neuron i ke output neuron j pada iterasi n.

(5) Tentukan indeks j sehingga djminimum

(6) Untuk setiap neuron j disekitar J modifikasi bobot:

w

jibaru

= w

jilama

+ α(x

ji

w

jilama

) ... (3-4)

(7) Perbaiki kecepatan pembelajaran (mulai dengan 0.5 dan turunkan 0.001) (8) Uji kondisi penghentian

Kondisi penghentian iterasi adalah selisih antara wji saat itu dengan wji pada iterasi sebelumnya. Apabila semua wji hanya berubah sedikit saja, berarti iterasi sudah mencapai konvergensi sehingga dapat dihentikan.

Output layer Wji • • • • Y3 X0=1 Y1 Y2 Yj X1 X2 Xi Input layer

31

Algoritma Backpropagation

Algoritma ANN BP dengan parameter pelatihan (Tabel 3-4) didesain berikut:

(1) Kontribusi Ambang (threshold) dengan nilai 0-1. Kontribusi training threshold

menentukan besarnya kontribusi bobot internal dengan baik ke tingkat aktivasi node. Hal ini digunakan untuk mengatur bobot perubahan untuk bobot internal node. Pelatihan algoritma interaktif menyesuaikan bobot antara node dan secara opsional ambang node untuk meminimalkan kesalahan antara lapisan output dan respon yang diinginkan. Pengaturan kontribusi

thereshold training ke nol tidak mengatur node bobot internal. Penyesuaian bobot internal juga dapat menyebabkan klasifikasi yang lebih baik, tetapi terlalu berat banyak juga bisa menyebabkan generalisasi miskin.

(2) Tingkat Pelatihan (training rate) dengan nilai 0-1. Tingkat pelatihan menentukan besarnya penyesuaian bobot. Tingkat yang tinggi akan mempercepat pelatihan, tetapi juga meningkatkan resiko goyangan (oscillation) atau tidak bertemu di satu tempat (non-convergence) dari hasil pelatihan.

(3) Momentum Pelatihan (training momentum) dengan nilai 0-1. Memasukan tingkat momentum lebih besar dari nol memungkinkan untuk mengatur tingkat pelatihan yang lebih tinggi tanpa osilasi. Tingkat momentum yang lebih tinggi melatih dengan langkah lebih besar dari momentum yang lebih rendah. Pengaruhnya adalah untuk mendorong perubahan bobot selama proses berlangsung.

(4) Kriteria RMS, masukan nilai kesalahan RMS dimana pelatihan harus berhenti. Jika kesalahan RMS seperti yang disajikan dalam plot selama pelatihan turun dibawah nilai masuk, pelatihan akan berhenti, bahkan jika jumlah iterasi belum terpenuhi. Klasifikasi ini kemudian akan dieksekusi. (5) Pelatihan Iterasi, jumlah iterasi pelatihan diatur hingga maksimum 10.000

dengan waktu terlatih sekitar 30 menit untuk area penelitian kecil.

a. Unit input layer yang diaktifkan oleh input data citra. Input nilai pixel citra secara linear dibuat dari skala 0.0 dan 1.0 dengan Band minimum dan maksimum.

b. Hidden layer diantara input layer dan output layer. Hitung unit input layer ke unit hidden layer (pers. 3-5) dan hidden layer ke unit output layer (pers. 3-6).

c. Unit output layer merupakan output kelas. Output kelas tersebut adalah habitat terumbu karang.

d. Target digunakan untuk pembanding output. Target diperoleh dari training area atau region of interest (ROI). Proses belajar dihentikan jika nilai prediksi cukup dekat dengan nilai target melalui perhitungan kesalahan (pers. 3-11).

Pembelajaran algoritma BP tersebut diatas secara lengkap dan sistematik yaitu:

(1) Inisialisasi bobot:

a. Normalisasi input data Xi dan target tk dalam range nilai (0,1)

b. Acak bobot Wij dan Vjk menggunakan nilai (0,1)

c. Inisialisasi threshold menggunakan unit aktivasi, Xo =1 dan Ho = 1.

Dimana:

xi : input variable dari node i dalam input layer

hj : output node j dalam hidden layer

yk : output node k dalam output layer (nilai prediksi untuk node k) wij : bobot koneksi node i

dalam input layer dan

j dalam hidden layer vjk : bobot koneksi node j

dalam hidden layer dan node k dalam output layer

Gambar 3-5 Jaringan algoritma ANN-BP dengan satu hidden layer

(2) Prediksi t dengan Y dengan langkah umpan maju: a. lakukan training set xi dan tk

b. hitung bobot input layer-hidden layer menggunakan fungsi aktivasi hj:

………...………..………….. (3-5) c. Hitung bobot hidden layer-output layer menggunakan fungsi aktivasi yk:

Vjk Wij • • • • Output layer Hidden layer Y1 H2 Xi Hj Input layer X2 H3 X0= 1 Yk X1 H1 H0=1 • • • • • • • •

33

………...………..………. (3-6) (3) Minimalkan kesalahan bobot dengan penyesuaian Vjk dan Wij

menggunakan langkah umpan balik.

a. Hitung kesalahan dari node dalam output layer (δk) untuk disesuaikan dengan bobot vjk.

………...….…..…...(3-7) ………...…...….(3-8) b. Hitung kesalahan dalam node input layer yang disesuaikan dengan bobot Wij

………..…...(3-9)

……...……...………...……... (3-10)

(4) Pindahkan pada pelatihan data selanjutnya, dan ulangi langkah 2. Proses pembelajaran berhenti jika Yk cukup mendekati target Tk Penentuannya

dapat berdasarkan error E, proses pembelajaran berhenti ketika E<0.0001.

dimana ……...………….(3-11)

Dimana:

Tkp = nilai target data p dari training set node k

Yp = nilai prediksi data p dari training set node k

Jaringan dapat digunakan untuk memprediksi t melalui x setelah training selesai.

Algoritma Adaptive Boosting

Algoritma Adaptive Boosting (AdaBoost) merupakan standar klasifikasi ANN yang difokuskan pada struktur MLP (Richards and Jia 1999 dan Duda et al.

2001). Algoritma AdaBoost (Gambar 3-5) dibedakan dengan algoritma BP pada jumlah layernya, yaitu memiliki tiga layer dan dua hidden layer. Mekanisme pelatihan data menggunakan kalman filtering (Bishop 1995). Prosedur pelatihan

Kalman filter adalah fungsi kuadrat linear square error output jaringan yang menyimpulkan semua bobot pengamatan:

dan dengan jumlah acak.

(2) Pilih pasangan acak (g(v+1), l(v+1) dengan distribusi probabilitas p(v) yang tepat dan menentukan vektor output layer tersembunyi menurut persamaan:

.

dan network output berdasarkan:

set

dan

35

(4) Update synaptik bobot matrik (umpan mundur dengan jaringan):

Gambar 3-5 Penentuan bobot synaptic untuk isolasi output neuron dengan Kalman Filter

(5) Tentukan bobot matriks kovarian baru

(6) Jika fungsi keseluruhan cukup kecil, berhenti lalu atur v=v+1 dan kembali ke langkah (2).

Sedangkan pembelajaran algoritma ANN-AdaBoost secara sistematik dijalankan sebagai berikut:

(1) Set p1(v) = 1/n, v = 1 ... n, dimana n adalah jumlah observasi dalam susunan data training area. Set i = 1.

(2) Set r = 0.

(3) Buat sebuah jaringan neural network N (i) yang baru dengan bobot synaptic acak. Latih N dengan algoritma (1) dan distribusi sampling pi(v). Setelah

pelatihan selesai, biarkan Ui menjadi himpunan pengamatan yang salah

diklasifikasikan.

(4) Kalkulasi Єi =

Uipi(v). Jika Єi<1/2 maka lanjut, jika r<5 maka set r = r+1,

putuskan misalnya N(i) dan kembali ke langkah (3), lalu berhenti. (5) Hitung Єi / (1- Єi ) dan update distribusi sampling:

dimana

Dimana:

Ni : input variable dari node input layer i L’ : output node j (hidden layer 1) L : output node j (hidden layer 2)

K : kelas output node k dalam output layer v : Identitas dari contoh training

0 : bias input

Gambar 3-6 Jaringan algoritma AdaBoost dengan dua lapisan hidden layer

• • • • • • • Hidden layer 1 • • • • • • • Hidden layer 2 k L 1 0 N1 Ni N J’1 J’i L’ 1 J1 Ji 1 0 0 Output layer Input layer 1 g1(V) g2(V) gN(V) m1(V) MK(V) 1 1 K MK(V) • • • •

37

(6) Set i = i + 1. Jika i>75 maka berhenti, lalu kembali ke langkah (2). Proses pembelajaran berhenti ditunjukkan dengan jumlah iterasi dan nilai quadratic error yang diinginkan. Proses berhenti ini merupakan ukuran validasi sistem. Data validasi merupakan set data pasangan input-output pembelajaran yang dibagi kedalam dua set data, yaitu data training dan data validasi. Data

training tersebut setelah dilakukan proses pembelajaran, selanjutnya

divalidasi menggunakan satu set data input-output baru yang bertujuan untuk menghubungkan dengan baik pasangan data input-output.

Dokumen terkait