NASA/GISS AOM
1.5 Ruang Lingkup Penelitian
Ruang lingkup dari penelitian ini adalah sebagai berikut:
data curah hujan yang digunakan adalah data yang berasal dari stasiun hujan yang berada di daerah Indramayu (13 stasiun) dari tahun 1979 - 2002.
data General Circulation Model (GCM) yang digunakan adalah sebanyak 6 model (1901 – 2000).
Model sirkulasi umum atau general circulation model (GCM) merupakan suatu penggambaran matematis dari sejumlah besar interaksi fisika, kimia, dan dinamika atmosfer bumi (Von Stroch et al. 1993 dalam Sutikno 2008). GCM ini menduga perubahan iklim dan disajikan tiga layer, yaitu layer horisontal dengan ukuran 100 hingga 600 km, 10 hingga 20 layer vertikal di atmosfer dan kadangkala 30 layer di samudra, seperti disajikan pada Gambar 1.
Dengan resolusi yang begitu kasar, maka GCM tidak bisa menangkap fitur penting pada suatu area (region) tertentu yang menjadi fokus kajian dampak perubahan iklim. Namun demikian, GCM ini bisa dijalankan (di-run) untuk mengestimasi kepekaan iklim terhadap kondisi yang berbeda seperti perubahan gas rumah kaca (GRK). Oleh karena itu, model GCM memberikan beberapa keuntungan seperti tertera pada Sutikno (2008), yaitu : (1) dapat digunakan untuk mengestimasi perubahan iklim global dalam merespon terhadap peningkatan konsentrasi GRK, (2) estimasi peubah iklim (curah hujan, suhu, kelembaban) secara fisik sesuai dengan model-model fisika, (3) estimasi peubah cuaca (angin, radiasi, penutupan awan, kelembaban tanah) yang berikutnya menjadi masukan bagi analisis mengenai dampak, (4) mampu menyimulasi keragaman iklim siklus harian. Disamping kelebihan seperti disebutkan di atas, beberapa kelemahannya adalah : (1) resolusi terlalu kasar, sehingga terjadi gap antara hasil simulasi global, regional dan lokal, (2) model tersebut sulit mengkopel dengan model-model sirkulasi lautan, dan (3) proses-proses umpan balik atmosfer-biosfer tidak terpenuhi. Untuk menjembatani gap antara hasil global dengan regional dan lokal, maka diperlukan satu model yang dikenal dengan nama downscaling.
Berbagai model GCM telah dikembangkan oleh berbagai negara dengan berbagai resolusi spasial seperti disajikan pada Tabel 1. Hasil kajian perbandingan GCM tersebut untuk menilai dampak yang menunjukkan bahwa setiap model GCM mempunyai tingkat akurasi yang berbeda-beda pada suatu wilayah (Sutikno 2008). Kaimuddin (2000), diacu dalam Sutikno (2008) meyimpulkan bahwa model CSIRO-9 dan GFDL mempunyai kinerja yang baik untuk digunakan sebagai penilai dampak di Indonesia. Model GCM yang sesuai diterapkan di
Indonesia adalah model dengan resolusi horisontal yang tinggi dan skema konveksi yang komprehensif (Sutikno 2008).
Tabel 1 Skala grid model-model GCM dan negara yang mengembangkannya
Nama GCM Skala Grid Negara
Hadley Centre’s coupled ocean/atmosphere
model 2: HadCM2
2,5° x 3,75° UK
Hadley Centre’s coupled ocean/atmosphere
model 3: HadCM3
2,5° x 3,75° UK
Canadian Global Coupled Model: CGCM2 3,7° x 3,7° Canada Geophysical Fluid Dynamic Laboratory: GFDL 2,25° x 3,75° NOAA,
USA NASA/GISS Atmosphere-Ocean Model:
NASA/GISS AOM
5° x 4° NASA,USA
United Kingdom Meteorological Office Model: UKMO
2,25° x 3,75° UK
Max Plank Institute Model ECHAM3: ECHAM3 Spectral triangular 42 (T42) 2,8° x 2,8° Jerman CSIRO 5,625° x 3,214° Australia
Sumber: Wetterhall (2002) diacu dalam Sutikno (2008)
Dalam perkembangannya, dikenal model dinamik untuk memprediksi musim dan kondisi ENSO yang disebut model dinamik Coupled AO-GCM. Kedua model yang terpisah ini dipasangkan dan saling mempengaruhi satu sama lain. Saat model atmosfer bergerak dengan waktu, perubahan-perubahan pada angin rendah (dekat permukaan laut) berfungsi sebagai daya yang menggerakkan model lautan. Dengan bergeraknya model lautan dengan waktu, perubahan pada suhu lautan berfungsi sebagai mesin untuk model atmosfer melalui aliran panas dan uap air dari laut ke atmosfer. Luaran dari prakiraan musim disajikan dalam bentuk peluang yang diperoleh dari banyak model yang dikenal dengan ensemble model. Dalam hal ini Coupled AO-GCM dijalankan beberapa kali dengan nilai
input awal yang sedikit berbeda. Gambar 1 menunjukkan visualisasi layering pada GCM.
2.2 Downscaling
Downscaling didefinisikan sebagai upaya menghubungkan antara sirkulasi peubah skala global (peubah penjelas) dan peubah skala lokal (peubah respon, Sutikno 2008). Istilah downscaling sering salah jika diartikan secara tekstual yaitu suatu cara untuk meningkatkan resolusi. Downscaling lebih menunjukkan proses perpindahan dari peubah penjelas ke peubah respon, yaitu perpindahan dari skala besar ke skala kecil (regional/titik). Gambar 2 memberikan ilustrasi proses downscaling.
Pendekatan statistical downscaling (SD) menggunakan data regional (statistic dynamical downscaling) atau global (statistical downscaling) untuk
Gambar 1 Visualisasi Layering pada GCM (Sumber: Climatic Research Unit)
memperoleh hubungan fungsional antara skala lokal dengan skala global GCM, seperti model regresi. Pendekatan SD disusun berdasarkan adanya hubungan antara grid skala besar (prediktor) dengan grid skala lokal (respon) yang dinyatakan dengan model statistik yang dapat digunaan untuk menterjemahkan anomali-anomali skala global yang menjadi anomali dari beberapa peubah iklim lokal (Zorita dan Storch 1999, dalam Wigena 2006). Dalam hal ini SD merupakan suatu fungsi transfer yang menggambarkan hubungan fungsional sirkulasi atmosfer global dengan unsur-unsur iklim lokal, yang bentuk umumnya adalah : ) ( , ,, ,p tqsg t f X Y (1) Dengan :
Y : Peubah-peubah iklim lokal q : banyaknya peubah X X : Peubah-peubah luaran GCM s : banyaknya lapisan atmosfer
t : periode waktu g : banyaknya grid domain GCM
p : banyaknya peubah Y
Gambar 2 Ilustrasi proses downscaling, (Sumber : Sutikno 2008) Peubah penjelas GCM Dynamical Downscaling Observasi permukaan (Peubah respon) Statistical Downscaling RCM
2.3 Jaringan Saraf Tiruan (Neural Network)
Jaringan saraf tiruan (JST) merupakan salah satu sistem pemrosesan informasi yang didesain dengan menirukan cara kerja otak manusia dalam menyelesaikan suatu masalah dengan melakukan proses belajar melalui perubahan bobot sinapsisnya. Jaringan saraf tiruan mampu mengenali kegiatan dengan berbasis data pada masa lalu. Data masa lalu akan dipelajari oelh jaringan saraf tiruan sehingga mempunyai kemampuan untuk memberi keputusan terhadap data yang belum pernah dipelajari (Hermawan 2006).
Jaringan saraf tiruan didefinisikan sebagai suatu system pemerosesan informasi yang mempunyai karakteristik menyerupai jaringan saraf manusia. JST tercipta sebagai suatu generalisasi model matematis dari pemahaman manusia (human cognition) yang didasarkan atas asumsi sebagai berikut:
1 Pemrosesan informasi terjadi pada elemen sederhana yang disebut neuron (Gambar 3).
2 Isyarat mengalir di antara sel saraf/neuron melalui suatu sambungan penghubung,
3 Setiap sambungan penghubung memiliki bobot yang bersesuaian. Bobot ini akan digunakan untuk menggandakan/mengalikan isyarat yang akan dikirim melaluinya.
4 Setiap sel saraf akan menerapkan fungsi aktivasi terhadap isyarat hasil penjumlahan berbobot yang masuk kepadanya untuk menentukan isyarat keluarannya.
Gambar 3 Sel neuron pada manusia
Berbeda dengan metode lain, algoritma untuk JST beroperasi secara langsung dengan angka sehingga data yang tidak numerik harus diubah menjadi data numerik. Dibandingkan dengan cara perhitungan konvensional, JST tidak memerlukan atau menggunakan suatu model matematis atas permasalahan yang dihadapi. Oleh karena itu, JST juga dikenal sebagai model free-estimator.
JST memiliki sejumlah besar kelebihan dibandingkan dengan metode perhitungan lainnya (Hermawan 2006), yaitu:
1 Kemampuan mengakuisisi pengetahuan walaupun dalam kondisi ada gangguan dan ketidakpastian. Hal ini karena JST mampu melakukan generalisasi, abstraksi, dan ekstraksi terhadap properti statistik dari data..
2 Kemampuan mereprentasikan pengetahuan secara fleksibel. JST dapat menciptakan sendiri representasi melalui pengaturan sendiri atau kemampuan belajar (self organizing).
3 Kemampuan untuk memberikan toleransi atas suatu distorsi (error/fault), di mana gangguan kecil pada data dapat dianggap hanya sebagai noise (guncangan) belaka.
4 Kemampuan memproses pengetahuan secara efisien karena memakai sistem paralel, sehingga waktu yang diperlukan untuk mengoperasikannya menjadi lebih singkat.
Walaupun memiliki beberapa kelebihan, JST juga mempunyai sejumlah keterbatasan, antara lain kekurangmampuannya dalam melakukan operasi-operasi numerik dengan presisi tinggi, operasi algoritma aritmatik, operasi logika, dan operasi simbolis serta lamanya proses pelatihan yang terkadang membutuhkan waktu berhari-hari untuk jumlah data yang besar.
JST memiliki kemampuan yang sangat baik untuk beberapa aplikasi, antara lain klasifikasi, asosiasi, self organizing, dan optimasi. Karakteristik JST ditentukan oleh:
1 Pola hubungan antar-neuron (disebut dengan arsitektur jaringan),
2 Metode penentuan bobot-bobot sambungan (disebut dengan pelatihan atau proses belajar jaringan),
Pembagian aristektur JST bisa dilihat dari kerangka kerja dan skema interkoneksi. Kerangka kerja JST bisa dilihat dari jumlah lapisan (layer) dan jumlah node pada setiap lapisan. Lapisan-lapisan penyusun JST dapay dibagi menjadi tiga (Gambar 4), yaitu:
1 Lapisan input (input layer)
Node-node di dalam lapisan input disebut unit-unit input. Unit-unit input menerima input dari dunia luar. Input yang dimasukkan merupakan penggambaran dari suatu masalah.
2 Lapisan tersembunyi (hidden layer)
Node-node di dalam lapisan tersembunyi disebut unit-unit tersembunyi. Output dari lapisan ini tidak secara langsung dapat diamati.
3 Lapisan output (output layer)
Node-node pada lapisan output disebut unit-unit output. Keluaran dari lapisan ini merupakan output JST terhadap suatu permasalahan.
Gambar 4 Arsitektur Jaringan Saraf Tiruan (Sumber: http://yeni.herdiyeni.staff.ipb.ad.id) 2.3.1 Backpropagation
Jaringan saraf dengan lapisan tunggal memiliki keterbatasan dalam pengenalan pola. Kelemahan ini bisa ditanggulangi dengan menambahkan satu/beberapa lapisan tersembunyi di antara lapisan masukan dan keluaran. Meskipun penggunaan lebih dari satu lapisan tersembunyi memiliki kelebihan
manfaat untuk beberapa kasus, akan tetapi pelatihannya membutuhkan waktu yang lebih lama. Maka pada umumnya orang mulai mencoba mengguanakan sebuah lapisan tersembunyi terlebih dahulu (Siang 2005).
Backpropagation melatih jaringan untuk mendapatkan keseimbangan antara kemampuan jaringan untuk mengenali pola yang digunakan selama pelatihan serta kemampuan jaringan untuk memberikan respon yang benar terhadap pola masukan yang serupa dengan pola yang dipakai selama pelatihan.
2.3.2 Fungsi Aktivasi
Fungsi aktivasi merupakan fungsi yang menentukan level aktivasi, yakni keadaan internal sebuah neuron dalam jaringan syaraf tiruan. Dalam backpropagation, fungsi aktivasi yang dipakai harus memenuhi beberapa syarat, yaitu kontinu, terdiferensial dengan mudah dan meruapakan fungsi yang tidak turun.
Fungsi aktivasi yang sering digunakan antara lain:
Fungsi Sigmoid Biner
Fungsi ini merupakan fungsi yang umum digunakan (Siang 2005). Range-nya adalah (0,1) dan didefinisikan sebagai:
(2)
dengan turunan pertama:
(3)
Fungsi sigmoid biner ini diilustrasikan pada Gambar 5.
Gambar 5 Fungsi sigmoid biner dengan range (0,1) 1
Fungsi Sigmoid Bipolar
Fungsi sigmoid bipolar merupakan fungsi yang memiliki range (-1,1) dan didefinisikan sebagai:
(4)
dengan turunan:
(5) Fungsi sigmoid bipolar digambarkan pada Gambar 6.
Gambar 6 Fungsi sigmoid bipolar dengan range (-1,1)
Fungsi Identitas
Fungsi aktivasi identitas akan menghitung nilai output dari neuron dan mengembalikan nilai tersebut menggunakan fungsi linier. Fungsi identitas didefinisikan sebagai: dimana . Fungsi identitas dapat dilihat pada Gambar 7.
Gambar 7 Fungsi Identitas f(x)
2.3.3 Algoritme Pelatihan Backpropagation
Pelatihan backpropagation meliputi 3 fase. Fase pertama adalah fase maju. Pola masukan dihitung maju mulai dari lapisan masukan hingga lapisan keluaran menggunakan fungsi aktivasi yang ditentukan. Fase kedua adalah fase mundur. Selisih antara keluaran jaringan dengan target yang diinginkan merupakan kesalahan yang terjadi. Kesalahan tersebut dipropagasikan mundur, dimulai dari garis yang berhubungan langsung dengan unit-unit di lapisan keluaran. Fase ketiga adalah modifikasi bobot untuk menurunkan kesalahan yang terjadi. Contoh struktur jaringan saraf tiruan yang akan digunakan pada algoritme ini dapat dilihat pada Lampiran 1.
Algoritme pelatihan backpropagation adalah sebagai berikut:
Langkah 0. Inisialisasi bobot (biasanya digunakan nilai acak yang kecil) Langkah 1. Selama syarat henti salah, lakukan langkah 2-9
Langkah 2. Untuk setiap pasangan pelatihan (masukan dan target), lakukan 3-8 Fase 1 : Propagasi maju.
Langkah 3. Setiap unit masukan (Xi,i=1,...,n) menerima sinyal masukan xi dan meneruskannya ke seluruh unit pada lapisan di atasnya (hidden units).
Langkah 4. Setiap unit tersembunyi (Zj,j=1,...,p) menghitung total sinyal masukan terboboti
n i ij i j j v xv in z 1 0 _ (6)lalu menghitung sinyal keluarannya dengan fungsi aktivasi ) _ ( j j f z in z (7) dan mengirimkan sinyal ini ke seluruh unit pada lapisan di atasnya (lapisan output)
Langkah 5. Setiap unit output (Yk,k=1,...,m) menghitung total sinyal masukan terboboti
p i jk j k k w x w in y 1 0 _ (8) Lalu menghitung sinyal keluaran dengan fungsi aktivasi) _ ( k k f y in y (9)
Fase 2: Propagasi mundur
Langkah 6. Setiap unit output (Yk,k=1,...,m) menerima sebuah pola target yang sesuai dengan pola masukan pelatihannya. Unit tersebut menghitung informasi kesalahan (tk yk)f'(y_ink)
Kemudian menghitung koreksi bobot (digunakan untuk mengubah wjk nanti), wjk kzj
dan menghitung koreksi bias w0k k
serta mengirimkan nilai k ke unit lapisan di bawahnya
Langkah 7. Setiap unit tersembunyi (Zj,j=1,...,p) menghitung selisih input (dari unit-unit pada layer diatasnya)
m k jk k j w in 1 _ (10) lalu mengalikannya dengan turunan fungsi aktivasi untuk menghitung informasi error.) __ ( ' _ j j j in f z in (11) selanjutnya menghitung koreksi bobot untuk mengubah vij sebesar
i j ij x v (12)
dan menghitung koreksi biasnya v0j j
Fase 3: Perubahan bobot.
Langkah 8. Setiap unit output (Yk,k=1,...,m) diubah bias dan bobot-bobotnya (j=0,...,p) : wjk(new)wjk(old)wjk
(13)
setiap unit tersembunyi (Zj,j=1,...,p) diubah bias dan bobot-bobotnya (i=1,...,n) : vij(new)vij(old)vij
(14) Langkah 9. Uji syarat henti :
Jika besar total squared-error
n k k k y t 1 2 )
( lebih kecil dari
mencapai epoh maksimum, maka selesai; jika tidak maka kembali ke langkah 1.
Nilai toleransi () yang digunakan adalah 0 1
2.3.4 Algoritme Pelatihan Lavenberg-Marquardt
Algoritme pelatihan Lavenberg-Marquardt (LM) merupakan algoritme pelatihan yang memiliki kemampuan memperoleh nilai konvergen yang cepat dibandingkan dengan algoritme pelatihan lain dalam kasus fungsi aproksimasi (Beale et al 2011). Langkah dasar dari algoritme Lavenberg-Marquardt (LM) adalah penentuan matriks Hessian untuk mencari bobot-bobot dan bias koneksi yang digunakan dalam pelatihan JST (Warsito 2007). Matriks Hessian adalah turunan kedua dari fungsi kinerja terhadap setiap komponen bobot dan bias. Untuk memudahkan komputasi, matriks Hessian diubah dengan pendekatan iterative pada setiap epoch selama algoritme pelatihan berjalan. Proses perubahannya dilakukan dengan menggunakan fungsi gradien. Apabila fungsi kinerja yang digunakan berbentuk jumlah kuadrat error (SSE), maka matriks Hessian dapat diestimasi dengan persamaan berikut:
(15)
Dimana:
: parameter Marquardt I : matriks identitas
J : matriks Jakobian yang terdiri dari turunan pertama error jaringan terhadap masing-masing komponen bobot dan bias.
Matriks Jakobian tersusun dari turunan pertama fungsi error terhadap masing-masing komponen bobot dan bias koneksi jaringan (Hagan 1994). Nilai parameter Marquardt ( ) dapat berubah pada setiap epoch. Jika setelah berjalan satu epoch nilai fungsi error menjadi lebih kecil, nilai akan dibagi oleh faktor . Bobot dan bias baru yang diperoleh akan dipertahankan dan pelatihan dapat dilanjutkan ke epoch berikutnya. Sebaliknya, jika setelah berjalan satu epoch nilai fungsi error menjadi lebih besar maka nilai akan dikalikan faktor . Nilai perubahan bobot dan bias dihitung kembali sehingga menghasilkan nilai yang baru.
Algoritme pelatihan dengan metode Levenberg-Marquardt dapat dijabarkan sebagai berikut:
Langkah 0 :
Inisialisasi bobot awal dengan bilangan acak kecil
Inisialisasi epoch 0, MSE 0
Tetapkan maksimum epoch parameter LM ( ), faktor dan target error.
Langkah 1 :
Jika kondisi penghentian belum terpenuhi (epoch < epoch maksimum atau MSE > target error), lakukan langkah berikutnya.
Langkah 2 :
Epoch = epoch + 1
Untuk setiap data pelatihan, lakukan langkah 3 – 4. Langkah 3 :
Unit/neuron output Y menerima target pola yang berhubungan dengan pola input pelatihan. Jika diberikan N pasangan input data pelatihan (Xr, tr), r = 1,2,…,N,
dengan Xr adalah input dan tr adalah target yang akan dicapai. Kesalahan pada suatu data pelatihan ke-r didefinisikan sebagai:
er = tr - yr (16)
dengan :
er : kesalahan pada unit output tr : keluaran yang diinginkan (target) yr : keluaran actual.
e adalah vektor kesalahan berukuran N x 1 yang tersusun dari er, r = 1,2,…,N. e dapat dituliskan sebagai: .
Misal bobot dan bias koneksi dinyatakan dalam vektor w, w merupakan vektor berukuran ((2+n)p+1)x1 dapat dituliskan sebagai: .
Kesalahan suatu pelatihan jaringan oleh vektor bobot dan bias koneksi w pada suatu data pelatihan ke-r menjadi:
er(w) = (tr– yr)
Vektor kesalahan oleh vektor bobot dan bias koneksi w menjadi e(w) berukuran Nx1 yang tersusun dari er(w), dengan r = 1,2,…,N.
Hitung fungsi jumlah kuadrat error dengan persamaan:
(18) Hitung matriks Jacobian untuk vektor bobot dan bias koneksi:
(19)
untuk r = 1,2,…N
a. Hitung matriks Hessian untuk vektor bobot dan bias koneksi.
(20)
b. Hitung perubahan vektor bobot dan bias dengan persamaan berikut:
(21)
c. Hitung vektor bobot dan bias baru.
(22)
d. Hitung kesalahan yang terjadi oleh bobot dan bias koneksi yang baru.
(23)
e. Bandingkan E(w) dengan E(w(baru)).
Jika E(w) <= E(w(baru)) maka didapatkan dan kembali ke langkah a.
Jika E(w) > E(w(baru)) maka didapatkan
(24)
(25)
Kembali ke langkah 2.
2.4 K-fold Cross Validation
K-fold cross validation dilakukan untuk membagi training set dan test set. K-fold cross validation mengulang k-kali untuk membagi sebuah himpunan contoh secara acak menjadi k subset yang saling bebas, setiap ulangan disisakan satu subset untuk pengujian dan subset lainnya untuk pelatihan (Tang et al 2008). 2.5 Jarak Euclid
Jarak Euclid adalah jarak antara dua titik dalam runag Euclid. Jarak Euclid didefinisikan sebagai berikut:
(26)
(dengan menjadi norma a dan menjadi elemen ke-j untuk a dan b) (Abdi 2007).
Data yang digunakan dalam penelitian ini adalah data curah hujan untuk Kabupaten Indramayu yang terdiri dari dua (2) data, yaitu (1) data lauaran GCM yang diperoleh dari hasil kerjasama antara BMKG, Institut Pertanian Bogor (IPB) dan International Research Institute (IRI) terdiri dari tahun 1901 – 2000. , dan (2) data observasi yang diambil dari stasiun hujan yang berada di wilayah Indramayu sebanyak 13 stasiun yang terdiri dari 22 tahun yaitu tahun 1979 sampai dengan tahun 2000. Data Mode GCM yang digunakan beserta negara asal pembuatnya dapat dilihat pada Tabel 2.
Tabel 2 Model GCM dan negara pembuatnya
Nama Model GCM Negara Pembuat
Pacific_20c3m_cgcm3.1_t47, Canada Pacific_20c3m_cgcm3.1_t63 Canada Pacific_20c3m_giss_model_er Amerika Pacific_20c3m_gissaom Amerika Pacific_20c3m_miub_echo_g Jerman Pacific_20c3m_mri_cgcm2_3_2a Jepang
Stasiun observasi curah hujan yang digunakan dalam penelitian ini adalah sebagai berikut, stasiun Bangkir, Bondan, Cidempet, Cikedung, Jatibarang, Jatinyuat, Kedokan Bunder, Krangkeng, Lohbener, Sudikampiran, Sudimampir, Sukadana, dan Sumurwatu.
3.2 Metode Penelitian
Tahapan penelitian yang digunakan dapat dilihat pada Gambar 8. Tahap pertama yang dilakukan adalah memahami masalah yang akan diselesaikan. Pada penelitian ini akan dilakukan pengembangan downscaling menggunakan metode JST.
Gambar 8 Diagram alur penelitian
Langkah selanjutnya adalah mengumpulkan data yang diperlukan dalam proses penelitian ini. Secara keseluruhan data terdiri dari 22 periode (tahun 1979 –
2000). Dengan demikian data GCM yang digunakan hanya dari tahun 1979 –
2000. Setelah data terkumpul, maka data dibagi menjadi 2 bagian, yaitu data data latih dan data uji. Data latih ini terdiri dari data observasi curah hujan yang berasal dari stasiun observasi dan data GCM yang sesuai dengan koordinat dari masing-masing stasiun. Pembagian data latih dan data uji berdasarkan 11-fold cross validation, sehingga 20 tahun digunakan sebagai data latih dan dua tahun digunakan untuk data uji. Proses tersebut dilakukan untuk 13 stasiun. Daftar pembagian data latih dan data uji dapat dilihat pada Tabel 3.
Tabel 3 Pembagian data latih dan data uji.
Training Set Test Set
79,80,81,82,83,84,85,86,87,88,89,90,91,92,93,94,95,96,97,98 99,00 79,80,81,82,83,84,85,86,87,88,89,90,91,92,93,94,95,96,99,00 97,98 79,80,81,82,83,84,85,86,87,88,89,90,91,92,93,94,97,98, 99,00 95,96 79,80,81,82,83,84,85,86,87,88,89,90,91,92,95,96,97,98, 99,00 93,94 79,80,81,82,83,84,85,86,87,88,89,90,93,94,95,96,97,98, 99,00 91,92 79,80,81,82,83,84,85,86,87,88,91,92,93,94,95,96,97,98, 99,00 89,90 79,80,81,82,83,84,85,86,89,90,91,92,93,94,95,96,97,98, 99,00 87,88 79,80,81,82,83,84,87,88,89,90,91,92,93,94,95,96,97,98, 99,00 85,86 79,80,81,82,85,86,87,88,89,90,91,92,93,94,95,96,97,98, 99,00 83,84 79,80,83,84,85,86,87,88,89,90,91,92,93,94,95,96,97,98, 99,00 81,82 81,82,83,84,85,86,87,88,89,90,91,92,93,94,95,96,97,98, 99,00 79,80
Tahap selanjutnya data observasi curah hujan yang akan digunakan sebagai data latih dikelompokkan menjadi lima kelompok, yaitu sangat rendah, rendah, sedang, tinggi, dan sangat tinggi. Pengelompokkan ini menggunakan sistem kuartil (Q1, Q2, dan Q3). Untuk kelompok sangat rendah dan sangat tinggi adalah Q1 dan Q3, sedangkan untuk Q2 akan dikelompokkan lagi menjadi 3 kelompok yaitu kelompok rendah, sedang, dan tinggi dengan cara yang sama dengan sebelumnya. Setelah data observasi curah hujan telah dibagi berdasarkan lima kelompok, maka data GCM pada setiap bulan untuk data observasi curah hujan pun dibagi berdasarkan kelompok yang sesuai dengan data observasinya. Data GCM yang digunakan sebesar 5x5, sehingga menjadi 25. Ilustrasi proses pengambilan data GCM sebanyak 5x5 dapat dilihat pada Gambar 9. Data GCM yang digunakan untuk pelatihan adalah data GCM bulanan sebanyak 20 periode (tahun) sehingga data masukan menjadi 240 buah data dengan atribut sebanyak 25 buah dan data observasi pun sebanyak 240 buah data. Ilustrasi pembagian kelompok data latih dapat dilihat pada Gambar 10.
Gambar 9 Ilustrasi pengambilan data GCM 5x5.
(a)
(b)
Setelah semuanya terbagi menjadi lima kelompok, maka dilakukan proses JST berdasarkan kelompok sehingga hasil yang didapat adalah lima model JST yaitu JST untuk kelompok sangat rendah, rendah, sedang, tinggi, dan sangat tinggi. Data GCM berperan sebagai masukan untuk JST, dan data observasi berperan sebagai targetnya dan jumlah hidden layer yang diujicobakan adalah 50 dan 100. Struktur JST yang digunakan dapat dilihat pada Gambar 11.
Gambar 11 Struktur JST yang akan digunakan.
Setelah data untuk pelatihan proses JST telah selesai dilakukan, maka akan dilakukan proses untuk pengujian JST. Data uji yang akan digunakan adalah data GCM dan data observasi selama 2 periode (tahun) yaitu sebanyak 24 buah baris data. Penentuan kelompok ini menggunakan metode jarak Euclid. Data yang digunakan untuk menghitung jarak Euclid adalah data GCM untuk pengujian. Data GCM ini akan dihitung dengan masing-masing data GCM yang terdapat pada setiap kelompok pada data latih. Tujuan dari pengelompokkan ini adalah untuk menentukan model JST yang akan dipakai dalam tahap pengujian. Apabila data GCM untuk pengujian ini lebih dekat jaraknya dengan data GCM kelompok rendah, maka satu baris data GCM untuk pengujian ini dan data observasinya akan masuk ke kelompok rendah dan akan diuji menggunakan JST untuk kelompok rendah.
Pada tahap evaluasi, akan ditentukan apakah hasil yang dikeluarkan oleh model akan menghasilkan yang nilainya mendekati dengan observasi. Jika hasilnya bernilai negatif, maka akan dilakukan pergantian nilainya dengan rataan curah hujan observasi setiap bulan yang dihasilkan oleh stasiun hujan tertentu.
Setelah melakukan evaluasi, tahap dokumentasi akan dilakukan sampai penelitian ini selesai.
3.3 Lingkup Pengembangan Sistem
Perangkat keras yang digunakan berupa Personal Computer (PC) dengan spesifikasi:
processor: Intel Core i5 3.20 GHz,
memori: 2 GB, dan
harddisk: 500 GB.
Perangkat lunak yang digunakan yaitu:
sistem operasi: Windows 7 Ultimate,
Matlab 7.7.0, dan
Percobaan pada penelitian ini dilakukan dengan menggunakan metode pelatihan jaringan saraf tiruan (JST) backpropagation dengan jumlah neuron pada hidden layer sebanyak 50 dan 100 buah neuron. Terdapat dua buah model JST yang digunakan dalam penelitian ini, pertama model JST menggunakan jumlah neuron pada hidden layer sebanyak 50 dan 100 dengan parameter menggunakan algoritma pelatihan Levenberg-Marquardt dan nilai gradien minimum sebesar
untuk selanjutnya disebut JST-1, sedangkan yang kedua, model JST
menggunakan jumlah neuron pada hidden layer sebnayak 50 dan 100 dengan