• Tidak ada hasil yang ditemukan

Data Clickstream

Clickstream  yaitu    proses pencatatan atau perekaman data klik pada layar  komputer   yang   dilakukan   oleh   pengguna   pada   saat   browsing   web   atau  menggunakan aplikasi perangkat lunak dengan lokasi analisis pada area halaman 

web atau aplikasi, login pada klien atau di dalam web server, router, atau server proxy (Moe   WW  et al. 2004),   atau  Clickstream adalah   serangkaian  link  yang  sudah diklik oleh pengguna ketika mengakses halaman web (freedictionary 2013).  Data clickstream ini biasanya disimpan dalam sebuah file access.log yang berada  di web server. Setiap pengguna melakukan proses klik terhadap menu yang ada di  monitor dalam hal ini halaman web, maka  Web server   akan merekamnya dan  disimpan dalam file  access.log.  Sehingga akan banyak informasi dan data yang  tersiimpan di dalamnya dan bisa dianalisis menggunakan metode yang ada dalam 

data mining. Proses menganalisis data  clickstream merupakan bagian dari  Web Usage Mining (WUM) yang melakukan discovery data dengan menggunakan data  sekunder yang ada pada web server, yaitu meliputi  data access log, browser log, user profiles, registration data, user session, cookies, user queries dan juga data 

mouse click (Abdurrahman et al. 2006). 

Web Mining

Dengan adanya Website kita bisa menyampaikan informasi kepada khalayak  ramai   dengan   mudah   dan   cepat   tanpa   batas   wilayah,   sehingga   siapapun   bisa  mengasksesnya   dengan   bebas   pula,   kecuali   yang   menyertakan   beberapa   syarat  akses. Sedangkan cara atau teknik data mining untuk mengekstrak data dari data 

Web dikenal dengan istilah Web Mining (Srivastava  2005).

Ada tiga kelompok yang termasuk ke dalam Web Mining, yaitu : 1. Web Content Mining (WCM) 

Merupakan     kelompok  Web Mining  dengan   melakukan   proses   ekstraksi  menggunakan data yang berasal dari isi suatu dokumen Website (J. Srivastava  2005). isi suatu dokumen web tersebut bisa berupa teks, gambar, audio, video  dan   data  record dalam   bentuk  list dan   tabel.   Hasil   dari   penelitian   bidang  WCM   biasanya   berupa   klasifikasi  Website dan   implementasi   pada   mesin  pencarian seperti Google.

  

2. Web Structure Mining (WSM) 

Merupakan   teknik   dalam  Web Mining  dengan   mengambil   atau   melakukan  ekstraksi   data   yang   berasal   dari   struktur   halaman   atau   struktur   dokumen  sebuah  Website (Srivastava,   2005).   Halaman   dianggap   sebagai  node  dan 

G={V,E},   dengan   G   adalah  graph,   V   adalah  verteks  dan   E   adalah  edge.  Penelitian   bidang   WSM   sangat   bermanfaat   untuk   mengetahui   pola   prilaku  pengguna atau pengunjung suatu Website. 

3. Web Usage Mining (WUM)

Merupakan   teknik   analisis   dan   pencarian   pola   dalam  clickstream dan  keterhubungan data yang terkumpul atau terbentuk pada saat terjadi interaksi  pengguna dengan sumber daya  Website (Mobaser   2007). Secara umum ada  tiga tahapan  proses yang dilakukan dalam WUM, yaitu:

a. Pengumpulan data dan pra proses (data collection and pre-processing)

Pada   tahap   ini   data  Clickstream dibersihkan   dan   dipecah   ke   dalam  beberapa   kumpulan   data   transaksi   pengguna   yang   menggambarkan  aktifitas   pengguna   ketika   mengakses  Website. Pada   tahapan   ini   yang  diperhatikan   adalah   sumber   dan   tipe   data   (penggunaan   data,   isi   data,  struktur data dan pengguna data), tahapan pra proses (pembersihan data,  identifikasi  pageview, identifikasi pengguna,  sessionization, pelengkapan  jalur atau path dan integrasi data)

b. Pemodelan data untuk WUM Untuk memudahkan dalam menentukan dan menganalisis pola maka perlu  dilakukan proses pemodelan data yang sudah dibersihkan ke dalam bentuk  yang lebih mudah dikerjakan dengan menggunakan teknik data  mining, biasanya dimodelkan dalam bentuk matriks, yaitu matriks transaksi dan  matriks pageview.

c. Penemuan Pola (pattern discovery) dan Analisis Pola (pattern analysis)

Pada   tahap   ini   dilakukan   pencarian   dan   analisis   pola   biasanya  menggunakan   perumusan   analisis   yang   ada   dalam   ilmu   statistik   yang  meliputi  analisis  session, analisis  klaster, analisis assosiasi  dan korelasi  menggunakan algoritme Apriori.

Adapun fungsi dari WUM dapat dijelaskan sebagai berikut (Pramudiono 2004): 1. Personalisasi

Melakukan   personalisasi  website  sesuai   dengan   kebutuhan   dan   keinginan  pengguna

2. Meningkatkan performa website

WUM menyediakan fasilitas untuk mendeteksi kepuasan pengguna, analisis  trafik   data,   transmisi   jaringan   serta   distribusi   data,   sehingga   apabila  dianalisis dengan baik akan dihasilkan bahan rujukan untuk meningkatkan  performa website menjadi lebih baik.

3. Modifikasi dan pengembangan situs

Untuk   mengembangkan website dibutuhkan data yang akurat mengenai kekurangan dan kelebihan suatu website, timbal balik informasi (feed back)

yang diberikan oleh pengguna website sangat berguna dalam mengambil keputusan rancang ulang website.

4. Karakteristik penggunaan

Analisis Keranjang Belanja (Market Basket Analysis)

Fungsi association rules  seringkali   disebut   dengan   analisis   keranjang  belanja  (Market Basket Analysis) yang digunakan untuk menemukan relasi atau  korelasi diantara himpunan item­item. Analisis keranjang belanja adalah analisis  dari   kebiasaan   membeli   customer   dengan   mencari   asosiasi   dan   korelasi   antara  item­item berbeda yang diletakan customer dalam keranjang belanjanya.  Analisis  keranjang   belanja   dapat   digunakan   secara   efektif   pada   bidang  Web Mining

terutama   untuk   mengilustrasikan   aturan   assosiasi   yang   terdapat   pada   data   log,  misalnya terdapat aturan sebagai berikut:

Halaman X and Halaman Y implies Halaman Z (X and Y => Z), memiliki nilai 

confidence  90%,   hal   ini   berarti   jika   seirang   pengguna   atau   pengunjung  mengunjungi   halaman   A   dan   B   maka   terdapat   kemungkinan   90%   pengguna  tersebut akan mengunjungi halaman Z, sehinnga perlu disediakan  link langsung  dari halaman A taau B ke C. Salahsatu algoritme yang umum digunakan dalam  analisis   keranjang   belanja   adalah   Algoritme   Apriori,   yaitu   algoritme   analisis  keranjang pasar yang digunakan untuk menghasilkan aturan asosiasi (Goswami et al. 2010) dengan tujuan utama adalah untuk mencari maksimal frequent itemset

(didapatkan juga frequent itemset yang tidak maksimal).  Istilah penting dalam Algoritme Apriori :

a. Itemset  adalah   himpunan   dari   item­item   (dalam   hal   ini   adalah   halaman  web) yang terekam pada data log. Itemset I = {I1, I2, I3,... In} b. Transaksi atau Kejadian N merupakan sekumpulan n transaksi N = {T1, T2, T3,... Tn}; T  N, T   I. ∈ ⊆ c. Kaidah asosiasi adalah peluang bahwa item­item tertentu hadir bersama­ sama.  X ­­> Y dimana X dan Y adalah itemset

d. Support, supp(X)  dari suatu  itemset  X adalah rasio dari jumlah transaksi  dimana suatu itemset muncul dengan total jumlah transaksi. 

Supp(X) = TX

TN ; TX adalah Transaksi atau kemunculan X, X I;⊆ TN adalah jumlah total transaksi.

e. Setiap itemset X diasosiasikan dengan himpunan transaksi TX ={T N | T X} yang merupakan himpunan transaksi yang memuat itemset X.  f. Confidence  (keyakinan) adalah nilai probabilitas adanya itemset X pada  suatu transaksi, maka juga ada itemset Y pada transaksi tersebut. Conf(X Y) = SuppXYSuppX ; 

atau dalam terminologi peluang bersyarat Conf(X → Y) = P(Y|X) = PXY

System Development Life Cycle (SDLC ) Model

Bahan dan data yang akan diolah dalam penelitian ini merupakan data teks  yang berukuran besar dan ada kemungkinan banyak variasi untuk beberapa  Web Server yang   berbeda.   Agar   hasil   penelitian   ini   bisa   berkelanjutan   maka   perlu  dikembangkan   sebuah   sistem   yang   terkomputerisasi   untuk   menggantikan  pengolahan data manual ke dalam bentuk terkomputerisasi, sehingga sistem yang  dikembangkan   bisa  berlaku  untuk   data   yang  berasal   dari   berbagai  Web Server

Apache yakni bukan hanya yang berasal dari Web Server Departemen Pertanian.  Akan tetapi dalam pengembangannya Sistem ini menggunakan data sampel yang  berasal dari data akses log Web Server departemen Pertanian Indonesia. 

Pengembangan   sistem   dilakukan   dengan   mengimplementasikan   tahapan  pengembangan  perangkat   lunak   yaitu   SDLC   Model  (System Development Life Cycle). Adapun tahapannya terdapat 5 fase (Satzinger et al 2007) yaitu:

1. Tahap Perencanan (Project Plannnng Phase)

2. Tahap Analisis (Analysis Phase)

3. Tahap Desain (Design Phase)

4. Tahap Implementasi (Implementation Phase)

5. Tahap Dukungan/Perawatan (Support Phase)

4 HASIL DAN PEMBAHASAN

Pemecahan data log dan konversi ke file .csv

Data log yang sudah terpilih kemudian dipecah-pecah agar memudahkan untuk pembacaan oleh program. Pemecahan data log tidak seperti membagi rata menggunakan rumus matematika akan tetapi diambil berdasarkan jumlah baris tertentu. Dari hasil pemecahan diperoleh data sebagai berikut:

Tabel 16. Data hasil pemecahan file access_log

Nomor Nama file log Ukuran (byte) Jumlah Baris 1 a.csv 110 542 665 480 000 2 b.csv 150 217 973 522 838 3 c.csv 147 894 289 475 826 4 d.csv 93 766 392 311 630 5 e.csv 62 261 364 253 348 6 f.csv 67 463 583 280 202 Jumlah 632 146 266 2 323 844

Membersihkan data dan Pemilihan String

Setelah   data   log   dipecah   menjadi   6   kelompok,   kemudian   dengan  mengguakan aplikasi yang dikembangkan ke enam data tersebut dibersihkan dan  dipilih   string   yang   dibutuhkan,   sehingga   hasil   akhirnya   akan   diperoleh   data  transaksi yang bersih.

jumlah Transaksi yang tercatat pada Web Server deptan untuk periode November  2012 ­ Desember 2012 adalah sebagai berikut:

Tabel 17. Tahap Pembersihan Data Transaksi Web deptan

No Jenis Transaksi Berkas Awal Berkas Hasil Jumlah Transaksi Jumlah IP  Host 1 Pembersihan tahap 1 access_log.csv data_log_1 2 323 844 34 060 2 Pembersihan tahap 2 data_log_1 data_log_2 1 641 919 34 060 3 Pembersihan tahap 3 data_log_2 data_log_1itemset    360 926 29 452 4 Pembersihan tahap 4 data_log_1itemset data_log_1itemset    115 569 29 452

Berdasarkan tabel 4.2 terlihat ada 4 tahap pembersihan, yaitu:

1. Pembersihan  tahap  1  merupakan   proses  pemasukan  data  teks  csv  ke tabel  data_log_1,   disini   hanya   dilakukan   proses   impor   saja,   pembersihan   hanya  mengganti tanda petik dengan spasi kosong

2. Pembersihan Tahap 2 merupakan proses pemisahan string request yang ada  pada data_log_1, dengan menggunakah Script PHP. 

Misalnya diketahui string request =/wap/index.php?option=component&id= 3&gbfrom=16258.

Pada   data  request tersebut   semua   string   dibelakang   tanda   tanya   (?)   akan  dibuang dengan perintah seperti berikut : $str_rek = /wap/index.php?option=component&id=3&gbfrom=16258 $pisah_request = explode('?',$str_rek); Setelah perintah tersebut maka akan terbentuk array pisah_request yaitu : $pisah_request[0] = /wap/index.php $pisah_request[1] = option=component&id=3&gbfrom=16258

Setelah data request terbagi dua, maka tinggal dilakukan pemilihan string yang dibutuhkan yaitu $pisah_request[0],   sedangkan   $pisah_request[1]  dibuang. Kemudian 3 huruf sebelah kanan dari  $pisah_request[0] disimpan  pada fileds type_req dan dijadikan acuan query pembersihan baris data yang  mengandung  file  gambar,   audio,   video,  layout web dan  string query.

Pembersihan dilakukan dengan perintah SQL berikut :  $$pj_string = strlen($pisah_request[0]);

$type_req = substr($pisah_request[0],$pj_string-3,3);

@bersihkan = mysql_query("delete from data_log_1 where type_req ='css' or type_req ='js' or type_req ='.js' or type_req ='.db' or type_req ='xml' or type_req ='bmp' or type_req ='gif' or type_req ='jpg' or type_req ='jpeg' or type_req ='png' or type_req ='mp3' or type_req ='mp4' or type_req ='swf' or type_req ='sql' or type_req ='ico' ortype_req ='ef=' or type_req ='exe' or type_req ='*' or type_req ='mso' or type_req ='emf' or type_req ='epp' or type_req ='rtf' or type_req ='lt=' or type_req ='wmf' ortype_req ='ms=' or type_req ='%3D' or type_req ='rc=' or type_req ='MYI' ortype_req like '%/' ");

3. Pembersihan   tahap   3   yaitu   proses   pembuangan   request   yang   sama   dan  dilakukan pada detik yang sama, hal tersebut untuk menghindari duplikasi  data.

4. Pembersihan tahap 4 merupakan proses pembuangan data transaksi yang dilakukan oleh host (IP Address) pada hari yang sama dengan akses node yang sama.

Struktur Data Pohon dan Membentuk Node

Struktur data pohon yang terbentuk tidak direpresentasikan dalam bentuk gambar,  akan tetapi dalam bentuk susunan direktori. dari hasil penelusuran direktori web  Deptan, diperoleh sebanyak 20 924 node, dengan pengurutan data berdasarkan  abjad isi_node supaya memudahkan pencarian.

Tabel 18. Daftar Node kode_node isi_node 1 /adm.html 2 /adm.php 3 /adm/admloginuser.php 4 /adm/index.html 5 /adm/index.php 6 /admin 7 /admin-login.asp 8 /admin-login.html 9 /admin-login.php 10 /admin.asp 11 /admin.htm 12 /admin.html 13 /admin.indexadmin.php 14 /admin.php ... ... 20923 /wp-content/themes/make-money-online-theme/scripts/timthumb.php 20924 /wp-content/uploads/2012/01/laporan-kemajuan-program-catatan- akhir-tahun-pertama-desember-2011.pdf

Analisis Database

Berikut ini skema pembentukan tabel untuk keperluan penambangan data:

Gambar 7.  Skema pembentukan tabel log 

Penambangan data dilakukan terhadap tabel data_log_2 dan data_log_1itemset.  data_log_2   digunakan   untuk   mengetahui   runtutan   waktu  (time series)  dalam  batasan   waktu   terkecil   adalah   detik,   sedangkan   data_log_1itemset   digunakan  untuk   membentuk   transaksi   per   ip_host   sebagai   identifikasi   sesi  (session identification) dengan batasan waktu terkecil adalah hari atau tanggal (relasi antar  tabel ada pada class diagram).

Analisis Assosiasi

a. Penentuan kaidah asosiasi

Proses   analisis   yang   pertama   dilakukan   yaitu   menentukan   kandidat   1­itemset  untuk   20     transaksi   tertinggi   dari   transaksi   node   pada   tabel   data_log_1itemset 

dengan nilai  Minimum Support (MS) adalah 1% dan nilai Minimum Confidence (MC) minimum adalah 0.2%, dapat dilihat pada Tabel 4.4 

Tabel 19.  Hasil Scan / Prunning Pertama kandidat 1­itemset

No Kode

Node Isi Node

Node Count Support (%) Memenuhi Nilai MS 1 8348 /index1.php 10162 8.8 ya 2 8039 /event.php 8841 7.7 ya 3 19262 /respon.php 8128 7.0 ya 4 12223 /pengumuman/cover_es.htm 7097 6.1 ya 5 20890 /wap/index.php 2808 2.4 ya 6 19803 /tampil.php 2505 2.2 ya 7 7530 /dir-alamatskpd/tampil.php 1961 1.7 ya 8 10759 /news/detail.php 1496 1.3 ya 9 7535 /dir_kementerian.php 788 0.7 tidak 10 332 /bbkptgpriok/admin/rb/bab-7-microsoft-excel.pdf 648 0.6 tidak 11 7969 /e-mail/alamat-dinas.htm 639 0.6 tidak 12 2500 / daerah_new/banten/dispertanak_pandeglang/artikel_10a.ht m 626 0.5 tidak 13 7330 /dialog/diskusi.htm 583 0.5 tidak 14 12823 /pengumuman/Mutasi-PNS/mutasi_tugas_pns.pdf 513 0.4 tidak 15 7978 /e-mail/email_pejabat_deptan.htm 492 0.4 tidak 16 7564 /distanbun-sijunjung/admin/rb/bab-7-microsoft-excel.pdf 447 0.4 tidak 17 7474 /dinakkeswan_jateng/detaildata.php 446 0.4 tidak 18 19835 /teknologi/horti/tcabe3.htm 436 0.4 tidak 19 11033 /pedum2012.php 420 0.4 tidak 20 10022 /kln/berita/wto/ttg-wto.htm 390 0.3 tidak Jumlah transaksi  akses node keseluruhan adalah 115 569 transaksi dapat dilihat  nilai support untuk  /index1.php adalah 8.796% artinya 8.796%  dari seluruh 

transaksi dipastikan mengandung node 8.796%  /index1.php, dan seterusnya  untuk data node lain diperoleh nilai support dengan perhitungan sama.

Menentukan     kandidat  2-itemset dapat   dilakukan   dengan   mencari   keseluruhan  kombinasi akses node yang terdapat pada hasil scan 1-itemset, sebagai berikut:

Tabel 20.  Hasil Scan / Prunning Kedua kandidat 2­itemset

No Kode Node Isi Node Node

Count Support (%) Memenuhi Nilai MS 1 8348,19262 /index1.php,/respon.php 1751 1.5 ya 2 8039,8348 /event.php,/index1.php 1748 1.5 ya 3 8039,19262 /event.php,/respon.php 1744 1.5 ya 4 8039,12223 /event.php,/pengumuman/cover_es.htm 1525 1.3 ya 5 12223,19262 /pengumuman/cover_es.htm,/respon.php 1519 1.3 ya 6 8348,12223 /index1.php,/pengumuman/cover_es.htm 1514 1.3 ya 7 8039,19803 /event.php,/tampil.php 521 0.5 tidak 8 8348,19803 /index1.php,/tampil.php 380 0.3 tidak 9 19262,19803 /respon.php,/tampil.php 369 0.3 tidak 10 12223,19803 /pengumuman/cover_es.htm,/tampil.php 341 0.3 tidak 11 8348,10759 /index1.php,/news/detail.php 159 0.1 tidak 12 8039,10759 /event.php,/news/detail.php 143 0.1 tidak 13 10759,19262 /news/detail.php,/respon.php 142 0.1 tidak 14 10759,12223 /news/detail.php,/pengumuman/cover_es.htm 128 0.1 tidak 15 8348,7530 /index1.php,/dir-alamatskpd/tampil.php 65 0.1 tidak 16 8039,7530 /event.php,/dir-alamatskpd/tampil.php 64 0.1 tidak 17 12223,7530 /pengumuman/cover_es.htm,/dir- alamatskpd/tampil.php 60 0.1 tidak 18 19262,7530 /respon.php,/dir-alamatskpd/tampil.php 56 0.05 tidak 19 7530,19803 /dir-alamatskpd/tampil.php,/tampil.php 42 0.04 tidak 20 19803,20890 /tampil.php,/wap/index.php 39 0.03 tidak 21 8039,20890 /event.php,/wap/index.php 36 0.03 tidak 22 12223,20890 /pengumuman/cover_es.htm,/wap/index.php 34 0.03 tidak 23 19803,10759 /tampil.php,/news/detail.php 31 0.03 tidak 24 8348,20890 /index1.php,/wap/index.php 29 0.03 tidak 25 20890,7530 /wap/index.php,/dir-alamatskpd/tampil.php 25 0.02 tidak 26 7530,10759 /dir-alamatskpd/tampil.php,/news/detail.php 22 0.02 tidak 27 10759,20890 /news/detail.php,/wap/index.php 19 0.02 tidak 28 19262,20890 /respon.php,/wap/index.php 16 0.01 tidak Berdasarkan tabel 4.5 maka selanjutnya dilakukan proses perhitungan confidence

dari   kaidah assosiasi yang memenuhi syarat Minimum Support (MS) 1.0% dan 

Tabel 21.  Hasil perhitungan support dan confidence kaidah assosiasi 2­itemset

No Kaidah Assosiasi Support (%) Confidence (%) Memenuhi MS dan MC 1 /respon.php ----> /index1.php 1.5 0.22 ya 2 /pengumuman/cover_es.htm ----> /event.php 1.3 0.21 ya 3 /respon.php ----> /event.php 1.5 0.21 ya 4 /pengumuman/cover_es.htm ----> /respon.php 1.3 0.21 ya 5 /pengumuman/cover_es.htm ----> /index1.php 1.3 0.21 ya 6 /event.php ----> /index1.php 1.5 0.20 ya 7 /event.php ----> /respon.php 1.5 0.20 ya 8 /respon.php ----> /pengumuman/cover_es.htm 1.3 0.19 tidak 9 /event.php ----> /pengumuman/cover_es.htm 1.3 0.17 tidak 10 /index1.php ----> /respon.php 1.5 0.17 tidak 11 /index1.php ----> /event.php 1.5 0.17 tidak 12 /index1.php ----> /pengumuman/cover_es.htm 1.3 0.15 tidak

Nilai support dan nilai confidence 2-itemset /respon.php ­­­­> /index1.php (19262  ­­­> 8348) adalah  1.5% dan 0.22% (tabel 4.5), hal ini berarti setiap kali halaman 

web atau node /respon.php diakses maka ada kepercayaan sebesar 0.22% bahawa  di dalamnya ada halaman /index1.php. 

Sedangkan   nilai  support dan   nilai  confidence 2-itemset /index1.php     ­­­­> 

/respon.php   1.5% dan 0.17%, yang berarti setiap kali halaman  web  atau node  /index1.php diakses maka ada kepercayaan sebesar 0.17% bahawa di dalamnya ada  halaman /respon.php. 

Pengembangan Sistem Komputer untuk pengolahan data 1. Perencanaan Sistem

Sistem yang akan dikembangkan diharapkan bisa menggantikan tahapan fungsi  manual dalam  menganalisis data  Clickstream sehingga hasil akhir seperti  yang  tergambar   dalam   gambar   3.2   bisa   tercapai.   Fungsi   utama   dari   sistem   yang  dikembangkan   yaitu   dapat   memprediksi   pengembangan   konten  Website untuk  lebih baik lagi.

2. Analisis Sistem

Pada tahapan ini akan diuraikan mengenai kebutuhan data dan informasi untuk  pengembangan   sistem  (System Requirement). Analisis   dilakukan   dengan  Pendekatan   Berorientasi   Objek  (Object Oriented Approach) atau   dikenal   juga  dengan  Object Oriented Modeling (OO Modeling). Menurut   Satzinger  et al. (2007) yang termasuk kebutuhan sistem dirumuskan sepbagai berikut :

Interaction Diagram (Collaboration and/or Sequence Diagram) + Statechart Diagram

a. Analisis Use Case Definisi Aktor

Aktor pada sistem ini terdiri dari satu aktor yang disebut dengan pengguna 

(user) dengan   deskripsi   nya   adalah   semua   pengguna   sistem   yang   bisa  menganalisis   data Clickstream dengan   cara   mengolah   data   mentah   berupa  data   log,   membersihkan,   menganalsis   dan   melihat   prediksi   pengembangan  konten Website.

Proses Pendefinisian Use Case

Tabel 22.  Definisi Use Case

No. Use Case Deskripsi

1 Impor Data Log (Format CSV)

Merupakan proses mengambil data log yang sudah tersimpan di komputer, untuk selanjutnya akan disimpan dalam database.

2 Membersihkan Data Log Merupakan proses membersihkan data log dengan membuang string yang tidak dibutuhkan

3 Membuat Node Proses Pembuatan node yang berasal dari direktori atau folder yang ada pada Website

serta membandingkan data node yang ada pada Website dengan aktivitas untuk masing- masing host

4 Membuat 1-Itemset Node Merupakan salahsatu tahapan dalam algoritme apriori yaitu menentukan frequent dari kemunculan node 1-item node

5 Membuat 2-Itemset Node Merupakan tahapan selanjutnya dari tahapan membuat 1-Itemset Node, yaitu menentukan frequent dari kemunculan node 2-item node 6 Lihat Aktivitas Host Merupakan proses query terhadap tabel log

untuk mengambil data request untuk masing- masing host (IP Address)

7 Membuat data grafik Merupakan proses menampilkan data dalam bentuk grafik

Uraian Skenario Uses Case

Tabel 23  Uraian Skenario Impor Data Log Nama Use Case: Impor Data Log

Skenario: Mengimpor data log

Triggering Event: User memilih url website kemudian menngambil (browse) file log yang sudah dikonversi ke file .csv.

Deskripsi singkat: Merupakan proses pemilihan berkas log untuk tiap-tiap url website,

hanya diperkenankan 1 url 1 data log dengan waktu yang sama

Aktor: User

Use Case terkait Membersihkan data log

Stakeholders: User

Kondisi sebelum: Data deskripsi url harus sudah tersimpan dalam tabel.

Kondisi Sesudah: Adanya penambahan data log untuk suatu alamat url dengan validasi berdasarkan waktu log.

Aliran Aktifitas Aktor Sistem

1. Memilih url induk yang akan ditambahkan data log nya

2. Memilih data log yang sesuai dengan url induk

2.1 Memeriksa keberadaan data pada tabel disesuaikan dengan data yang dimasukan oleh user

2.2 Menyimpan data ke dalam tabel

2.3 Memberikan konfirmasi data berhasil disimpan

3. Memeriksa data log dengan mengonversi ke file .csv

3.1. Membaca data log dan memisahkan data tiap baris dengan pembatas (separator)

spasi

3.2. Menampilkan data yang sudah dipisah-pisah

3.3. Memberikan konfirmasi penyimpanan data yang sudah dipisah-pisah tiap barisnya ke dalam database

Penangkapan Kondisi Kesalahan

(Exception Conditions)

2.1. Jika data yang dimasukan sudah ada pada tabel maka batalkan proses penyimpanan serta berikan konfirmasi bahwa data sudah ada, arahkan user ke form masukan data.

3.1 Apabila ada data log yang tidak terbaca, periksa lagi data log

awal untuk memastikan datadalam format .csv dan hanya memiliki 1 separasi yaitu spasi

Tabel 24 Uraian  Skenario Bersihkan Data Log Nama Use Case: Membersihkan Data Log

Skenario: Membersihkan data log

Triggering Event: User memilih url website kemudian membersihkan data log

Deskripsi singkat: Ketika pilihan bersihkan berkas dipilih, maka sistem akan membersihkan data log dengan membuang baris data yang mengandung file tertentu.

Aktor: User

Use Case terkait Membuat 1-itemset node, include: Impor data log

Stakeholders: User

Kondisi sebelum: Url website harus sudah memiliki data log

Kondisi Sesudah: Data log hanya memuat data yang dibutuhkan, baris data yang mengandug file tertentu maka akan dihapus.

Aliran Aktifitas Aktor Sistem

1. Memilih url induk yang akan dibersihkann data log nya

2. Melakukan proses pembersihan berkas

2.1 Membersihkan data log dari url web sesuai dengan pilihan

user (pembersihan data log meliputi penghapusan baris data yang mengandung file css, js, .js, .db , xml, bmp, gif, jpg, jpeg, png, mp3, mp4, swf, sql, ico dan baris data yang tidak memiliki file (berakhiran /)

2.2 Memberikan konfirmasi berkas berhasil dibersihkan Penangkapan Kondisi

Kesalahan (Exception Conditions)

-

Tabel 25. Uraian  Skenario Membuat Node

Nama Use Case: Membuat Node

Skenario: Mengelola data Direktori Website

Triggering Event: User memilih opsi Direktori Website pada sajian menu utama. Deskripsi singkat: Ketika user memilih untuk menambahkan direktori website, maka

akan disediakan form isian direktori

Dokumen terkait