• Tidak ada hasil yang ditemukan

Klasifikasi Web Berbahaya Menggunakan Metode Logistic Regression

N/A
N/A
Protected

Academic year: 2021

Membagikan "Klasifikasi Web Berbahaya Menggunakan Metode Logistic Regression"

Copied!
5
0
0

Teks penuh

(1)

Klasifikasi Web Berbahaya Menggunakan

Metode

Logistic Regression

Abdi Bimantara

1

Jurusan Sistem Komputer Universitas Sriwijaya Palembang, Indonesia 1abdibimantara91@gmail.com

Tiara Annisa Dina

2

Jurusan Sistem Komputer Universitas Sriwijaya Palembang, Indonesia 2tiaraanisa3@gmail.com

Abstrak— Web berbahaya (Malicious website) telah berhasil menjadi salah satu ketakutan terbesar bagi para pengguna internet saat ini. Telah banyak sekali berbagai macam kasus kejahatan yang didasari oleh web berbahaya ini. Pada penelitian kali ini kami akan mencoba mengidentifikasi sebuah web apakah termasuk kategori berbahaya atau tidak tanpa melihat langsung isi dari konten web tersebut. Teknik yang digunakan dalam pengklasifikasian yaitu Logistic Regression. Data yang digunakan sebanyak 1000 baris dengan 10 variabel prediksi dan akurasi yang didapatkan cukup tinggi yakni sebesar 94%.

Kata Kunci — Klasifikasi, Logistic Regression, Malicious Web (Web berbahaya)

I. PENDAHULUAN

Pada saat ini web telah menjadi platform global yang sangat penting untuk berkomunikasi, kegiatan jual beli, serta kegiatan pembelajaran. Seringnya pengguna web menyimpan dan mengelola informasi yang sangat penting. Maka menarik perhatian para penjahat internet yang menggunakan web dan internet dengan cara memanfaatkan kerentanan yang ada pada web tersebut demi kepentingan pribadi.

Web Berbahaya adalah salah satu contohnya. Konten web berbahaya telah menjadi jalan yang paling efektif bagi para penjahat internet. Pada umumnya para penjahat sering menggunakan metode eksploitasi

drive-by-download dalam aksinya[1].

Para penjahat internet melibatkan pengiriman email yang terlihat seperti dari sumber tepercaya untuk mengelabui sang target, sehingga saat mengklik URL (Uniform Resource Locator) akan tertautkan halaman web palsu. Dikarenakan saat ini telah banyak sekali kasus serangan menggunakan web, upaya besar telah dikerahkan untuk mendeteksi berbagai jenis web berbahaya yang tersebar di dunia internet[2].

Seiring meningkatnya ancaman yang ditimbulkan oleh situs web berbahaya seperti penipuan, penyebaran

malware, pengambilan data pengguna internet secara sepihak[3]. Sehingga mulai banyak orang yang melakukan penelitian untuk megamankan pengguna internet. Sebagai contoh cara penanggulangannya adalah dengan menggunakan daftar hitam yang berisikan web berbahaya.

Pada penelitian sebelumnya, dengan mengunakan metode Logistic Regression juga didapatkanlah tingkat kesalahan dalam mendeteksi web berbahaya yaitu sebesar 1.5%. Selain itu pada penelitian yang sama didapatkan bahwa tingkat kesalahannya lebih kecil dibandingkan dengan metode seperti Naive Bayes

yakni sebesar 3.5% dan SVM yaitu sebesar 1.8%[4]. Dalam penelitian kali ini, kami akan mengklasifikasikan apakah sebuah web tersebut berbahaya atau tidak tanpa memeriksa konten sebenarnya. Penelitian ini termotivasi dari penelitian sebelumnya yang menunjukkan bahwa web berbahaya memiliki ciri pembeda tertentu dari web pada umumnya[5][6].

II. METODOLOGI

A. Dataset

Pada penelitian kali ini kami mengambil contoh dataset Malicious and Benign websites yang berasal dari website Kaggle dan berisikan lebih kurang 1000 web[7]. Kami mencoba menggunakan 10 variabel yang berbeda sebagai variabel prediksi (Predictor). Dapat diihat pada Tabel I.

TABEL I. Variabel yang digunakan.

Variabel Definisi

URL LENGTH Banyaknya Karakter yang terdapat didalam url dari web tersebut

NUMBER SPECIAL CHARACTERS

Merupakan jumlah karakter bersifat khusus yang terdapat didalam URL dari web tersebut seperti “/”, “%”, “#”, “&”, “. “, “=”

DIST REMOTE TCP PORT

Merupakan jumlah Port yang terdeteksi di dalam URL tersebut dan berbeda dengan TCP

REMOTE IPS Variabel yang memilki jumlah total IP yang terhubung ke Honeypot

(2)

APP BYTES Jumlah byte yang ditransfer SOURCE APP

PACKETS Paket yang dikirim ke server REMOTE APP

PACKETS Paket yang diterima dari server SOURCE APP

BYTES

Jumlah byte yang ditransfer ke server REMOTE APP

PACKETS Jumlah byte yang diterima dari server APP PACKETS Jumlah IP yang di hasilkan selama komunikasi antara

Honeypot dan sever Sedangkan untuk variabel respon kami menggunakan variabel bertipe kelas yakni 1 dan 0. Dalam artian jika memenuhi respon 1 maka web tersebut adalah web berbahaya, sedangkan jika memenuhi respon 0 maka web tersebut adalah web normal.

B. Logistic Regression

Logistic Regression merupakan salah satu metode statistika yang sering digunakan untuk menganalisis data yang mendeskripsikan antara variabel respon dengan satu atau lebih variabel prediksi. Variabel respon dari Logistic Regression bersifat dikotomi yang hanya bernilai 1 (ya) dan 0 (tidak), sehingga variabel respon yang dihasilkan akan mengikuti distribusi Bernoulli dengan fungsi probabilitas sebagai berikut [8].

𝒇(𝒚𝒊) = 𝝅(𝒙𝒊)𝒚𝒊 𝟏 − 𝝅(𝒙𝒊) 𝟏 𝒚𝒊

dengan 𝒚𝒊= 𝟎, 𝟏 (1)

Berdasarkan Persamaan (1) didapatkanlah model persamaan Logistic Regression (2)

𝝅(𝒙)

= 𝒆𝒙𝒑(𝜷𝟎+ 𝜷𝟏𝒙𝟏+. . . +𝜷𝒑𝒙𝒑) 𝟏 + 𝒆𝒙𝒑(𝜷𝟎+ 𝜷𝟏𝒙𝟏+. . . +𝜷𝒑𝒙𝒑)

(𝟐) Dari persamaan (2) diatas dapat kita transformasikan yang biasa disebut dengan tranformasi logit 𝜋(𝑥) untuk memperoleh fungsi dari g(x) yang linear dalam parameternya, sehingga mempermudah prediksi parameter regresi yang dirumuskan dengan persamaan (3)

𝒈(𝒙) = 𝐥𝐧 𝝅(𝒙) 𝟏 − 𝝅(𝒙)

= 𝛃𝟎+ 𝛃𝟏𝐱𝟏+. . . +𝛃𝐩𝐱𝐩 (𝟑) Metode Maximum Likelihood Estimator (MLE) merupakan teknik yang digunakan untuk mencari titik tertentu sehingga dapat memaksimumkan sebuah fungsi. Metode ini juga digunakan untuk memprediksi parameter-parameter yang terdapat dalam model

Logistic Regression. Metode ini memprediksi 𝛽

dengan menggunakan fungsi likelihood. Fungsi

likelihood yang digunakan adalah 𝑳(𝜷) = 𝒍𝒏 𝒍(𝜷) = ∑ ∑𝒏𝒊 𝟏𝒚𝒊𝒙𝒊𝒋 𝒑 𝒋 𝟎 𝜷𝒋− ∑𝐧𝐢 𝟏𝐥𝐧 𝟏 + 𝐞𝐱𝐩 𝜷𝒋𝒙𝒊𝒋 𝒑 𝒋 𝟎 (4)

Dari Persamaan (3) dapat kita diferensialkan terhadap 𝛽, setelah itu disamakan dengan 0, tetapi cara ini sering kali memperoleh hasil yang bersifat implisit. Untuk mengatasi masalah ini dilakukanlah metode iterasi Newton Rhapson dengan tujuan membesarkan fungsi likelihood [9].

Praktek pengujian parameter menggunakan metode

Logistic Regression ini dapat dilakukan bisa secara serentak ataupun secara bergiliran. Dalam pengujian serentak statistik uji yang digunakan adalah statistik G test atau yang biasa disebut dengan likelihood Ratio Test. S[8].

Salah satu cara yang digunakan untuk menginterpretasi koefisien variabel prediksi yakni dengan menggunakan metode Odds ratio. Odds ratio

berfungsi sebagai penunjuk perbandingan peluang muncul atau tidak munculnya dari suatu kejadian. Jika nilai odds ratio kurang dari 1, maka antara variabel prediksi dan variabel respon terdapat hubungan negatif setiap kali perubahan nilai variabel prediksi (X) dan jika nilai odds ratio yang didapatkan lebih besar dari 1, maka antara variabel prediksi dan variabel respon terdapat hubungan positif setiap kali perubahan nilai variabel prediksi (X). Statistik uji yang digunakan dalam pengujian kesesuaian model adalah statistik Hosmer-Lemeshow Test(Cˆ).

C. Evaluasi model menggunakan matriks confusion

Langkah selanjutnya kami akan mengevaluasi kinerja model tersebut pada beberapa data testing

(uji). Matriks confusion merupakan salah satu metode yang dipakai untuk mengukur kinerja dari suatu teknik klasifikasi pada suatu set data testing yang nilai-nilai sebenarnya sudah diketahui. Nilai matriks confusion

dapat dilihat pada Tabel II.

TABEL II. Matriks Confusion. n = Y1 + Y2 Prediksi : Tidak Prediksi : Ya

Aktual : TN FP Y1 = TN +FP Tidak Aktual : FN TP Y2 = FN +TP Ya X1 = TN +FN X2 = FP +TP

TP adalah singkatan dari True Positive yang merupakan kasus dimana kita memprediksi YES dan

(3)

nilai aktualnya benar. TN adalah singkatan dari True Negative yang merupakan kasus dimana kita memprediksi NO dan nilai aktualnya salah. FP adalah singkatan dari False Positive yang merupakan kasus dimana kita memprediksi YES dan nilai aktualnya adalah salah. FN adalah singkatan dari False Negative

yang merupakan kasus dimana kita memprediksi NO

dan nilai aktualnya benar.

Sehingga dapat kita hitung untuk mendapatkan tingkat akurasinya dengan menggunakan persamaan

Akurasi = ( TP + TN ) / Total (5)

Namun, selain dapat mengetahui seberapa besar tingkat akurasinya dengan matriks confusion. Kita juga dapat mengetahui seberapa besar eror dalam hal prediksi, dengan menggunakan persamaan

Eror = ( FP + FN ) / Total (6)

Tidak terbatas sampai disitu, dengan matriks

confusion juga bisa kita dapatkan nilai-nilai lainnya seperti :

Nilai Precision adalah nilai yang menunjukkan seberapa besar tingkat ketepatan antara informasi yang diminta seseorang dengan jawaban yang diberikan oleh sistem . Nilai precision dapat diketahui dengan menggunakan persamaan

Precision = TP / (TP+FP) (7)

Nilai Recall nilai yang menunjukkan seberapa besar tingkat keberhasilan suatu sistem dalam menemukan kembali sebuah informasi. Nilai Recall

dapat diketahui dengan menggunakan persamaan

Recall = TP / (TP+FN) (8)

Nilai F-Measure (F1-Score) merupakan salah satu perhitungan evaluasi yang mengkombinasikan nilai

recall dan nilai precision. Nilai recall dan nilai

precision pada suatu keadaan dapat memiliki bobot yang berbeda.Dapat diketahui dengan menggunakan persamaan

F1 = 2 x (𝑷𝒓𝒆𝒄𝒊𝒔𝒊𝒐𝒏 𝑿 𝑹𝒆𝒄𝒂𝒍𝒍)

(𝑷𝒓𝒆𝒄𝒊𝒔𝒊𝒐𝒏 𝑹𝒆𝒄𝒂𝒍𝒍) (9)

D. Evaluasi model menggunakan matriks confusion

Metode seleksi fitur memegang peran penting dalam memilih atribut yang signifikan, melalui penghapusan atribut yang tidak relevan. Oleh karena itu metode ini dapat digunakan untuk mengidentifikasi variabel prediksi yang paling berpengaruh untuk menghasilkan variabel respon nantinya[10]. Dengan menggunakan metode seleksi fitur ini dapat meningkatkan akurasi prediksi dan juga dapat mengurangi ukuran struktur data menjadi lebih efektif dari sebelumnya[11].

Menurut kami, setidaknya ada empat langkah dasar dalam menggunakan metode seleksi fitur[12] bisa dilihat pada Gambar 1.

Gambar.1. Langkah-langkah feature selection 1. Generation Procedure, untuk menghasilkan

subset kandidat berikutnya.

2. Evaluation Function, untuk mengevaluasi bagian yang diperiksa.

3. Stopping Criterion, untuk memutuskan kapan harus berhenti.

4. Validation Procedure, untuk memeriksa apakah subset valid.

E. Kurva ROC( Receiver Operator Characteristic)

ROC adalah grafik dua dimensi dengan FP sebagai garis horizontal dan TP sebagai garis vertikal[13]. Kurva ROC bertujuan menunjukkan akurasi dan membandingkan klasifikasi secara visual. ROC dapat mengekspresikan hasil dari perhitungan matriks

confusion, yaitu hubungan antara FPR (False Positive Rate) dan TPR (True Positive Rate).

FPR = FP / (FP + TN) (10)

TPR = TP / (TP + FN) (11)

Dari hubungan antara TPR dan FPR, kita dapat mengetahui bahwa semakin luas jarak antara garis yang dihasilkan dengan baseline maka semakin bagus hasil prediksi yang didapatkan.

III. HASILDANPEMBAHASAN

Pada bagian ini kami akan membahas hasil dari penelitian mengenai identifikasi web berbahaya menggunakan metode Logistic Regression. Seperti dijelaskan pada bagian di atas kami mengumpulkan data sebanyak 1000 web sebagai bahan analisa. Pada penelitian kali ini setelah pengidentifikasian maka didapatkanlah hasil pada Gambar.2.

(4)

Gambar.2. Jumlah dari web berbahaya dan web normal Terlihat dari Gambar 2 bahwa dari 1000 web yang kami kumpulkan didapatkan hasil kurang lebih sebanyak 900 web memenuhi kondisi 0 yang berarti web tersebut adalah web normal, sedangkan kurang lebih sebanyak 100 web memenuhi kondisi 1 yang berarti web tersebut adalah web berbahaya.

Selain itu pada Gambar.3 dapat dilihat bahwa variabel URL LENGTH dan NUMBER SPECIAL CHARACTERS sangatlah berpengaruh dalam memprediksi web berbahaya atau web normal.

Gambar.3. Hasil feature selection

Selanjutnya kami membagi data tersebut menjadi 70:30, dengan 30% dijadikan data dan selebihnya menjadi data training. Lalu kami pun melanjutkan penelitian ke tahap prediksi dengan menggunakan data yang sudah terbagi menjadi data training dan data

testing tersebut dapat dilihat pada Tabel III.

TABEL III. Hasil berupa nilai Precision,Recall,dan F1-Score

Precision Recall F1-Score

0 0.98 0.95 0.97

1 0.67 0.8 0.73

Avg/Total 0.94 0.94 0.94

Dapat kita lihat bahwa nilai precision sebesar 94%, nilai recall sebesar 94% sedangkan nilai dari f1-score

didapatkan sebesar 94%. Selanjutnya kami mencoba menggunakan evaluasi model Menggunakan matriks

confusion untuk memperjelas hasil dari pengidentifikasian data kami seperti pada Tabel IV.

TABEL IV. Hasil penelitian dalam bentuk Matriks Confusion.

n = 291 Prediksi : Prediksi : Tidak Ya Aktual : TN = 249 FP = 12 Y1 = 261 Tidak Aktual : FN = 6 TP = 24 Y2 = 30 Ya X1 = 255 X2 = 36

Dengan menggunakan persamaan (5) Maka didapatkan tingkat akurasi yakni sebesar 94% dan dengan menggunakan persamaan (6) didapat error sebesar 6%. Dari Gambar 4 dengan menggunakan kurva ROC dapat kita bahwa tingkat prediksi dari model yang dihasilkan cukup memuaskan.

Gambar.4.Visualisasi hasil penelitian menggunakan kurva ROC

IV. KESIMPULAN

Berdasarkan hasil dan pembahasan yang telah dilakukan didapatkan tingkat akurasi prediksi menggunakan metode Logistic Regression cukup tinggi, yakni mencapai angka 94%. Kami juga mendapatkan tingkat error yang cukup kecil yakni sebesar 6%.

Selain itu, kami juga menemukan nilai precision, nilai recall, dan nilai dari F1-score sama-sama didapatkan sebesar 94%.

(5)

REFERENSI

[1] D. Canali, M. Cova, G. Vigna, and C. Kruegel, “Prophiler: a fast filter for the large-scale detection of malicious web pages,” in Proceedings of the 20th international

conference on World wide web, 2011, pp. 197–206.

[2] H. Choi, B. B. Zhu, and H. Lee, “Detecting Malicious Web Links and Identifying Their Attack Types.,”

WebApps, vol. 11, p. 11, 2011.

[3] J. Ma, L. K. Saul, S. Savage, and G. M. Voelker, “Identifying suspicious URLs: an application of large-scale online learning,” in Proceedings of the 26th annual

international conference on machine learning, 2009, pp.

681–688.

[4] J. Ma, L. K. Saul, S. Savage, and G. M. Voelker, “Beyond blacklists: learning to detect malicious web sites from suspicious URLs,” in Proceedings of the 15th ACM SIGKDD international conference on Knowledge

discovery and data mining, 2009, pp. 1245–1254.

[5] N. Chou, R. Ledesma, Y. Teraguchi, J. C. Mitchell, and others, “Client-Side Defense Against Web-Based Identity Theft.,” in NDSS, 2004.

[6] D. K. McGrath and M. Gupta, “Behind Phishing: An Examination of Phisher Modi Operandi.,” LEET, vol. 8, p. 4, 2008.

[7] G. A. Sandag, J. Leopold, and V. F. Ong, “Klasifikasi Malicious Websites Menggunakan Algoritma K-NN Berdasarkan Application Layers dan Network Characteristics,” CogITo Smart J., vol. 4, no. 1, 2018. [8] D. W. Hosmer Jr, S. Lemeshow, and R. X. Sturdivant,

Applied logistic regression, vol. 398. John Wiley & Sons, 2013.

[9] A. Agresti, Categorical data analysis, vol. 482. John Wiley & Sons, 2003.

[10] A. T. Liem, G. A. Sandag, I.-S. Hwang, and A. Nikoukar, “Delay analysis of dynamic bandwidth allocation for triple-play-services in EPON,” in Cyber and IT Service

Management (CITSM), 2017 5th International

Conference on, 2017, pp. 1–6.

[11] D. Koller and M. Sahami, “Toward optimal feature selection,” 1996.

[12] M. Dash and H. Liu, “Feature selection for classification,”

Intell. data Anal., vol. 1, no. 3, pp. 131–156, 1997. [13] C. Vercellis, Business intelligence: data mining and

optimization for decision making. John Wiley & Sons, 2011.

Gambar

TABEL I. Variabel yang digunakan.
TABEL II. Matriks Confusion.  n = Y1 + Y2  Prediksi :  Tidak   Prediksi : Ya
TABEL III. Hasil berupa nilai Precision,Recall,dan F1-Score

Referensi

Dokumen terkait

Hal tersebut disebabkan karena siswa pada kelas kontrol tidak terbiasa menemukan sendiri penyelesaian dari permasalahan, sehingga saat mengerjakan soal post test

Alat Pembayaran dengan Menggunakan Kartu (APMK) adalah seluruh instrumen sistem pembayaran yang pada umumnya berbasis kartu antara lain: kartu Anjungan Tunai Mandiri, kartu

Pekerjaan yang harus dilaksanakan merupakan pekerjaan pengawasan konstruksi fasilitas sisi udara di bandar udara. Maksud pelaksanaan pekerjaan pengawasan adalah

Penduduk berumur 10 tahun ke atas yang termasuk dalam kelompok bukan angkatan kerja, adalah mereka yang selama seminggu yang lalu hanya bersekolah, mengurus rumah tangga,

Upaya-upaya lembaga adat dalam menyelesaikan konflik lahan pada hutan adat perlu diarahkan pada peningkatan pengetahuan dan pemahaman akan fungsi dan peran lembaga adat guna

Asosiasi yang terjadi antar gastropoda dengan lamun maupun dengan organisme lain dalam ekosistem lamun dapat memberikan gambaran betapa pentingnya peranan ekosistem ini

Ruang lingkup dari penelitian ini adalah pengelolaan data kompetensi karyawan tetap untuk promosi jabatan dengan menggunakan metode profile matching yang

1) Menyetujui penolakan PPK, maka PA/KPA memerintahkan Pokmil untuk melakukan evaluasi ulang, pemasukan penawaran ulang atau tender ulang; atau.. 3) Putusan PA/KPA