• Tidak ada hasil yang ditemukan

BAB II LANDASAN TEORI. pengguna dengan tujuan memberi saran untuk peningkatan perangkat lunak. User

N/A
N/A
Protected

Academic year: 2021

Membagikan "BAB II LANDASAN TEORI. pengguna dengan tujuan memberi saran untuk peningkatan perangkat lunak. User"

Copied!
10
0
0

Teks penuh

(1)

6 BAB II

LANDASAN TEORI

2.1 User Feedback

User feedback (Ulasan) adalah informasi bermakna yang diberikan oleh pengguna dengan tujuan memberi saran untuk peningkatan perangkat lunak. User feedback dapat diartikan secara implisit atau eksplisit. Implisit feedback diekspresikan melalui tingkah laku pengguna dan dapat diambil sebagai contoh dalam e log. Ketika berbicara mengenai user feedback secara eksplisit, user feedback yang bertumpu pada niat pengguna untuk mengkomunikasikan kepada seseorang (Morales-Ramirez dkk., 2017).

Ada berbagai jenis user feedback yaitu terstruktur, semi-terstrutur dan tidak terstruktur. User feedback terstruktur mengacu pada umpan balik yang didasarkan pada pilihan opsi (mis., kotak centang, daftar, tombol) dan deskripsi. User feedback semi-terstruktur mengacu pada kombinasi pilihan beberapa opsi atau kotak teks untuk menulis pendapat, seperti dalam ulasan app store. User Feedback tidak terstruktur seperti free-text (Morales-Ramirez dkk., 2017).

2.2 Text Classification

Text Classification (Klasifikasi teks) yaitu membuat pemetaan antara satu

set dokumen dan satu set label. Pemetaan ini kemudian digunakan untuk

menentukan dokumen baru (tidak berlabel) secara otomatis. Klasifikasi teks

merupakan supervised learning yaitu mempelajari dari data yang telah dilabel

(Violos dkk., 2018).

(2)

7 2.2.1 Stopword

Stopword adalah kata-kata yang sangat umum di corpus teks dan kata yang dianggap agak tidak informatif (seperti: itu, dan, atau). Salah satu pendekatan untuk menghapus stopword adalah dengan mencari pada kamus Bahasa stopword yang spesifik. Pendekatan alternatif dengan membuat daftar stopword lalu menyortir semua kata di seluruh korpus teks berdasarkan frekuensi. Daftar stopword yaitu setelah selesai mengkonversi menjadi kumpulan kata-kata yang tidak berlebihan yang akan digunakan untuk menghapus semua kata dari dokumen input (Raschka, 2014).

Tabel 2.1 Contoh stopword removal (Indraloka dan Santosa, 2017) Sebelum stopword removal beberapa minggu ini sering error, tidak bisa masuk

aplikasi

Sesudah stopword removal beberapa minggu sering error tidak masuk aplikasi

2.2.2 Stemming

Stemming adalah proses merubah kata menjadi kata dasar. Tujuan melakukan stemming adalah untuk menghemat waktu dan ruang untuk membuat klasifikasi efisien dan cepat. Algoritma stemming diterapkan, yang diubah dari kata-kata normal ke bentuk dasar (Violos dkk., 2018).

Tabel 2.2 Contoh stemming (Indraloka dan Santosa, 2017) Sebelum stemming aplikasi memudahkan user berbelanja.

Sesudah stemming aplikasi mudah user belanja

2.2.3 Tokenization

Tokenization menjelaskan proses umum dalam memetakan corpus teks

menjadi individual elemen yang berfungsi sebagai input untuk algoritma natural

language processing (NLP). Tokenization disertai dengan langkah-langkah

(3)

8 pemrosesan opsional lainnya, seperti penghapusan kata berhenti (stopword) dan karakter tanda baca, stemming, dan pembangunan N-gram (Raschka, 2014).

Tabel 2.3 Contoh tokenization (Indraloka dan Santosa, 2017) Sebelum Tokenization aplikasi mudah user belanja

Sesudah Tokenization aplikasi mudah user belanja

2.3 Algoritma Naïve Bayes Classifier

Naïve Bayes classifier (NBC) didasarkan pada teorema Bayes yang menggunakan probabilitas bersyarat untuk mengklasifikasikan data ke dalam kelas yang ditentukan sebelumnya (Hakiem dan Fauzi, 2019). Teknik pemelajaran mesin yang populer untuk klasifikasi teks atau text classification. Metode ini mengasumsikan model generatif probabilistik untuk teks. Persamaan Naïve Bayes secara umum dapat di notasikan pada Persamaan 2.1 (Violos dkk., 2018).

𝑃 𝑐 | 𝑑 𝑃 𝑑 | 𝑐 𝑃 𝑐

𝑃 𝑑 (2.1)

d adalah kata, c adalah kelas, P(d | c) adalah peluang kata di kelas c. P(c) adalah peluang kata dari kelas c dan P(d) adalah peluang dari kata d.

Multinomial Naïve Bayes adalah Naïve Bayes Classifier untuk fitur diskrit.

Metode Naïve Bayes didasarkan pada teorema Bayes dengan asumsi bahwa semua

fitur independen. Naïve bayes melatih parameter dengan menggabungkan

probabilitas stastistik pada setiap kelas. Model Bayesian yang paling umum dalam

domain klasifikasi teks adalah model Multivariate Bernoulli yang menggunakan

fitur biner dan model Multinomial yang menggunakan fitur seperti jumlah

kemunculan kata. Bergantung pada ukuran kosa kata, model Multivariate Bernoulli

bekerja lebih baik dengan kosa kata kecil, model Multinomial bekerja lebih baik

(4)

9 dalam kosa kata besar. Namun, model multinomial berkinerja lebih baik pada ukuran kosa kata rata-rata (Kwon dkk., 2018).

Model multinomial dirancang untuk menentukan term frekuensi yaitu berapa kali term muncul dalam dokumen. Mempertimbangkan term dalam menentukan sentimen dokumen. Selain itu, term frekuensi juga membantu dalam memutuskan apakah term tersebut bermanfaat dalam analisis atau tidak. Suatu term muncul dalam dokumen berkali-kali dapat menjadi kata kunci yang tidak berpotensi pada dokumen tetapi memiliki term frekuensi yang tinggi. Kata-kata tersebut harus dihapus terlebih dahulu untuk mendapatkan akurasi yang lebih baik dari algoritma ini (Singh dkk., 2019).

P(p) merepresentasikan prior probability dari ulasan dari polarity p yang dapat dihitung sebagai berikut:

𝑃 𝑝 𝑁𝑐

𝑁𝑑𝑜𝑐 (2.2)

Untuk menghitung rata-rata tiap kata untuk kelas yang diberikan.

Conditional Probabilities tiap kata dalam tiap kelas dapat dihitung dengan Persamaan 2.3 (Singh dkk., 2019):

𝑃 |𝑝 𝑐𝑜 𝑛 |𝑃 1

𝑐𝑜 𝑛 |𝑉| (2.3)

Nilai 1 dan |V| ditambahkan sebagai konstanta smoothing yang

ditambahkan untuk menghindari nilai nol agar term dapat dihitung. Konsep ini lebih

dikenal dengan Laplace Smoothing. | V | adalah jumlah istilah dalam kosakata total

ulasan (Singh dkk., 2019).

(5)

10 Probabilitas P(p|n) dihitung untuk polaritas positif dan juga polaritas negatif dan maksimum dianggap sebagai polaritas yang diprediksi untuk ulasan. Persamaan 2.4 (Singh dkk., 2019).

𝑃 𝑝|𝑛 𝑃 𝑝 𝑃 |𝑝 (2.4)

(t

k

|p) berarti berapa kali term t

k

muncul dalam ulasan yang memiliki polaritas p dan hitung (tp) berarti jumlah total token yang ada dalam ulasan.

2.4 N-Gram Language Model

N-gram merupakan fitur yang dihasilkan dari proses ekstraksi fitur pada saat pre-processing teks. Fitur n-gram adalah fitur yang berisi kumpulan kata-kata yang akan menjadi acuan dalam proses selanjutnya (Mohamed, 2015).

Unigram N=1

𝑃 | , … , 𝑃 | , … , (2.5)

Bigram N=2

𝑃 | , … , 𝑃 |

𝑃 , , … , 𝑃 𝑃 | … 𝑃 | (2.6)

Trigram N=3

𝑃 | , … , 𝑃 | ,

𝑃 , , … , 𝑃 𝑃 | 𝑃 | , … 𝑃 | ,

(2.7)

N-gram adalah metode memeriksa jumlah (N) kata terus menerus dari

urutan tertentu teks. Model ini membantu memprediksi item berikutnya secara

berurutan. Model N-gram membantu menganalisis teks atau dokumen. Unigram

mengacu pada N-gram ukuran 1, Bigram mengacu pada N-gram ukuran 2, Trigram

(6)

11 mengacu pada N-gram ukuran 3. Lebih tinggi N-gram mengacu pada empat gram, lima gram, dan seterusnya (Tripathy dkk., 2016).

Metode n-gram dapat dijelaskan dengan menggunakan contoh dari sebuah kalimat " Aplikasi suka error".

Unigram: Aplikasi , suka , error di mana satu kata dipertimbangkan.

Bigram: Aplikasi suka , suka error di mana sepasang kata dipertimbangkan.

Trigram: Aplikasi suka error di mana serangkaian kata ang memiliki jumlah sama dengan tiga dipertimbangkan

.

2.5 CountVectorizer

CountVectorizer (CV) adalah vektor dasar yang digunakan untuk mengukur keberadaan kata hanya dengan menghitung jumlah kemunculan dalam dokumen (Sun dan Beekley, 2017). Pada dasarnya membuat kamus kata-kata dari corpus teks. Kemudian, setiap bagian dikonversi ke vektor fitur numerik di mana setiap elemen akan menjadi jumlah berapa kali kata tertentu muncul dalam dokumen (Garreta dan Moncecchi, 2013). CV akan mengubah ulasan teks menjadi suatu bagian dari jumlah token. Ini mengimplementasikan tokenization dan occurrence counting. Hasil matriks yang diperoleh setelah proses ini adalah matriks jarang (sparse matrix) (Tripathy dkk., 2016).

Tabel 2.4 Contoh CountVectorizer

Aplikasi [ 1, 0, 0, 0, , 0 ]

Bagus [ 0, 1, 0 0, , 0 ]

Keren [ 0, 0, 1, 0, , 0 ]

Jelek [ 0, 0, 0, 0, , 0 ]

Error [ 0, 0, 0, 0, , 0 ]

(7)

12 2.6 Term frequency Inverse document frequency (TF-IDF)

Term frequency (tf(t,d)) adalah pendekatan alternatif untuk mengkategorikan teks dokumen. Term frekuensi istilah biasanya didefinisikan sebagai berapa kali istilah yang diberikan term t (mis., kata atau token) muncul dalam dokumen d (pendekatan ini kadang-kadang juga disebut frekuensi mentah).

Dalam praktiknya, frekuensi istilah sering dinormalisasi dengan membagi frekuensi istilah mentah dengan panjang dokumen (Tripathy dkk., 2016). Di mana tf(t,d) merupakan term frequency mentah ( hitungan term t dalam dokumen d) dan nd adalah total jumlah term dalam dokumen d.

𝑒𝑟𝑚 𝑓𝑟𝑒𝑞 𝑒𝑛𝑐 𝑛𝑜𝑟𝑚𝑎𝑙𝑖𝑠𝑎𝑠𝑖 𝑓 , 𝑑

𝑛 (2.8)

Raw Term Frequency (Raw TF) ini merupakan penyelesaian yang paling dasar, menghitung seberapa bobot sebuah kata dalam satu dokumen. Persamaan untuk Raw TF, t merupakan jumlah kata unik yang muncul di dokumen d dapat dihitung pada Persamaan 2.8 (Hananto dkk., 2018).

𝑓 , 𝑑 𝑓

,

(2.9)

TF adalah jumlah kemunculan istilah dan IDF terbalik dari frekuensi dokumen yang merupakan tingkat berapa banyak kata berkontribusi untuk membedakan dokumen dengan yang lain. IDF mendapat skor rendah ketika istilah tersebut muncul di hampir setiap dokumen seperti kata-kata stopword. Sebaliknya, jika istilah tersebut muncul dalam beberapa dokumen, skor IDF-nya tinggi. Nilai IDF dapat dihitung dengan Persamaan 2.8:

𝑖𝑑𝑓 𝑙𝑜𝑔 𝑛

𝑛 (2.10)

(8)

13 Persamaan Smoothing Inverse Document Frequency (IDF). Smoothing digunakan agar tidak terjadi perubahan yang signifikan pada nilai IDF ketika merubah nilai TF dapat dihitung dengan Persamaan 2.11 (Kwon dkk., 2018).

𝑖𝑑𝑓 𝑑, 𝑙𝑜𝑔 n 1

𝑑𝑓 𝑑, 1 1 (2.11)

𝑁 adalah jumlah total dokumen sedangkan 𝑑𝑓 adalah jumlah dokumen yang memiliki term t.

Nilai TF-IDF adalah perkalian dari hasil nilai TF dan hasil nilai IDF. vektor fitur TF-IDF mencerminkan kepentingan istilah melalui penghitungan kejadian istilah di setiap dokumen dan seluruh dokumen. 𝑓 , 𝑑 merupakan Raw TF dan IDF (Inverse Document Frequency) dapat dihitung pada Persamaan 2.12:

𝑇𝑓 𝑖𝑑𝑓 𝑓 , 𝑑 ⋅ 𝑖𝑑𝑓 , 𝑑 (2.12)

2.7 Parameter Evaluasi Performa

Parameter yang membantu untuk mengevaluasi performa dari algoritma

supervised machine learning yang didasarkan pada elemen dari matriks yang

dikenal sebagai confusion matrix atau contingency table. Digunakan dalam

algoritma supervised machine learning untuk membantu dalam menilai kinerja

algoritma apa pun. Terdapat istilah dari sudut pandang klasifikasi seperti: True

Positive (TP), False Positive (FP), True Negative (TN), False Negative (FN)

digunakan untuk membandingkan label kelas di matriks seperti ditunjukan pada

Tabel 2.4. True Positive mewakili jumlah ulasan positif dan juga diklasifikasikan

sebagai positif oleh classifier, sedangkan false positive menunjukkan ulasan

positif, tetapi classifier tidak mengklasifikasikannya sebagai positif. Demikian

pula, True Negative mewakili tinjauan yang negatif juga diklasifikasikan sebagai

(9)

14 negatif oleh klasifikasi, sedangkan False Negative adalah ulasan negatif tetapi classifier tidak mengklasifikasikannya sebagai negatif (Tripathy dkk., 2016).

Tabel 2.4 Confusion Matrix (Song dkk., 2017)

Aktual

Positif Negatif

Positif TP FN

Negatif FP TN

Berdasarkan nilai yang diperoleh dari confusion matrix, parameter lain seperti: precision, recall, f-measure, dan accuracy ditemukan untuk mengevaluasi performa dari classifier.

Precision : mengukur ketepatan hasil classifier. Ini adalah rasio jumlah contoh yang diberikan label dengan benar sebagai positif terhadap jumlah total contoh yang diklasifikasikan secara positif dapat dihitung dengan Persamaan 2.13.

𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 𝑇𝑃

𝑇𝑃 𝐹𝑃 (2.13)

Recall : mengukur kelengkapan hasil classifier. Ini adalah rasio jumlah total contoh yang diberikan label positif dengan total contoh yang benar-benar positif dapat dihitung dengan Persamaan 2.14.

𝑅𝑒𝑐𝑎𝑙𝑙 𝑇𝑃

𝑇𝑃 𝐹𝑁 (2.14)

F1-Score merupakan rata-rata harmonic dari precision dan recall.

Diperlukan untuk mengoptimalisasikan sistem ke arah precision atau recall, di mana mempengaruhi hasil akhir, dapat dihitung dengan Persamaan 2.15.

𝐹1 𝑆𝑐𝑜𝑟𝑒 2 ∗ 𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 ∗ 𝑅𝑒𝑐𝑎𝑙𝑙

𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 𝑅𝑒𝑐𝑎𝑙𝑙 (2.15)

Prediksi

(10)

15 Accuracy merupakan total pengamatan yang diprediksi dengan benar terhadap total pengamatan, dapat dihitung dengan Persamaan 2.16.

𝐴𝑐𝑐 𝑟𝑎𝑐 𝑇𝑃 𝑇𝑁

𝑇𝑃 𝐹𝑁 𝐹𝑃 𝐹𝑁 (2.16)

Referensi

Dokumen terkait

 Manajemen proyek menyatukan dan mengoptimalkan sumber daya (meliputi keterampilan, bakat, usaha kerjasama tim, fasilitas, alat, perlengkapan informasi, sistem, teknik serta

Penelitian ini bertujuan untuk mengetahui jumlah populasi bakteri yang berada di perkebunan kelapa sawit lahan gambut pada tingkat kedalaman tanah 0 cm (permukaan

Secara umum dari model dapat dijelaskan bahwa latihan fisik dapat menurunkan kadar glukosa basal sementara setelah latihan, namun lama-kelamaan akan naik kembali ke

Risiko infeksi di Unit Hemodialisa Rumah Sakit PKU Muhammadiyah Gamping adalah resiko rendah (low risk).. Instrumen ICRA untuk HD dari CDC dapat diterapkan untuk menilai

Data yang dikemukakan oleh Bengen (2005) menunjukkan bahwa udang karang di wilayah perairan Timur Indonesia masih dapat dieksploitasi kecuali di perairan Laut Flores dan

Di Indonesia saat ini masih tertuju pada revolusi hijau (penghijauan), sedangkan ekonomi di bidang kelautan (ekonomi kelautan) masih

Berdasarkan bungoeng hias pada masjid Baiturrahman, terlihat pengaruh akulturasi estetik Barat dan Timur cukup kental di setiap bidang penempatan; yakni 1) geometris

Untuk sampel ikan olahan kering, jumlah koloni kapang yang tumbuh pada media DRBC tidak berbeda nyata dengan yang tumbuh pada media PDA, tetapi untuk sampel ikan