• Tidak ada hasil yang ditemukan

Penelitian ini juga membutuhkan tinjauan pustaka sebagai alat dan bahan dalam proses Long Short Term Memory (LSTM) pada deep learning

N/A
N/A
Protected

Academic year: 2023

Membagikan "Penelitian ini juga membutuhkan tinjauan pustaka sebagai alat dan bahan dalam proses Long Short Term Memory (LSTM) pada deep learning"

Copied!
30
0
0

Teks penuh

Penelitian ini menggunakan algoritma Support Vector Machine (SVM), dimana algoritma ini digunakan untuk mengelompokkan percakapan ke dalam kelompok. Analisis Sentimen Review Aplikasi Tokopedia di Google Play Store Menggunakan Metode Memori Jangka Panjang-Pendek. Data dalam penelitian ini diperoleh dari kolom review aplikasi yang berisi penilaian pengguna terhadap aplikasi tersebut. Terdapat 3067 data ujian yang dianalisis dari Oktober 2018 hingga Mei 2019.

Penelitian ini melakukan pengolahan data menggunakan text mining untuk mengekstrak data numerik dari data dokumen, yang akan diklasifikasikan menggunakan model ANN dengan metode back-propagation, yang diperoleh dari percobaan jumlah node tersembunyi, lapisan tersembunyi, learning rate dan distribusi data pengujian pelatihan. Penelitian ini dilakukan karena masih sedikitnya penelitian mengenai klasifikasi multi label pada dataset menggunakan bahasa Indonesia dengan metode deep learning. Tujuan dari penelitian ini adalah untuk mengetahui bagaimana kinerja metode RNN-LSTM dan CNN dalam memprediksi sentimen pengguna Twitter.

Penelitian ini bertujuan untuk menganalisis respon yang diperoleh dari konten Instagram STMIK AKAKOM Yogyakarta. Tujuan dari penelitian ini adalah untuk mendapatkan model klasifikasi teks yang optimal dengan melakukan eksperimen trial and error dengan LSTM menggunakan fungsi penyematan kata Word2Vec 300 dimensi. Hasil dari penelitian ini adalah klasifikasi teks dengan LSTM menggunakan fungsi Word2Vec mencapai akurasi yang tinggi pada percobaan model kelima dengan nilai 95,38%, sedangkan nilai rata-rata skor presisi, recall dan F1 sebesar 95%.

Tujuan dari penelitian ini adalah untuk mengklasifikasikan resensi novel berbahasa Indonesia menggunakan sentimen positif, netral, dan negatif. Hasil yang diperoleh dari penelitian ini adalah metode long short term memory mempunyai hasil akurasi yang lebih baik dibandingkan dengan metode Naive Bayesian yang mempunyai nilai presisi sebesar 72,85%, presisi sebesar 73%, recall sebesar 72% dan f-measure sebesar 72% dibandingkan dengan hasil Nilai presisi dari Naive Bayes yaitu dengan nilai presisi sebesar 67,88%, presisi sebesar 69%, recall sebesar 68% dan f-measure sebesar 68%. Tujuan penelitian ini adalah mengklasifikasikan resensi buku menggunakan algoritma CNN-LSTM dan menghitung hasil kinerja model.

Klasifikasi pada penelitian ini menggunakan kombinasi algoritma Convolutional Neural Network (CNN) dan Long Short Memory (LSTM). Klasifikasi topik dan analisis sentimen kuesioner umpan balik universitas menggunakan memori jangka pendek dan jangka panjang. Penelitian ini menggunakan metode word2vec dan memori jangka panjang yang dapat membantu klasifikasi topik dan analisis sentimen.

Hasil konfigurasi terbaik pada penelitian ini diperoleh dengan memperoleh nilai rata-rata akurasi pada implementasi klasifikasi sentimen sebesar 89,16% dan pada implementasi klasifikasi topik sebesar 92,98. Penelitian ini menggunakan metode Bi-Directional Short-Term Memory (BiLSTM) untuk mengatasi kelemahan penelitian sebelumnya. Tujuan dari penelitian ini adalah untuk mendeteksi ujaran kebencian atau non-hate ujaran dalam tweet berbahasa Indonesia.

Hasil dari penelitian ini adalah penggunaan word2vec dan metode BiDirectional Long Short Term Memory dengan arsitektur CBOW.

Tabel 2. 3 Daftar Literatur (lanjutan)
Tabel 2. 3 Daftar Literatur (lanjutan)

Cross – Validation

Sensitivitas (recall) adalah kemampuan suatu tes untuk mengidentifikasi hasil positif dari data yang sebenarnya positif. Spesifisitas (true negative rate) adalah kemampuan suatu tes untuk mengidentifikasi nilai hasil negatif dari data yang sebenarnya negatif. Presisi adalah jumlah true positif (jumlah positif sebenarnya) dibagi jumlah positif (Prasetyo Eko, 2014).

Recurrent Neural Network (RNN)

Misalnya kita akan mengolah data yaitu x dalam jangka waktu tertentu yaitu t, kita sebut saja xt. Data ini akan diproses oleh neuron A hingga menjadi nilai keluaran ht. Hasil pemrosesan neuron A akan disimpan dan akan dibuat koneksi loop untuk digunakan pada pemrosesan data selanjutnya.xt +1. RNN tidak menggunakan parameter yang berbeda untuk setiap lapisan, hal ini memungkinkan untuk menyimpan parameter yang akan dipelajari karena, RNN melakukan tugas yang sama untuk setiap langkah, tetapi hanya memiliki input yang berbeda. Keadaan tersembunyi tersebut dapat disebut “memori” dalam suatu jaringan yang berfungsi menyimpan hasil dan catatan pemrosesan.

S𝑡 dihitung berdasarkan nilai keadaan tersembunyi sebelumnya (disimbolkan dengan W) dan nilai sinyal masukan keadaan saat ini 𝑥t. Fungsi f biasanya berfungsi dalam keadaan nonlinier, seperti tangen hiperbolik (tanh) pada persamaan 𝑠𝑡-1 yang digunakan untuk menghitung keadaan tersembunyi pertama, 𝑠𝑡-1. RNN memiliki arsitektur yang tampak terdiri dari lapisan-lapisan, namun proses RNN berulang kali menyimpan hasil penghitungan pada langkah waktu sebelumnya untuk digunakan pada langkah waktu berikutnya dan dapat dianggap sebagai kumpulan lapisan jaringan saraf yang berbeda.

Satu layer RNN digunakan berulang kali, RNN menggunakan banyak layer dengan nilai robot yang sama. Dengan demikian, RNN lebih efisien karena parameter yang perlu disimpan hanya bobot dalam satu lapisan, dan tidak banyak lapisan seperti arsitektur CNN dan DBN (Suyanto et al., 2019).

Gambar 2. 2 Arsitektur RNN menggunakan formula matematis  Berikut adalah keterangan untuk simbol pada Gambar 2.2 di atas :
Gambar 2. 2 Arsitektur RNN menggunakan formula matematis Berikut adalah keterangan untuk simbol pada Gambar 2.2 di atas :

Long Short Term Memory (LSTM)

Ide dasar dari LSTM adalah adanya jalur yang menghubungkan keadaan sel sebelumnya (Ct-1) dengan keadaan sel saat ini (Ct). Jalur ini merupakan informasi dalam keadaan sel yang dapat dengan mudah diteruskan ke keadaan sel berikutnya dengan beberapa modifikasi yang diperlukan. Misalnya pada pengolahan kalimat, informasi yang dapat disimpan dalam keadaan sel adalah jenis kelamin subjek, apakah subjeknya tunggal atau jamak, dan seterusnya.

Langkah kedua berikutnya adalah menentukan informasi apa yang akan ditambahkan dan disimpan dalam keadaan sel. Hasil dari kedua fungsi tersebut dikalikan untuk mendapatkan informasi yang akan ditambahkan pada keadaan sel. Nilai gerbang input dapat dilihat pada persamaan (2.2) dan nilai kandidatnya dibuat menggunakan persamaan (2.3) sebagai berikut.

Wc = Bobot setiap gerbang neuron pada waktu t pada keadaan sel Wi = Bobot setiap gerbang neuron pada waktu t pada gerbang input Xt = Input waktu saat ini. Hasil perkalian menjadi keluaran satuan LSTM dengan persamaan (2.5) dan (2.6) sebagai berikut (Suyanto dkk., 2019). Penyematan kata adalah teknik pembelajaran fitur di NLP untuk membangun representasi vektor kata berdimensi rendah dari kumpulan teks.

Keuntungan utama dari penyematan kata adalah memberikan representasi yang lebih ekspresif dan efisien dengan menjaga kesamaan kontekstual kata-kata dan dengan membangun vektor berdimensi rendah (Naili, et al., 2017). Penyematan kata dapat menggambarkan bahwa setiap kata diwakili oleh sebuah titik pada suatu area tertentu, titik tersebut kemudian dipelajari dengan perhitungan penyematan kata dan satu titik dipindahkan. Hasil iterasi tersebut dapat memberikan gambaran di mana kata-kata yang memiliki makna serupa akan berada pada tempat yang sama (Prabowo et al., 2019).

Word2vec adalah kumpulan beberapa model yang saling berhubungan yang digunakan untuk menghasilkan penyematan kata. Word2vec terdiri dari dua algoritma penyematan kata, yaitu model Continuous Bag-of-Word (CBOW) dan Skip-Gram. Continuous Bag-of-Word (CBOW) digunakan untuk panjang kata tertentu pada dokumen masukan, sedangkan skip gram ditujukan untuk prediksi kata dengan melihat kedekatan kata satu dengan kata lain sebelum atau sesudah kata tersebut (Prabowo et al. .., 2019).

Pada gambar di atas, skip gram menggunakan kata saat ini sebagai masukan untuk memprediksi konteks target di sekitarnya. Saat merepresentasikan konteks dalam arsitektur skip-gram, setiap kata harus diubah menjadi vektor berkode one-hot.

Gambar 2. 4 Arsitektur Skip Gram
Gambar 2. 4 Arsitektur Skip Gram

Gambar

Tabel 2. 1 Daftar Literatur
Tabel 2. 2 Daftar Literatur (lanjutan)
Tabel 2. 3 Daftar Literatur (lanjutan)
Tabel 2. 4 Confusion Matrix Untuk Klasifikasi Dua Kelas  f ij
+7

Referensi

Dokumen terkait

Kesimpulan Analisis sentimen terhadap opini publik mengenai childfree dalam pernikahan di sosial media twitter dengan menggunakan K-NN dengan data tweet keseluruhan berjumlah 1100