• Tidak ada hasil yang ditemukan

LANDASAN TEORI

2.1 Pemrosesan Sinyal Digital

Pemrosesan sinyal digital (Digital Signal Processing) adalah suatu teknik, perhitungan dan algoritma untuk memanipulasi sebuah sinyal yang diperoleh dari data sensor yang kemudian dilakukan pengubahan ke dalam bentuk digital [8]. Salah satu bidang yang memerlukan permrosesan sinyal digital adalah pengenalan suara. Skema pemrosesan sinyal digital adalah seperti pada gambar 2.1 berikut.

Gambar 2.1 Skema pemrosesan sinyal digital [8].

Berdasarkan gambar 2.1, suara yang diperoleh akan melalui analog filter dan akan diubah menjadi digital signal pada proses analog-to-digital conversion (ADC). Suara yang telah diubah kedalam bentuk digital akan melalui proses digital signal processing (DSP) kemudian diubah ke dalam bentuk analog pada proses digital-to-analog (DAC). Namun dalam implementasinya tidak semua pemrosesan sinyal digital harus melalui proses ADC dan DAC. Salah satunya adalah dalam pengenalan suara, dimana tidak diperlukan proses DAC karena sistem cukup hanya mengenali suara yang didapatkan dan diubah ke dalam bentuk teks.

2.2 Transformasi Fourier

Joseph Fourier mengemukakan bahwa sebuah fungsi periodik dapat direpresentasikan dengan cara mengkombinasikan penjumlahan tak hingga dari fungsi sinus dan cosinus dimana yang kemudian representasi ini kemudian dikenal sebagai Deret Fourier [9]. Deret fourier kemudian mengalami perkembangan

7

menjadi bentuk yang lebih umum sehingga dapat diterapkan pada fungsi non periodik yang kemudian dikenal sebagai transformasi fourier.

Sebuah fungsi biasanya digambarkan dalam domain waktu, artinya yang dilakukan pengukuran dalam fungsi tersebut adalah waktu dimana misalkan sebuah fungsi digambarkan pada sumbu simetri dengan sumbu x mewakili waktu dan sumbu y mewakili nilai pada waktu t tertentu (nilai amplitudonya). Namun pada aplikasinya ini bukan merupakan representasi yang terbaik karena ada banyak kasus sebuah informasi khusus yang tersembunyi terletak pada nilai frekuensinya. Dengan adanya analisis fourier maka hal tersebut dapat diatasi yakni dengan mentransformasikan representasi waktu-amplitudo menjadi representasi frekuensi-amplitudo dimana sumbu x akan mewakili nilai frekuensi dan sumbu y mewakili nilai amplitudonya seperti pada gambar 2.2 berikut.

Gambar 2.2 Analisis Fourier [9]

Transformasi fourier miliki sifat reversible dimana suatu fungsi dapat ditransformasikan ke dalam domain yang memuat informasi frekuensi-amplitudo (domain frekuensi) dan dapat diinversikan kembali ke domain yang memuat informasi waktu-amplitudo (domain waktu) namun tidak bisa didapatkan secara bersamaan. Bentuk dari Transformasi Fourier adalah sebagai berikut.

𝑓(𝑀) = 1 2πœ‹βˆ« 𝑓(π‘₯)𝑒 𝑖𝑀π‘₯𝑑 ∞ βˆ’βˆž (2.1) Dengan: 𝑓(𝑀) : Transformasi Fourier 𝑓(π‘₯) : Isyarat periodis

8 2.3 Transformasi Fourier Diskrit

Transformasi Fourier Diskrit merupakan model transformasi fourier yang dikenakan pada fungsi diksrit dan hasilnya juga diskrit [9]. Misalkan 𝑓(π‘₯) periodik, di asumsikan N merupakan bagian-bagian yang diukur dari 𝑓(π‘₯) yang diambil pada interval 0 ≀ π‘₯ ≀ 2πœ‹ dengan jarak yang teratur dari titik-titik

π‘₯π‘˜ =2πœ‹π‘˜

𝑁 , π‘˜ = 0, 1, … , 𝑁 βˆ’ 1 (2.2)

Maka transformasi fourier diskrit dapat didefinisikan dengan :

𝑓𝑗 = βˆ‘ π‘“π‘˜π‘’π‘–π‘—π‘₯π‘˜, π‘“π‘˜ = 𝑓(π‘₯π‘˜), 𝑗 = 0, … , 𝑁 βˆ’ 1 π‘βˆ’1

π‘˜=0

(2.3)

Persamaan 2.3 tersebut akan menghasilkan spectrum frekuensi dari sebuah sinyal dan dinamakan sebagai Transformasi Diskrit 1 dimensi dan banyak digunakan dalam pengolahan sinyal digital.

2.4 Machine Learning

Machine Learning atau pembelajaran mesin merupakan pendekatan dalam kecerdasan buatan yang banyak digunakan untuk menggantikan, atau menirukan perilaku manusia dalam menyelesaikan masalah atau melakukan sesuatu secara otomatis (otomatisai) [10]. Yang menjadi ciri khas pada machine learning adalah terdapatnya proses pelatihan, pembelajaran atau training. Selain itu, pada machine learning terdapat dua aplikasi didalamnya yaitu klasifikasi dan prediksi. Klasifikasi merupakan metode pada machine learning yang digunakan oleh mesin untuk melakukan pemilahan atau mengelompokkan objek berdasarkan ciri tertentu sebagaimana manusia membedakan antara dua objek. Prediksi merupakan aplikasi dalam machine learning yan digunakan untuk melakukan penerkaan atau menerka keluaran suatu data masukan berdasarkan data yang telah dipelajari dalam training.

2.5 Random Forest Classifier

Random Forest merupakan metode ensemble yang digunakan untuk meningkatkan akurasi pada metode klasifikasi dengan cara mengkombinasikan

9

metode klasifikasi [11] . Pada metode random forest ini diawali dengan menggunakan teknik dasar data mining yaitu decision tree dimana data input dimasukkan pada bagian atas (root) lalu akan turun ke bagian bawah (leaf) untuk dilakukan penentuan data input tersebut masuk ke dalam kelas yang mana [12]. Random Forest juga merupakan metode pengklasifikasian yang terdiri dari kumpulan pengklasifikasian pohon berstruktur dengan masing-masing pohon memberikan unit suara untuk kelas yang paling popular pada input x [13]. Dapat dikatakan bahwa pada random forest terdiri dari sekumpulan decision tree (pohon keputusan) dimana kumpulan decision tree tersebut kemudian digunakan untuk mengklasifikasi data ke suatu kelas.

Misalkan data training berukuran n dengan d peubah penjelas, maka tahapan penyusunan dan pendugaan Random Forest dapat dituliskan secara sederhana sebagai berikut [14].

a. Tahapan bootstrap dimana dilakukan penarikan contoh acak dengan pemulihan berukuran n dari data training.

b. Tahap random sub-setting dimana pada tahap ini dilakukan penyusunan pohon berdasarkan data tersebut, namun pada setiap proses pemisahan pilih secara acak jumlah variabel peubah (m) < d peubah penjelas dan dilakukan pemisahan terbaik.

c. Mengulangi langkah a-b sebanyak k kali sehingga akan diperoleh sejumlah k pohon acak.

d. Melakukan pendugaan gabungan berdasarkan k buah pohon acak tersebut.

Dalam hal ini, pada setiap kali pembentukan pohon, kandidat peubah penjelas yang digunakan dalam pemisahan bukanlah semua peubah penjelas namun hanya sebagian saja sehingga akan dihasilkan pohon tunggal dengan bentuk yang berbeda beda dengan harapan antar kumpulan pohon tunggal tersebut memiliki korelasi yang kecil.

Random forest terdiri dari kumpulan pohon keputusan. Pohon keputusan ini dimulai dengan menghitung nilai entropy sebagai penentu tingkat ketidakmurnian

10

atribut dan nilai informasi gain. Nilai entropy dapat dihitung dengan menggunakan persamaan 2.4 sebagai berikut [14].

πΈπ‘›π‘‘π‘Ÿπ‘œπ‘π‘¦(π‘Œ) = βˆ’ βˆ‘ 𝑝(𝑐|π‘Œ) log2𝑝(𝑐|π‘Œ) (2.4)

Dengan :

Y : Himpunan Kasus

𝑝(𝑐|π‘Œ) : proporsi nilai Y terhadap kelas c

Setelah diperoleh nilai entropy, maka dapat dihitung nilai information Gain menggunakan persamaan 2.5 sebagai berikut [14].

πΊπ‘Žπ‘–π‘›(π‘Œ, π‘Ž) = πΈπ‘›π‘‘π‘Ÿπ‘œπ‘π‘¦(π‘Œ) βˆ’ βˆ‘ 𝑣 ∈ π‘‰π‘Žπ‘™π‘’π‘’π‘ (π‘Ž)|π‘Œπ‘£|

|π‘Œπ‘Ž|πΈπ‘›π‘‘π‘Ÿπ‘œπ‘π‘¦(π‘Œ) (2.5) Dengan :

πΊπ‘Žπ‘–π‘›(π‘Œ, π‘Ž) : Nilai Infromation Gain

π‘‰π‘Žπ‘™π‘’π‘’π‘ (π‘Ž) : Semua nilai yang mungkin dalam himpunan kasus a.

π‘Œπ‘£ : Subkelas dari Y dengan kelas v yang berhubungan dengan kelas a

π‘Œπ‘Ž : Semua nilai yang sesuai dengan a

2.6 K-Nearest Neighbors

K-Nearest Neighbors (KNN) merupakan salah satu metode mesin pembelajaran yang digunakan untuk mengambil keputusan dengan mengklasifikasi data masukan baru berdasarkan jarak terdekat dengan data nilai [15]. KNN akan mengklasifikasikan objek berdasarkan data pembelajarannya yang memiliki jarak paling dekat dengan objek tersebut dimana data pembelajaran tersebut akan diproyeksikan ke dalam ruang berdimensi banyak yang masing-masing dimensi merepresentasikan fitur dari data [16].

11

Pada KNN, kedekatan didefinisikan dalam jarak metric seperti jarak Euclidean dimana dapat dicari dengan menggunakan persamaan 2.6 berikut [15].

𝐷π‘₯𝑦 = βˆšβˆ‘π‘› (π‘₯π‘–βˆ’ 𝑦𝑖)2 𝑖=1 (2.6) Dengan : 𝐷π‘₯𝑦 : Jarak keterdekatan π‘₯ : data training 𝑦: data testing

𝑛 : jumlah atribut individi antaraa 1 s.d n

Langkah-langkah yang digunakan untuk menyelesaikan masalah dengan menggunakan algoritma K-Nearest Neighbors adalah pertama dengan menentukan parameter jumlah tetangga paling dekat (k), kemudian menghitung kuadrat jarak Euclid dengan menggunakan persamaan 2.6 diatas pada masing-masing objek terhadap data sampel yang diberikan, lalu akan diketahui objek-objek dengan jarak Euclid yang paling kecil dan mengurutkannya. Lalu mengumpulkan kategori Y (Klasifikasi Nearest Neighbor) dan menggunakan kategori tersebut yang paling dominan untuk memprediksi.

2.7 Support Vector Machine

Konsep dasar dari metode SVM adalah mentranformasi data ke ruang yang berdimensi lebih tinggi dan menemukan fungsi pemisah (hyperplane) terbaik. Hyperplane terbaik adalah fungsi pemisah yang terletak di tengah-tengah antara dua macam set obyek dari dua kelas. Untuk mencari hyperplane terbaik yaitu dengan memaksimalkan margin atau jarak antara dua set obyek (pattern) dari kelas yang berbeda. Pattern yang dekat dengan hyperplane ini disebut support vector.

Diasumsikan data merupakan linearly separable data. Misalkan data dinyatakan dalam (π‘₯𝑖, 𝑦𝑖) dimana 𝑖 = 1, 2, 3, … , 𝑛. π‘₯𝑖 = [π‘₯𝑖1, π‘₯𝑖2, π‘₯𝑖3, … , π‘₯𝑖𝑗]

12

adalah vektor baris dari fitur ke-𝑖 diruang dimensi ke-𝑗 dan 𝑦𝑖 adalah label dari π‘₯𝑖 yang didefinisikan sebagai 𝑦𝑖 ∈ {+1, βˆ’1}, maka kedua kelas dapat dipisahkan secara linier oleh hyperplane.

Pada gambar 2.3, hyperplane ditunjukkan dengan garis lurus yang berwarna biru. Data yang berbentuk lingkaran dan berada diatas hyperplane adalah kelas +1 dan yang berbentuk persegi dan berada dibawah hyperplane adalah kelas -1.

Gambar 2.3 Contoh hyperplane dua dimensi

Persamaan hyperplane dapat didefinisikan seperti pada persamaan 2.7. 𝑓(π‘₯) = 𝑀 βˆ™ π‘₯ + 𝑏 (2.7)

Dengan:

𝑀 : parameter bobot π‘₯ : vektor input 𝑏 : bias

Dari persamaan 2.7 tersebut maka hyperplane pendukung dari kelas +1 dapat dinyatakan dengan persamaan 𝑀 βˆ™ π‘₯ + 𝑏 = +1 dan pattern yang memenuhi persamaan tersebut merupakan pattern kelas +1. Begitupula hyperplane pendukung dari kelas -1 dapat dinyatakan dalam persamaan 𝑀 βˆ™ π‘₯ + 𝑏 = βˆ’1 dan pattern yang memenuhi persamaan terserbut merupakan pattern kelas -1. Oleh karena itu, secara spesifik margin dapat dihitung dengan mencari nilai tengah dari kedua jarak kelas seperti pada persamaan 2.8.

π‘€π‘Žπ‘Ÿπ‘”π‘–π‘› =1 2(( 𝑀 ||𝑀||, π‘₯ +) βˆ’ ( 𝑀 ||𝑀||, π‘₯ βˆ’))

13 =1 2( 1 βˆ’ 𝑏 ||𝑀|| βˆ’ ( βˆ’1 βˆ’ 𝑏 ||𝑀|| )) =1 2( 1 + 1 ||𝑀||) = 1 ||𝑀||, ||𝑀|| β‰  0 (2.8)

Pada setiap kelas harus diberikan batasan pada data dari masing-masing kelas agar tidak masuk kedalam margin, batasan yang ditambahkan adalah sebagai berikut.

𝑀 βˆ™ π‘₯ + 𝑏 ≀ βˆ’1, π‘—π‘–π‘˜π‘Ž 𝑦 = βˆ’1 (2.9) 𝑀 βˆ™ π‘₯ + 𝑏 β‰₯ +1, π‘—π‘–π‘˜π‘Ž 𝑦 = +1 (2.10)

Atau persamaan 2.9 dan 2.10 dapat ditulis ke dalam bentuk persamaan 2.11 sebagai berikut:

𝑦𝑖(𝑀 βˆ™ π‘₯𝑖+ 𝑏) βˆ’ 1 β‰₯ 0, βˆ€ 1 ≀ 𝑖 ≀ 𝑛, 𝑖 ∈ 𝑁 (2.11)

Untuk memaksimalkan nilai margin ekuivalen dapat dilakukan dengan meminimumkan ||𝑀||2. Oleh karena itu, secara sistematis, formulasi problem optimisasi SVM dapat ditulis dalam persamaan 2.12.

max π‘šπ‘Žπ‘Ÿπ‘”π‘–π‘› = min1 2||𝑀|| 2 Dengan kendala: (2.12) 𝑦𝑖(𝑀 βˆ™ π‘₯𝑖+ 𝑏) βˆ’ 1 β‰₯ 0, βˆ€ 1 ≀ 𝑖 ≀ 𝑛, 𝑖 ∈ 𝑁

Untuk menyelesaikan permasalahan pada persamaan 2.12, maka kita ubah permasalahan tersebut menjadi fungsi Lagrangian sebagai berikut.

min 𝐿𝑝(𝑀, 𝑏, 𝛼) =1 2||𝑀|| 2 βˆ’ βˆ‘ 𝛼𝑖[𝑦𝑖(𝑀 βˆ™ π‘₯𝑖+ 𝑏) βˆ’ 1] 𝑛 𝑖=1 (2.13) Dengan:

𝐿𝑝 : fungsi Lagrangian (primal problem)

14

Solusi dari permasalahan optimisasi seperti diatas ditentukan dengan mencari saddle points dari fungsi Lagrangian (𝐿𝑝). Fungsi ini harus diminimalkan terhadap variabel 𝑀, 𝑏, dan dimaksimalkan pada variabel 𝛼. Oleh karena itu, akan dicari turunan pertama dari persamaan 2.13 terhadap variabel 𝑀 dan 𝑏 dan disamakan dengan nol sebagai berikut [17]:

1. Turunan pertama 𝐿𝑝 terhadap 𝑀 : πœ• πœ•π‘€πΏπ‘(𝑀, 𝑏, 𝛼) = 0 βˆ‚ πœ•π‘€( 1 2||𝑀|| 2 βˆ’ βˆ‘ 𝛼𝑖[𝑦𝑖(𝑀 βˆ™ π‘₯𝑖+ 𝑏)] βˆ’ βˆ‘ 𝛼𝑖 𝑛 𝑖=1 𝑛 𝑖=1 ) = 0

Maka akan diperoleh :

𝑀 βˆ’ βˆ‘ 𝛼𝑖𝑦𝑖π‘₯𝑖= 0 𝑛 𝑖=1 𝑀 = βˆ‘ 𝛼𝑖𝑦𝑖π‘₯𝑖 𝑛 𝑖=1 (2.14)

2. Turunan pertama 𝐿𝑝 terhadap 𝑏 : πœ• πœ•π‘πΏπ‘(𝑀, 𝑏, 𝛼) = 0 βˆ‚ πœ•π‘( 1 2||𝑀|| 2 βˆ’ βˆ‘ 𝛼𝑖[𝑦𝑖(𝑀 βˆ™ π‘₯𝑖+ 𝑏)] βˆ’ βˆ‘ 𝛼𝑖 𝑛 𝑖=1 𝑛 𝑖=1 ) = 0

Maka akan diperoleh :

βˆ‘ 𝛼𝑖𝑦𝑖 𝑛

𝑖=1

= 0 (2.15)

Persamaan 2.14 dan 2.15 diatas merupakan kondisi optimalisasi pada fungsi Lagrangian . Apabila problem primal (𝐿𝑝) memiliki solusi optimal maka problem dual (𝐿𝑑) juga akan memiliki solusi optimal yang sama dan apabila 𝑀0 adalah solusi problem primal dan 𝛼0 adalah solusi problem dual, maka cukup bahwa 𝑀0 solusi layak untuk problem primal [17]. Untuk mendapatkan problem dual, substiusi

15

persamaan 2.14 dan 2.15 pada persamaan 2.13 sehingga diperoleh persamaan 2.16 seperti berikut π‘šπ‘Žπ‘˜π‘  𝐿𝑑(𝛼) = βˆ‘ 𝛼𝑖 𝑛 𝑖=1 βˆ’1 2βˆ‘ βˆ‘ 𝛼𝑖𝑦𝑖𝛼𝑗𝑦𝑗(π‘₯π‘–βˆ™ π‘₯𝑗) 𝑛 𝑗=1 𝑛 𝑖=1 (2.16) Dengan kendala, βˆ‘ 𝛼𝑖𝑦𝑖= 0 𝑛 𝑖=1 , 𝛼𝑖 β‰₯ 0

Nilai 𝛼 didapatkan dari hasil perhitungan substitusi kendala pada persamaan 2.16. Nilai 𝛼 ini dgunakan untuk mencari nilai 𝑀. Setiap titik data selalu terjadi 𝛼𝑖= 0. Titik-titik dengan 𝛼𝑖= 0 tidak akan ada dalam perhitungan untuk mencari nilai 𝑀 dan tidak berperan dalam melakukan prediksi data baru. Data lain dengan 𝛼𝑖> 0 disebut support vector [18].

Dalam SVM terdapat beberapa fungsi kernel yang dapat digunakan seperti linier, polynomial, RBF dan sigmoid. Fungsi kernel ini digunakan untuk mentranformasi data ke ruang yang memiliki dimensi lebih tinggi. Dalam penelitian ini fungsi kernel yang diujikan adalah kernel linier : 𝐾(π‘₯𝑖, π‘₯𝑗) = (π‘₯π‘‡βˆ™ π‘₯), sehingga untuk mencari nilai 𝑏 dapat dilakukan dengan mensubstitusi 2.14 ke 2.7 dan mensubtisuikan hasilnya dengan 𝑦𝑖𝑓(π‘₯𝑖) = 1 dan diperoleh persamaan sebagai berikut [18]: 𝑏 = 1 π‘π‘ βˆ‘ (π‘¦π‘–βˆ’ βˆ‘ π‘Žπ‘šπ‘¦π‘šπ‘₯π‘š 𝑇 βˆ™ π‘₯𝑖 𝑠 𝑖=1 ) π‘–βˆˆπ‘† (2.17) Dengan :

𝑁𝑠 : banyaknya support vector

Setelah nilai 𝛼, 𝑀 dan 𝑏 telah ditemukan, fungsi pemisah optimal dapat ditentukan dengan persamaan:

𝑔(π‘₯) = 𝑠𝑖𝑔𝑛(𝑓{π‘₯}) = 𝑠𝑖𝑔𝑛(𝑀 βˆ™ π‘₯ + 𝑏) (2.18)

16 2.8 Soft Margin SVM

Pada dasarnya, prinsip kerja dari metode SVM adalah mencari fungsi pemisah (hyperplane) terbaik untuk dapat memisahkan kelas yang berbeda. Dalam beberapa kasus yang sering terjadi di dunia nyata, data yang dijumpai merupakan data yang tidak dipisahkan secara linear. Oleh karena itu, dibutuhkan soft margin classifier untuk mengatasi hal tersebut yaitu dengan mengklasifikasi sebagian besar data dengan benar dan memberikan kemungkinan kesalahan di sekitar batas pemisah. [19]. Dalam hal ini maka batas pemisah harus diubah agar lebih fleksibel dengan cara menambahkan variabel slack πœ‰ dimana πœ‰ > 0 pada setiap batas pemisah, sehingga batas pemisahnya berubah menjadi π‘₯𝑖+ 𝑏 β‰₯ 1 βˆ’ πœ‰ untuk kelas +1 dan π‘₯𝑖+ 𝑏 ≀ βˆ’1 + πœ‰ untuk kelas -1. Variabel slack ini dapat meminimalkan kesalahan klasifikasi dengan memungkinkan suatu titik berada pada pad kondisi misklasifikasi sehingga rumus yang digunakan untuk mencari hyperplane terbaik adalah sebagai berikut.

max π‘šπ‘Žπ‘Ÿπ‘”π‘–π‘› = min1 2||𝑀|| 2 + 𝐢 βˆ‘ πœ‰π‘– 𝑛 𝑖=1 𝑠. 𝑑 𝑦𝑖(𝑀. π‘₯𝑖+ 𝑏) β‰₯ 1 βˆ’ πœ‰π‘–

C merupakan parameter yang menentukan besar penalti akibat kesalahan dalam klasifikasi data [20].

Selanjutnya,persamaan primal problem akan berubah menjadi:

min 𝐿𝑝(𝑀, 𝑏, 𝛼) = 1 2||𝑀|| 2 + 𝐢 βˆ‘ πœ‰π‘– 𝑛 𝑖=1 βˆ’ βˆ‘ 𝛼𝑖[𝑦𝑖(𝑀 βˆ™ π‘₯𝑖+ 𝑏) βˆ’ 1 + πœ‰π‘–] βˆ’ βˆ‘ πœ‡π‘–πœ‰π‘– 𝑛 𝑖=1 𝑛 𝑖=1 (2.18)

Pengubahan Langrange primal ke dalam dual problem , menghasilkan formula yang sama dengan kasus untuk data yang dapat dipisah secara linear sehingga

17

pencarian hyperplane terbaik dilakukan dengan cara yang hampir sama tetapi dengan nilai 𝛼𝑖adalah 0 β‰₯ 𝛼𝑖 β‰₯ 𝐢.

2.9 Optimasi Parameter

Grid Search Cross Vadiation adalah salah satu proses yang dilakukan untuk mengidentifikasi hyper-parameter terbaik dalam klasifikasi sehingga dapat memprediksi data yang tidak diketahui secara akurat [21]. Hyper-parameter merupakan parameter yang ditentukan tanpa proses uji atau dapat dikatakan sebagai parameter yang tidak ditentukan oleh mesin [18].

Pada Grid Search Cross Validation ini dilakukan berbagai kombinasi nilai hyper-parameter yang dimasukkan kemudian hyper-paramater yang memiliki akurasi terbaik akan dipilih dan digunakan untuk melatih SVM pada seluruh data. Pada kernel linear Support Vector Machine (SVM) hanya ada satu parameter penting yang perlu dioptimalkan yaitu C. Pada kernel RBF dan Sigmoid terdapat dua parameter yang perlu dioptimalkan yaitu C dan gamma, sedangkan pada kernel Polynomial terdapat tiga parameter yang perlu dioptimalkan yaitu C, gamma dan degree.

2.10 Evaluasi Model

Evaluasi model digunakan untuk mengetahui seberapa baik model dapat melakukan klasifikasi suatu kelas. Salah satu cara yang sering digunakan dalam melakukan evaluasi model adalah dengan menggunakan confusion matrix. Confusion matrix adalah sebuah matrix dari prediksi yang akan dibandingkan dengan kelas asli dari inputan atau dengan kata lain berisikan nilai actual dan prediksi pada klasifikasi seperti pada tabel 2.1.

Tabel 2.1 Confusion Matrix

Confusion Matrix

Kelas Prediksi Positif Negatif

18 Kelas

Sebenarnya

Negatif FN TN

Dari tabel 2.1 diatas, evaluasi dan validasi hasil dari model dapat dihitung menggunakan rumus akurasi, precision dan recall seperti pada persamaan-persamaan berikut [22]: Akurasi = TP + TN TP + FP + FN + TN (2.19) Precision = TP TP + FP (2.20) Recall = TP TP + FN (2.21) Dimana :

TP (True Positive) : Jumlah data positif yang terklasifikasi benar. TN (True Negative) : Jumlah data negative yang terklasifikasi benar. FP (False Positive) : Jumlah data positif yang terklasifikasi salah. FN (False Negative) : Jumlah data negative yang terklasifikasi salah.

19

Dokumen terkait