• Tidak ada hasil yang ditemukan

Implementasi Deep Learning Menggunakan Metode You Only Look Once untuk Mendeteksi Rokok

N/A
N/A
Protected

Academic year: 2023

Membagikan "Implementasi Deep Learning Menggunakan Metode You Only Look Once untuk Mendeteksi Rokok"

Copied!
10
0
0

Teks penuh

(1)

Implementasi Deep Learning Menggunakan Metode You Only Look Once untuk Mendeteksi Rokok

Ahmad Harun1,*, Mustakim1, Oktaf Brilian Kharisma2

1Sains dan Teknologi, Sistem Informasi, Universitas Islam Negeri Sultan Syarif Kasim Riau, Pekanbaru, Indonesia

2Sains dan teknologi, Teknik Elektro, Universitas Islam Negeri Sultan Syarif Kasim Riau, Pekanbaru, Indonesia Email: 1,*11850310375@students.uin-suska.ac.id, 2mustakim@uin-suska.ac.id, 3brilian@uin-suska.ac.id

Email Penulis Korespondensi: 11850310375@students.uin-suska.ac.id

Abstrak−Rokok merupakan hasil olahan dari produk tembakau yang penggunaanya dengan cara dibakar kemudian dihisap.

Aktivitas merokok banyak ditemui dalam kehidupan sehari-hari diantaranya pada prasarana umum. Pendekatan yang dilakukan untuk mencegah aktivitas ini umumnya menggunakan informasi manual maupun campur tangan dari manusia. Dalam hal pendekatan ini sering ditemui banyak permasalahan dan kegagalan karena sedikit tenaga kerja dan aturan yang mendukung.

Maka dari itu, penelitian ini disusun dengan tujuan dapat mendeteksi objek rokok secara realtime menggunakan metode You Only Look Once (YOLO). YOLO yang berdasarkan deep learning sangat baik dalam mendeteksi objek, model ini menghadirkan jaringan saraf konvolusi tunggal dalam menetapkan lokasi dan klasifikasi. Sehingga dalam penerapannya, YOLO sangat cepat dalam mendeteksi dan mengenali objek. Penelitian ini melakukan percobaan pada training dataset dalam menguji model YOLOv3, YOLOv3-Tiny dan YOLOv4. Hasil training terbaik didapatkan pada model YOLOv4 dengan komposisi pembagian data 80% training dan 20% validation dengan presentase Mean Average Precision (mAP) sebesar 92,54%

dan F1-Score sebesar 0,89. Penelitian ini juga melakukan percobaan pada pengujian dalam mendeteksi rokok secara realtime, dimana sistem dapat mendeteksi rokok sampai dengan jarak 4,5 meter, dan akurasi deteksi tertinggi didapatkan pada jarak 1 meter yaitu 99,03%.

Kata Kunci: CNN; Deep Learning; Deteksi Objek; Rokok; YOLO

Abstract−Cigarettes are processed products from tobacco products which are used by burning and then smoked. Smoking activities are often found in everyday life, including in public infrastructure. The approach taken to prevent this activity generally uses manual information or human intervention. In terms of this approach, there are often many problems and failures due to the lack of manpower and supporting rules. Therefore, this study was structured with the aim of being able to detect smoking objects in real time using the You Only Look Once (YOLO) method. YOLO which is based on deep learning is very good at detecting objects, this model provides a single convolution neural network in assigning location and classification. So that in its application, YOLO is very fast in detecting and recognizing objects. This study conducted experiments on the training dataset in testing the YOLOv3, YOLOv3-Tiny and YOLOv4 models. The best training results were obtained in the YOLOv4 model with a composition of 80% training and 20% validation data sharing with a Mean Average Precision (mAP) of 92.54%

and an F1-Score of 0.89. This study also conducted experiments on testing to detect cigarettes in real time, where the system can detect cigarettes up to a distance of 4.5 meters, and the highest detection accuracy is obtained at a distance of 1 meter, namely 99.03%.

Keywords: Cigarette; CNN; Deep Learning; Object Detection; YOLO

1. PENDAHULUAN

Rokok merupakan hasil olahan dari produk tembakau yang penggunaanya dengan cara dibakar kemudian dihisap, contohnya seperti rokok kretek, rokok putih, cerutu atau dalam bentuk lainnya yang mana asapnya mengandung nikotin dan tar [1]. Aktivitas merokok biasanya ditemui pada berbagai tempat, diantaranya pada prasarana umum yang terdapat informasi larangan merokok. Pendekatan yang dilakukan untuk mencegah aktivitas merokok di prasarana umum biasanya menggunakan informasi manual maupun campur tangan dari manusia. Dalam hal pendekatan ini sering ditemui banyak permasalahan dan kegagalan karena sedikit tenaga kerja dan aturan yang mendukung [2]. Pendekatan ini membutuhkan banyak biaya dan tenaga kerja dalam penerapannya. Dari permasalahan tersebut, penelitian ini akan mengimplementasikan salah satu metode dengan basis deep learning yang mampu mendeteksi rokok secara realtime.

Deep learning telah hadir sebagai teknik yang sangat kuat untuk mempelajari objek secara otomatis dari suatu data mentah, yang mana deep learning telah mendapat kemajuan yang cukup besar dalam mendeteksi objek [3]. Penelitian yang dilakukan oleh Stephen Humphries dan kawan-kawan dalam menerapkan deep learning untuk klasifikasi otomatis pola emphysema di CT memberikan hasil yang dapat ditafsirkan untuk dapat membantu mengidentifikasi individu dari resiko kematian yang besar dan memberikan penilaian yang lebih sensitif dalam mendeteksi jejak tingkat emphysema [4]. You Only Look Once (YOLO) merupakan suatu metode deep learning yang popular digunakan dalam mendeteksi objek, karena model ini menggunakan jaringan saraf konvolusi yang dijadikan sebagai pendekatan deep learning untuk mendeteksi wajah pada video [5]. Pendekatan YOLO yang berdasarkan deep learning sangat baik dalam mendeteksi objek, model ini menghadirkan jaringan saraf konvolusi tunggal dalam menetapkan lokasi dan klasifikasi [6].

Penelitian yang dilakukan oleh Liao dan Zou pada tahun 2020 mengusulkan implementasi deep learning dalam mendeteksi target merokok menggunakan You Only Look Once v3 (Yolov3) karena memiliki hasil yang baik. Jaringan Yolo V3 yang digunakan mampu mendeteksi target dengan ukuran yang lebih kecil, yaitu puntung rokok. Dengan menggunakan model DarkNet53 pada yolov3 untuk mendeteksi rokok mampu mendapatkan mAP

(2)

sebesar 0.76 [7]. Pada tahun 2020, yolov4 telah dikembangkan oleh Alexey dan kawan-kawan dimana dibanding yolov3, yolov4 telah ditingkatkan Average Precision (AP) sebesar 10 % dan Frame Per Second (FPS) sebesar 12

% [8] sehingga dapat bekerja lebih cepat dan lebih baik.

Pada penelitian sebelumnya tentang mendeteksi objek, beberapa penelitian yang memiliki keterkaitan dengan penelitian yang sedang di lakukan. Penelitian yang dilakukan oleh Zhao dan Ren yaitu melakukan deteksi objek kecil, dimana objek yang di deteksi adalah pesawat kecil dalam penginderaan jauh. Pada penelitian tersebut membandingkan rata-rata presisi dan waktu deteksi dari YOLOv3, Faster R-CNN dan SSD, dimana YOLOv3 mendapatkan rata-rata presisi tertinggi yaitu 0.925 dan waktu deteksi yang rendah yaitu 0.023 detik [9]. YOLO juga digunakan dalam mendeteksi objek kecil lainnya, yaitu rokok. Penelitian yang dilakukan Pundhir dan kawan- kawan yaitu untuk melakukan klasifikasi pemakai rokok menggunakan deep learning dengan modul Yolo-V3, dari penelitian tersebut didapatkan akurasi klasifikasinya mencapai 96.74% [10]. Kemudian pada Penelitian yang dilakukan oleh Shuo Wang yaitu dengan mengevaluasi YOLOv3, YOLOv3-tiny, YOLOv3-SPP3, YOLOv4, dan YOLOv4-tiny dalam mendeteksi objek kecil secara real time yaitu objek UAV. Pada penelitian tersebut Yolov4 mendapatkan mAP sebesar 87,48 % dimana lebih tinggi 14,2 % dari Yolov3 [11].

Berdasarkan uraian tersebut, penelitian ini akan mengimplementasikan metode You Only Look Once (YOLO) untuk mendeteksi objek kecil yaitu puntung rokok secara realtime. penentuan jarak kamera dengan objek puntung rokok akan diperhitungkan dalam penelitian ini.

2. METODOLOGI PENELITIAN

Adapun metodelogi penelitian dalam penelitian ini secara garis besar terdiri atas 7 tahapan yang dilakukan. Berikut ini merupakan tahapan penelitian yang dapat dilihat pada gambar 1.

Gambar 1. Metodologi Penelitian

Tahapan Pertama pada penelitian ini adalah melakukan pengumpulan data. Proses pengumpulan dataset dibagi menjadi 2. Pertama, gambar diambil dari video yang dibuat oleh peneliti dan di ekstrak menjadi gambar.

Kedua, gambar di ambil dari pencarian Google dengan keyword pencariannya adalah person drink water, people with pen, people cough, indonesian people, african people dan indian people. Dari pengumpulan tersebut didapatkan data berjumlah 2001 gambar, dimana dibagi pada 2 kelas yaitu, rokok dan bukan rokok. Berikut merupakan rincian dataset yang terkumpul:

Tabel 1. Komposisi Dataset Dataset Jumlah

Rokok 1169

Bukan Rokok 832

(3)

Selanjutnya dilakukan preprocessing data, pada tahap ini dilakukan anotasi citra dataset menggunakan aplikasi yolo mark.

Data yang sudah melalui tahapan preprocessing data selanjutnya dilakukan tahap untuk konfigurasi YOLO.

Pada penelitian ini terdapat 3 model YOLO yang digunakan, yaitu YOLOv3, YOLOv3-Tiny dan YOLOv4.

Penggunaan 3 model ini dimaksudkan untuk mencari versi metode YOLO terbaik dalam mendeteksi rokok.

Berikut beberapa konfigurasi YOLO yang dibuat:

a. Batch = 64 b. Subdivisions = 16 c. Width = 416 d. Height = 416 e. Max_batches = 6000 f. Steps = 4800, 5400 g. Classes = 2 h. Filters = 21

Setelah tahap konfigurasi selesai, selanjutnya dilakukan pembagian data untuk data training dan validation.

Strategi yang dilakukan yaitu dengan melakukan percobaan pembagian data untuk training dan validation 50:50, 60:40, 70:30, 80:20 dan 90:10 [12]. Strategi ini dilakukan karena pada saat mendeteksi objek rokok secara realtime dibutuhkan model training yang optimal, oleh karena itu diperlukan pengujian terhadap model yang akan digunakan.

Tahapan selanjutnya yaitu dilakukan proses training dataset menggunakan google colab pro. Pada tahap ini terdapat 15 kali percobaan training, dimana masing-masing model yang digunakan yaitu, YOLOv3, YOLOv3- Tiny dan YOLOv4 menggunakan strategi pada tahap pembagian data.

Dataset yang sudah di training menggunakan google colab pro, selanjutnya dilakukan tahap untuk analisa dan hasil dari proses training. Tahap ini adalah melihat hasil terbaik dari tahap training. Acuan terbaik dinilai dari Mean Average Precision (mAP) dan nilai F1-Score, semakin tinggi presentase mAP dan nilai F1-Score nya , maka model tersebut akan di pakai pada proses selanjutnya. Jika sudah didapatkan model yang terbaik.

Tahap terakhir yaitu dilakukan pengujian dari tahap analisa dan hasil yang di dapat. Implementasi pengujian pada penelitian ini dilakukan di dalam ruangan. Strategi yang dilakukan yaitu mengatur jarak antara kamera dengan objek. Pengujian dilakukan sebanyak 9 kali dimulai dari jarak 1 meter, 1.5 meter, 2 meter, 2.5 meter, 3 meter, 3.5 meter, 4 meter, 4.5 meter dan 5 meter. Pada tahap ini juga dilakukan penilaian akurasi deteksi dari pengujian yang dilakukan.

2.1. You Only Look Once (YOLO)

Metode YOLO pertama kali diperkenalkan oleh Joseph Redmon dan kawan-kawan pada tahun 2016 pada paper yang berjudul You Only Look Once: Unified, Real-Time Object Detection. You Only Look Once (YOLO) menjadi salah satu metode yang cukup populer dalam mempelajari dan mengenali objek [13]. YOLO merupakan salah satu pendekatan deep learning untuk mendeteksi objek secara realtime dengan basis Convolutional Neural Network (CNN). CNN sendiri merupakan pengembangan dari Multilayer Perceptron (MLP) yang mampu mengolah data dua dimensi berupa citra [14]. Dalam proses mendeteksi objek pada sebuah citra, YOLO menggunakan pendekatan jaringan konvolusi tunggal pada keseluruhan citra untuk memprediksi bounding box dan label kelas pada setiap bounding box [15].

Gambar 2. Sistem Deteksi YOLO [15].

Pada Gambar 2, proses yang terjadi adalah citra akan di proses dengan mengubah ukuran menjadi 448 x 448, selanjutnya proses yang terjadi adalah non-max suppression yaitu untuk menghasilkan bounding-box dan menetukan label dari setiap objek yang terdeteksi [16].

2.2. You Only Look Once v3 (YOLOv3)

You Only Look Once v3 (YOLOv3) merupakan pengembangan dari versi sebelumnya yaitu YOLOv2. YOLOv3 menggunakan darknet53 sebagai ekstraksi fitur. Ini merupakan model jaringan baru dengan menggunakan 53 lapisan dalam melakukan ekstraksi fitur. Pada jaringan ini menggunakan secara berturut-turut 3 × 3 dan 1×1 lapisan konvolusi [17].

2.3. You Only Look Once v3-Tiny (YOLOv3-Tiny)

You Only Look Once v3-tiny merupakan versi jaringan yang lebih ringan dari YOLOv3. Dimana terdiri atas 13 lapisan konvolusi, 6 max pooling layer 1 up sampling layer, 1 cascading layer dan 2 output [18]. YOLOv3-tiny dapat digunakan untuk identifikasi dan klasifikasi objek. YOLOv3-tiny membagi citra menjadi grid cell 13x13

(4)

dan 26x26, dimana pada setiap grid cell memiliki 3 kotak jangkar dan setiap kota jangkar memiliki 20 skor kelas dan 4 titik koordinat pembatas yang berbentuk kotak [19].

2.4. You Only Look Once v4 (YOLOv4)

You Only Look Once v4 (YOLOv4) merupakan pengembangan dari versi sebelumnya yaitu YOLOv3. YOLOv4 memiliki keunggulan dibanding YOLOv3 yaitu telah ditingkatkan Average Precision (AP) dan Frame Per Second (FPS) sebesar 10 % dan 12 % [8]. YOLOv4 didasarkan atas regresi yang memiliki karakterisitik dari YOLOv1, YOLOv2 dan YOLOv3 [20]. Dalam pengembangannya YOLOv4 masih menggunakan Darknet-53, lebih tepat nya CSPDarknet-53 atau CSPNet yang merupakan Backbone baru dimana dapat meningkatkan learning capability dari CNN [15].

2.5. Perhitungan Performa parameter

Mean Average Precision (mAP) adalah metrik yang digunakan untuk mengukur evaluasi dari sebuah model untuk mendeteksi objek. Mean Average Precision bernilai antara 0 sampai 100, semakin tinggi nilainya maka semakin bagus. Nilai mAP adalah nilai rata-rata dari Average Precision (AP) pada setiap kelas yang ada pada setiap model yang di uji [21]. Untuk mengetahui nilai AP dari suatu kelas, perlu diketahui terlebih dahulu nilai precision dan recall yang dapat dihitung pada persamaan 1 dan persamaan 2.

Precision=TP+FPTP (1)

Recall=TP+FNTP (2)

Setelah mendapatkan nilai precision dan recall, plot nilai precision terhadap recall untuk melihat pola berbentuk zig-zag. Sebelum menghitung AP, hasil plot berbentuk zig-zag akan dihaluskan, dimana nilai precision (p) pada setiap recall (r) diganti dengan nilai precision maksimum pada recall selanjutnya (r’) [22]. Perhitungan tersebut dapat dihitung dengan persamaan berikut:

pinter(rn+1) = max p(r ′ ); r ′ ≥ rn+1 (3)

Nilai AP dihasilkan dengan menghitung area berbentuk kurva pada nilai recalls, yaitu ketika nilai precision maksimum jatuh. Perhitungan nilai AP dapat dihitung dengan persamaan berikut:

AP=∑(rn+1− rn) pinter(rn+1) (4)

Kemudian untuk menghitung nilai mAP dapat dihitung menggunakan persamaan berikut:

mAP = ∑ AP(i)

N N i=1

x 100% (5)

Dimana AP adalah Average Precision dan N adalah banyak kelas yang dilatih. Selanjutnya, dalam menghitung performa cukup sulit membandingkan model dengan nilai precision yang tinggi dan nilai recall yang rendah maupun sebaliknya. Maka dari itu dibutuhkan perhitungan performa parameter yang lain untuk mendapatkan nilai harmonik antaran precision dan recall yaitu F1-Score [23]. F1-Score adalah perbandingan dari rata-rata nilai dari precision dan recall [24]. Perhitungan nilai F1-Score dapat dihitung sesuai dengan persamaan 6.

F1-Score = 2 x Precision x Recall

Precision +Recall (6)

3. HASIL DAN PEMBAHASAN

Pada penelitian ini, tahap training dilakukan menggunakan google colab pro sedangkan pengujian dilakukan menggunakan laptop dengan spesifikasi pada table 2, spesifikasi kamera HP pada tabel 3 dan spesifikasi software pada table 4.

Tabel 2.Spesifikasi Laptop

Fitur Spesifikasi

Processor Intel i3-6006U

RAM 4 GB

Penyimpanan SSD 256 GB

VGA NVIDIA GeForce GT920MX Sistem Operasi Windows 10

Tabel 3. Spesifikasi Kamera HP Fitur Spesifikasi Kamera 19 Mega Pixel

(5)

Tabel 4. Spesifikasi Software

Aspek Spesifikasi

Bahasa Pemrogramman Python versi 3.9.5 Software Training Google Colab Pro

Text Editor Microsoft Visual Studio Code Software Pengujian Command Prompt 3.1 Skenario Training Dataset

Hasil dari training dataset akan sangat mempengaruhi keberhasilan sistem dalam mendeteksi objek. Data latih dan data validasi sebagian dibuat oleh peneliti dan Sebagian lagi diambil dari pencarian google. Dari percobaan training pembagian data yang menggunakan model YOLOv3, YOLOv3-Tiny dan YOLOv4, didapatkan hasil training yang dapat dilihat perbedaanya dari persentase terbaik Mean Average Precision (mAP), precision, recall dan F1-Score dari 15 kali percobaan training. Hasil Training tersebut dapat dilihat pada tabel 5.

Tabel 5. Hasil Training

Model Pembagian Data Best mAP Precision Recall F1-Score

Yolov3 90:10 89.63% 0.85 0.88 0.87

80:20 89.97% 0.86 0.86 0.86

70:30 88.97% 0.87 0.86 0.86

60:40 86.69% 0.88 0.83 0.85

50:50 86.22% 0.86 0.84 0.85

Yolov3-tiny 90:10 82.08% 0.82 0.75 0.78

80:20 79.69% 0.79 0.75 0.77

70:30 80.17% 0.78 0.77 0.78

60:40 76.15% 0.80 0.72 0.75

50:50 75.42% 0.76 0.72 0.74

Yolov4 90:10 90.92% 0.85 0.90 0.87

80:20 92.54% 0.86 0.92 0.89

70:30 91.86% 0.88 0.89 0.88

60:40 89.32% 0.87 0.87 0.87

50:50 88.95% 0.86 0.86 0.86

Nilai presentase mAP, precision, recall dan F1-Score didapat dari perhitungan yang sesuai pada persamaan 1 sampai dengan persamaan 6. Perhitungan ini dilakukan oleh YOLO saat proses validasi training dataset.

Penelitian ini menggunakan konfigurasi max_batches = 6000. Pada saat mencapai 1000 batches training dan setiap 100 batches selanjutnya, YOLO akan menghitung nilai mAP dalam bentuk grafik presentase. Ketika proses training selesai, YOLO akan menampilkan output berupa grafik presentase dari seluruh perhitungan nilai mAP.

Nilai mAP tertinggi dijadikan sebagai best mAP pada setiap percobaan training yang dilakukan. Setelah mendapat best mAP pada masing-masing percobaan training, selanjutnya dilakukan evaluasi performa dari nilai precision, recall dan F1-Score dengan tujuan untuk mendapatkan model yang paling optimal. Dari hasil training dapat diketahui bahwa model YOLOv4 dengan pembagian data 80% training dan 20% validation adalah model terbaik karena mendapatkan nilai mAP dan F1-Score yang paling tinggi, yaitu 92.54% dan 0,89.

3.2 Skenario Pengujian Jarak

Percobaan dilakukan pada beberapa skenario, yaitu dengan mengatur jarak antara posisi kamera dengan objek penelitian yaitu puntung rokok. Percobaan dilakukan di dalam ruangan dan dilakukan sebanyak 9 kali, dimulai dari jarak 1 meter, 1.5 meter, 2 meter, 2.5 meter, 3 meter, 3.5 meter, 4 meter, 4.5 meter dan 5 meter. Ketinggian kamera di atur pada ketinggian 1.5 meter. Alasan peneliti mengambil pada jarak tersebut adalah dikarenakan puntung rokok yang berukuran kecil, sehingga pengujian dilakukan setiap 50 cm dimulai pada jarak 1 meter hingga 5 meter. Pengujian ini diharapkan dapat menghasilkan jarak yang cukup efektif dalam mendeteksi rokok.

3.3 Hasil Pengujian Jarak

Pengujian jarak diambil secara langsung oleh peneliti. Sistem akan menampilkan label rokok dan score secara realtime apabila memenuhi nilai standar dari confidence threshold yaitu 0.25. Berikut merupakan hasil dari pengujian pada sistem deteksi rokok yang dilakukan:

a. Jarak 1 Meter

Hasil pengujian yang dilakukan pada gambar 3, menghasilkan bahwa pada jarak 1 meter, sistem dapat mendeteksi rokok dengan tingkat akurasi deteksi tertinggi yaitu 99.03%. Nilai akurasi ini didapat pada objek Rokok yang terdeteksi di Orang 4 dengan score yang didapat yaitu 99,03. Akurasi pengujian deteksi pada gambar 3 dapat dilihat pada gambar 4.

(6)

Gambar 3. Pengujian Jarak 1 Meter

Gambar 4. Akurasi Jarak 1 Meter

Dari grafik pengujian pada gambar 4, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi deteksi 89,12%, Orang 2 79,13%, Orang 3 97,08% dan Orang 4 99,03%.

b. Jarak 1.5 Meter

Hasil pengujian yang dilakukan pada gambar 5, menghasilkan bahwa pada jarak 1.5 meter, sistem dapat mendeteksi rokok dengan tingkat akurasi deteksi tertinggi yaitu 91.69%. Nilai akurasi ini didapat pada objek Rokok yang terdeteksi di Orang 1 dengan score yang didapat yaitu 91,69.

Gambar 5. Akurasi Jarak 1.5 Meter

Dari grafik pengujian pada gambar 5, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi deteksi 91,69%, Orang 2 75,57%, Orang 3 57,06% dan Orang 4 89,98%.

c. Jarak 2 Meter

Hasil pengujian yang dilakukan pada gambar 6, menghasilkan bahwa pada jarak 2 meter, sistem dapat mendeteksi rokok dengan tingkat akurasi deteksi tertinggi yaitu 91.38% . Nilai akurasi ini didapat pada objek Rokok yang terdeteksi di Orang 3 dengan score yang didapat yaitu 91,38.

Gambar 6. Jarak 2 Meter

Dari grafik pengujian pada gambar 6, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi deteksi 54,83%, Orang 2 65,52%, Orang 3 91,38% dan Orang 4 72,94%.

89,12% 79,13% 97,08% 99,03%

0%

100%

Orang 1 Orang 2 Orang 3 Orang 4

Percobaan Pada Jarak 1 Meter

Orang 1 Orang 2

91,69% 75,57% 57,06% 89,98%

0%

100%

Orang 1 Orang 2 Orang 3 Orang 4

Percobaan Pada Jarak 1.5 Meter

Orang 1 Orang 2

54,83% 65,52%

91,38%

72,94%

0%

100%

Orang 1 Orang 2 Orang 3 Orang 4

Percobaan Pada Jarak 2 Meter

Orang 1 Orang 2 Orang 3

Orang 1

Orang 2 Orang 3 Orang 4

(7)

d. Jarak 2.5 Meter

Hasil pengujian yang dilakukan pada gambar 7, menghasilkan bahwa pada jarak 2.5 meter, sistem dapat mendeteksi rokok dengan tingkat akurasi deteksi tertinggi yaitu 78.93%. Nilai akurasi ini didapat pada objek Rokok yang terdeteksi di Orang 3 dengan score yang didapat yaitu 78,93.

Gambar 7. Akurasi Jarak 2.5 Meter

Dari grafik pengujian pada gambar 7, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi deteksi 69,69%, Orang 2 40,38%, Orang 3 78,93% dan Orang 4 40,95%.

e. Jarak 3 Meter

Hasil pengujian yang dilakukan pada gambar 8, menghasilkan bahwa pada jarak 3 meter, sistem dapat mendeteksi rokok dengan tingkat akurasi deteksi tertinggi yaitu 73.38%. Nilai akurasi ini didapat pada objek Rokok yang terdeteksi di Orang 4 dengan score yang didapat yaitu 73,38.

Gambar 8. Akurasi Jarak 3 Meter

Dari grafik pengujian pada gambar 8, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi deteksi 72,39%, Orang 2 28,03%, Orang 3 tidak terdeteksi dan Orang 4 73,38%.

f. Jarak 3.5 Meter

Hasil pengujian yang dilakukan pada gambar 9, menghasilkan bahwa pada jarak 3.5 meter, sistem dapat mendeteksi rokok dengan tingkat akurasi deteksi tertinggi yaitu 59.50%. Nilai akurasi ini didapat pada objek Rokok yang terdeteksi di Orang 1 dengan score yang didapat yaitu 59,50.

Gambar 9. Akurasi Jarak 3.5 Meter

Dari grafik pengujian pada gambar 9, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi deteksi 59,50%, Orang 2 tidak terdeteksi, Orang 3 47,27% dan Orang 4 tidak terdeteksi.

g. Jarak 4 Meter

Hasil pengujian yang dilakukan pada gambar 10, menghasilkan bahwa pada jarak 4 meter, sistem dapat mendeteksi rokok dengan tingkat akurasi deteksi tertinggi yaitu 59.47%. Nilai akurasi ini didapat pada objek Rokok yang terdeteksi di Orang 3 dengan score yang didapat yaitu 59,47.

Gambar 10. Akurasi Jarak 4 Meter

69,69%

40,38%

78,93%

40,95%

0%

100%

Orang 1 Orang 2 Orang 3 Orang 4

Percobaan Pada Jarak 2.5 Meter

Orang 1 Orang 2 Orang 3

72,39%

28,03%

0,00%

73,38%

0%

100%

Orang 1 Orang 2 Orang 3 Orang 4

Percobaan Pada Jarak 3 Meter

Orang 1 Orang 2 Orang 3

59,50%

0,00% 47,27%

0,00%

0%

100%

Orang 1 Orang 2 Orang 3 Orang 4

Percobaan Pada Jarak 3.5 Meter

Orang 1 Orang 2

44,73%

0,00%

59,47%

0,00%

0%

100%

Orang 1 Orang 2 Orang 3 Orang 4

Percobaan Pada Jarak 4 …

Orang 1 Orang 2 Orang 3

(8)

Dari grafik pengujian pada gambar 10, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi deteksi 44,73%, Orang 2 tidak terdeteksi, Orang 3 59,47% dan Orang 4 tidak terdeteksi.

h. Jarak 4.5 Meter

Hasil pengujian yang dilakukan pada gambar 11. Menghasilkan bahwa pada jarak 4.5 meter, sistem dapat mendeteksi rokok dengan tingkat akurasi deteksi tertinggi yaitu 59.41%. Nilai akurasi ini didapat pada objek Rokok yang terdeteksi di Orang 1 dengan score yang didapat yaitu 59,41.

Gambar 11. Akurasi Jarak 4.5 Meter

Dari grafik pengujian pada gambar 11, sistem dapat mendeteksi rokok pada Orang 1 dengan akurasi deteksi 59,41%, Orang 2 tidak terdeteksi, Orang 3 tidak terdeteksi dan Orang 4 tidak terdeteksi.

i. Jarak 5 Meter

Hasil pengujian yang dilakukan pada gambar 12. Menghasilkan bahwa pada jarak 5 meter, sistem sama sekali tidak dapat mendeteksi rokok. Akurasi pada gambar 12 dapat dilihat pada gambar 13.

Gambar 12. Pengujian Jarak 5 Meter

Gambar 13. Akurasi Jarak 5 Meter

Dari grafik pengujian pada gambar 13, sistem tidak dapat mendeteksi objek rokok pada Orang 1, Orang 2, Orang 3 dan Orang 4. Sehingga akurasi yang di dapat adalah 0,00%.

3.4 Perbandingan Akurasi

Percobaan pengujian untuk mendeteksi rokok yang dilakukan dengan skenario pembagian jarak yang di mulai pada jarak 1 meter sampai dengan jarak 5 meter. Didapatkan hasil perbandingan akurasi tertinggi dari masing- masing pengujian jarak yang dilakukan. Perbandingan akurasi pada jarak pengujian yang dilakukan dapat dilihat pada gambar 14.

Gambar 14. Perbandingan Akurasi

59,41% 0,00% 0,00% 0,00%

100%0%

Orang 1 Orang 2 Orang 3 Orang 4

Percobaan Pada …

Orang 1 Orang 2

0,00% 0,00% 0,00% 0,00%

100%0%

Orang 1 Orang 2 Orang 3 Orang 4

Percobaan Pada Jarak 5 Meter

Orang 1 Orang 2

99,03%

91,69%91,38%

78,93%73,38%

59,50%59,47%59,41%

0,00%

0,00%

20,00%

40,00%

60,00%

80,00%

100,00%

1 Meter

1.5 Meter

2 Meter

2.5 Meter

3 Meter

3.5 Meter

4 Meter

4.5 Meter

5 Meter

Perbandingan Akurasi

Orang 2 Orang 1

Orang 3 Orang 4

(9)

Dari grafik perbandingan akurasi pada gambar 14, sistem dapat mendeteksi objek rokok dengan tingkat akurasi deteksi tertinggi yang dimulai pada jarak 1meter yaitu 99,03%, jarak 1,5 meter yaitu 91,69%, jarak 2 meter yaitu 91,38%, jarak 2,5 meter yaitu 78,93%, jarak 3 meter yaitu 73,38%, jarak 3,5 meter yaitu 59,50%, jarak 4 meter yaitu 59,47%, jarak 4,5 meter yaitu 59,41% dan pada jarak 5 meter sistem tidak dapat mendeteksi objek rokok. Dari perbandingan tersebut, didapatkan hasil bahwa sistem dapat mendeteksi rokok dengan tingkat akurasi deteksi tertinggi pada jarak 1meter dengan persentase 99,03% dan pada jarak 5 meter sistem sama sekali tidak dapat mendeteksi objek rokok.

4. KESIMPULAN

Berdasarkan penelitian yang dilakukan, dapat ditarik kesimpulan bahwa model terbaik dari tahap training dataset adalah YOLOv4 dengan pembagian data 80% training dan 20% validation dimana menghasilkan presentase tertingi Mean Average Precision (mAP) yaitu 92.54% dan F1-Score 0.89. Dari pengujian sistem pendeteksi rokok yang dilakukan, sistem dapat mendeteksi rokok sampai pada jarak 4.5 meter, dan akurasi deteksi tertinggi didapatkan pada jarak 1 meter yaitu 99.03%, serta tidak dapat mendeteksi rokok sama sekali pada jarak 5 meter.

UCAPAN TERIMAKASIH

Terima kasih kepada seluruh stakeholder Universitas Abdurrab yang telah memberikan izin dan memberikan arahan dalam penelitian ini

REFERENCES

[1] E. Nuraeni, I. Yoyoh, E. Wibisana, and D. Mardiana, “Hubungan Tingkat Pengetahuan Dengan Peilaku Merokok Di SMK Sasmita Jaya I Pamulung,” J. Kesehat. Masy., vol. 6, no. 2, pp. 2–7, 2021.

[2] L. Arief, A. Z. Tantowi, N. P. Novani, and T. A. Sundara, “Implementation of YOLO and smoke sensor for automating public service announcement of cigarette’s hazard in public facilities,” 2020 Int. Conf. Inf. Technol. Syst. Innov. ICITSI 2020 - Proc., pp. 101–107, 2020, doi: 10.1109/ICITSI50517.2020.9264972.

[3] C. B. Murthy, M. F. Hashmi, N. D. Bokde, and Z. W. Geem, “Investigations of object detection in images/videos using various deep learning techniques and embedded platforms-A comprehensive review,” Appl. Sci., vol. 10, no. 9, 2020, doi: 10.3390/app10093280.

[4] S. M. Humphries et al., “Deep learning enables automatic classification of emphysema pattern at CT,” Radiology, vol.

294, no. 2, pp. 434–444, 2020, doi: 10.1148/radiol.2019191022.

[5] D. Garg, P. Goel, S. Pandya, A. Ganatra, and K. Kotecha, “A Deep Learning Approach for Face Detection using YOLO,”

Proc. 5th Int. Conf. Trends Electron. Informatics, ICOEI 2021, pp. 760–764, 2018, doi:

10.1109/ICOEI51242.2021.9452896.

[6] J. Tao, H. Wang, X. Zhang, X. Li, and H. Yang, “An object detection system based on YOLO in traffic scene,” Proc.

2017 6th Int. Conf. Comput. Sci. Netw. Technol. ICCSNT 2017, vol. 2018-Janua, pp. 315–319, 2018, doi:

10.1109/ICCSNT.2017.8343709.

[7] J. Liao and J. Zou, “Smoking target detection based on Yolo V3,” in Proceedings - 2020 5th International Conference on Mechanical, Control and Computer Engineering, ICMCCE 2020, Dec. 2020, pp. 2241–2244, doi:

10.1109/ICMCCE51767.2020.00486.

[8] A. Bochkovskiy, C.-Y. Wang, and H.-Y. M. Liao, “YOLOv4: Optimal Speed and Accuracy of Object Detection,” 2020, [Online]. Available: http://arxiv.org/abs/2004.10934.

[9] K. Zhao and X. Ren, “Small Aircraft Detection in Remote Sensing Images Based on YOLOv3,” IOP Conf. Ser. Mater.

Sci. Eng., vol. 533, no. 1, 2019, doi: 10.1088/1757-899X/533/1/012056.

[10] A. Pundhir, D. Verma, P. Kumar, and B. Raman, “Region extraction based approach for cigarette usage classification using deep learning,” 2021, [Online]. Available: http://arxiv.org/abs/2103.12523.

[11] S. Wang, “Research towards Yolo-Series Algorithms: Comparison and Analysis of Object Detection Models for Real- Time UAV Applications,” J. Phys. Conf. Ser., vol. 1948, no. 1, 2021, doi: 10.1088/1742-6596/1948/1/012021.

[12] D. S. Aulia, C. Setianingsih, and M. Kallista, “Deteksi Tanda Kehidupan Pada Korban Bencana Alam Dengan Algoritma Yolo Dan Open Pose Life Sign Detector Using You Only Look Once ( Yolo ) and Open Pose,” e-Proceeding Eng., vol.

8, no. 5, pp. 6162–6174, 2021.

[13] M. Muhaimin and T. W. Sen, “Real-Time Detection of Face Masked and Face Shield Using YOLO Algorithm with Pre- Trained Model and Darknet,” Indones. J. Artif. Intell. Data Min., vol. 4, no. 2, pp. 97–107, 2021.

[14] Y. N. Fuadah, S. Saidah, N. K. Sy, R. Magdalena, and I. Da’wan Ubaidullah, “Glaucoma Classification Based on Fundus Images Processing With Convolutional Neural Network,” J. Tek. Inform., vol. 3, no. 3, pp. 717–722, 2022, [Online].

Available: https://doi.org/10.20884/1.jutif.2022.3.3.276.

[15] T. A. A. H. Kusuma, K. Usman, and S. Saidah, “PEOPLE COUNTING FOR PUBLIC TRANSPORTATIONS USING YOU ONLY LOOK ONCE METHOD,” J. Tek. Inform., vol. 2, no. 1, pp. 57–66, 2021, doi: 10.20884/1.jutif.2021.2.2.77.

[16] M. D. Anggraini and H. Al Fatta, “SOCIAL DISTANCING DETECTION FINDING OPTIMAL ANGLE WITH YOLO V3 DETEKSI SOCIAL DISTANCING MENCARI SUDUT OPTIMAL DENGAN METODE DEEP LEARNING YOLO V3,” J. Tek. Inform., vol. 3, no. 5, pp. 1449–1454, 2022.

[17] J. Redmon and A. Farhadi, “YOLOv3: An Incremental Improvement,” 2018, [Online]. Available:

http://arxiv.org/abs/1804.02767.

[18] H. Gong, H. Li, K. Xu, and Y. Zhang, “Object Detection Based on Improved YOLOv3-tiny,” Proc. - 2019 Chinese

(10)

Autom. Congr. CAC 2019, no. 61421070104, pp. 3240–3245, 2019, doi: 10.1109/CAC48633.2019.8996750.

[19] A. S. Riyadi, I. P. Wardhani, M. S. Wulandari, and S. Widayati, “Perbandingan Metode ResNet, YoloV3, dan TinyYoloV3 pada Deteksi Citra dengan Pemrograman Python,” Petir, vol. 15, no. 1, pp. 135–144, 2022, doi:

10.33322/petir.v15i1.1302.

[20] J. Yu and W. Zhang, “Face Mask Wearing Detection Algorithm Based on,” Sensors, vol. 21, p. 3263, 2021.

[21] H. R. Yudistira and Lina, “HUMAN ACTIVITY RECOGNATION DARI REKAMAN VIDEO PENGAWAS DENGAN METODE YOLO,” J. Ilmu Komput. dan Sist. Inf., vol. 10, pp. 1–5, 2022.

[22] H. Hammam, A. Asyhar1, S. A. Wibowo2, and G. Budiman3, “Implementasi Dan Analisis Performansi Metode You Only Look Once (Yolo) Sebagai Sensor Pornografi Pada Video Implementation and Performance Analysis of You Only Look Once (Yolo) Method As Porn Censorship in Video,” e-Proceeding Eng., vol. 7, no. 2, pp. 3631–3638, 2020.

[23] N. K. C. PRATIWI, N. IBRAHIM, Y. N. FU’ADAH, and S. RIZAL, “Deteksi Parasit Plasmodium pada Citra Mikroskopis Hapusan Darah dengan Metode Deep Learning,” ELKOMIKA J. Tek. Energi Elektr. Tek. Telekomun. Tek.

Elektron., vol. 9, no. 2, p. 306, 2021, doi: 10.26760/elkomika.v9i2.306.

[24] B. Oxy, E. Andriyansyah, and I. Hariyanti, “IMPLEMENTASI RECURRENT NEURAL NETWORK UNTUK DETEKSI DETAK Keywords : Heartbeat , Application , Facial Digital Image Processing , Recurrent neural network,”

vol. 17, pp. 11–18, 2022.

Referensi

Dokumen terkait

Berdasarkan hasil penelitian yang telah dilakukan dapat ditarik kesimpulan dari tektur deteksi metode LU-Transform untuk mendeteksi gambar penyakit kulit pada kelinci dapat

Analisis kinerja Content-Based Image Retrieval dengan metode You Only Look Once berbasis Augmented Reality telah berhasil dilakukan pada lima kelas makanan nasional

Pada penelitian ini terdapat pengujian dataset hasil training menggunakan model YOLOv4 dan YOLOv4-tiny dengan 10 kali percobaan pada setiap class, percobaan

Permasalahan yang timbul dari penilitian ini yaitu untuk menghasilkan tingkat akurasi yang dilakukan oleh mesin computer sehingga diharapkan dari akurasi tersebut,

Hasil yang didapatkan pada penelitian ini bahwa aplikasi android dapat berjalan baik dengan akurasi sebesar 92,33% dapat dilihat dari hasil pengujian dengan

Dengan demikian, sistem dektesi unsur depresi pada tweet dengan Metode Naïve Bayes dapat mendeteksi sebuah postingan tweet mengandung unsur depresi atau tidak dengan nilai

Pada proses pengujian didapatkan hasil bahwa sistem hanya dapat mendeteksi dengan maksimum jarak 240 cm dimana melebihi itu marker pendeteksi tidak dapat mendeteksi

Sehingga konfigurasi dengan learning rate 0.00002, batch size 8, pada step training 20K mendapatkan nilai akurasi yang terbaik pada sistem yang