• Tidak ada hasil yang ditemukan

BAB 2 TINJAUAN PUSTAKA

2.2 Penelitian Terkait

Penelitian ini mengacu pada beberapa penelitian maupun studi sejenis yang telah dilakukan sebelumnya mengenai kompresi data. Berikut uraian singkat dari penelitian maupun studi tersebut.

2.2.1 Analisis Perbandingan Algoritma Kompresi Lempel Ziv Welch, Arithmetic Coding, Dan Run-Length Encoding Pada File Teks, oleh Plipus Telaumbanua (Telaumbanua, 2011)

Penelitian Plipus Telaumbanua ini membandingkan tiga algoritma kompresi data yaitu Lempel Ziv Welch (LZW), Arithmetic Coding, dan Run-Length Encoding(RLE), dimana algoritma RLE dibantu oleh algoritma Burrows-Wheeler Transform (BWT) untuk memaksimalkan kinerjanya. Algoritma-algoritma tersebut dipilih karena semuanya dalam kategori Algoritma-algoritma lossless, dan mewakili masing-masing teknik pengkodean. Parameter yang digunakan untuk perbandingan adalah kompleksitas algoritma, rasio kompresi, dan waktu untuk proses kompresi dan dekompresi, sedangkan fileuji yang digunakan adalah fileplaintext ASCII (*.txt) dengan berbagai ukuran dan pola masukan.

Penyelesaian yang disimpulkan yaitu pada keseluruhan file uji yang digunakan, file yang memiliki banyak deretan karakter yang sama sangat baik dikompresi algoritma BWT – RLE, namun sangat buruk untuk file yang isinya tidak beraturan (acak) serta memiliki kompleksitas yang paling besar. Sama halnya seperti BWT – RLE, algoritma LZW juga buruk untuk file yang isinya acak, namun sangat efektif untuk file yang memiliki pola karakter yang sama, seperti file source code dan file teks biasa. Sedangkan algoritma Arithmetic Codingsangat cocok untuk semua fileuji, baik dalam keadaan acak maupun tidak (Telaumbanua, 2011). Gambar 2.11. menunjukkan alur pikir yang dilakukan oleh Plipus Telaumbanua :

Gambar 2.11. Alur Pikir Penelitian oleh Plipus Telaumbanua (Telaumbanua, 2011)

2.2.2 Implementasi Run Length Pada Kompresi File Text Dengan Menggunakan Transformasi Burrows Wheeler, oleh Muhammad Husli Khairi (Khairi, 2010)

Pokok bahasan dalam penelitian Muhammad Husli Khairi ini melakukan uji kasus tentang penyempurnaan metode kompresiRun-Length Encodingdengan algoritma Transformasi Burrows-Wheeler dengan tujuan untuk meningkatkan efektivitas kompresi dan menutupi kekurangan algoritma RLE sendiri.

Penelitian Khairi ini menitikberatkan implementasinya dalam program komputer dengan platform atau bahasa pemrograman Visual Basic 6.0 dengan data uji yang digunakan berupa file-file ekstensi (*.doc), (*.rft), (*.txt), dan file (*.html) yang selanjutnya dilakukan dilakukan analisis waktu baik dalam encodingdan decodingserta efektivitas kompresi dilihat dari rasio kompresi yang dihasilkan.

Hasil analisis menunjukkan bahwa transformasiBurrows-Wheelermampu memproses langsung satu blok data teks sebagai satuan dan mampu untuk mengelompokkan karakter secara bersama-sama sehingga peluang untuk

menemukan karakter yang sama secara berurutan akan meningkat. Transformasi Burrows-Wheeler ini juga memiliki sifat reversible yaitu dapat mengembalikan data teks yang telah ditransformasikan kenbetuk yang sama persis dengan data aslinya (Khairi, 2010). Gambar 2.12. menunjukkan alur pikir oleh Muhammad Husli Khairi :

Gambar 2.12. Alur Pikir Penelitian oleh Muhammad Husli Khairi (Khairi, 2010)

2.2.3 Compression Using Huffman Coding, oleh Mamta Sharma (Sharma, 2010)

Jurnal internasional yang ditulis oleh Mamta Sharma ini membahas mengenai algoritma Huffman yang dianalisa dan dijelaskan secara mendalam dilihat dari berbagai aspek meliputi teknik dasar Huffman, fungsi utama yang digunakan, pengaplikasian, kelebihan dan kekurangan, serta sedikit penjelasan singkat mengenai Adaptive Huffman Coding.

Pada jurnal ini juga dilakukan survey perbandingan dengan teknik kompresi lainnya yang umum seperti Aritmethic Coding, LZW dan Run-Length Encoding yang dianalisis dan dibandingkan lebih lanjut dalam hal kelebihan dan kekurangan serta pengaplikasian algoritma-algoritma tersebut dalam file image digitalseperti JPEG, TIFF, GIF, BMP, dan PCX dengan menunjukkan algoritma mana yang efektif pada jenisfiletertentu.

Setelah dilakukan pembelajaran mengenai berbagai teknik untuk kompresi dan membandingkan berdasarkan penggunaannya dalam berbagai aplikasi dan kelebihan serta kekurangan. Disimpulkan bahwa pengkodean Arithmetic Coding efisien jika lebih sering muncul urutan piksel dengan bit yang rendah dan mengurangi ukuran file secara signifikan. RLE merupakan algoritma yang mudah dalam implementasi dan cepat dalam eksekusi. Algoritma LZW lebih efektif digunakan untuk TIFF, GIF dan File Tekstual, sedangkan algoritma Huffman lebih cocok digunakan dalam kompresi JPEG. Keunggulannya Huffman menghasilkan kode yang optimal tetapi relatif lambat (Sharma, 2010).

2.2.4 A Comparative Study Of Text Compression Algorithm, oleh Senthil Shanmugasundaram dan Robert Lourdusamy (Shanmugasundaram & Lourdusamy, 2011)

Penelitian dari Senthil Shanmugasundaram dan Robert Lourdusamy ini membahas mengenai survei terhadap algoritma dasar kompresi data lossless yang berbeda. Hasil percobaan dan perbandingan algoritma kompresi lossless menggunakan teknik Statistical Compression dan teknik Dictionary Based Compression dilakukan pada data teks. Teknik pengkodean statistik yang diperbandingkan diantaranya algoritma seperti Shannon-Fano coding, Huffman coding, Adaptive Huffman coding, Run-Length EncodingsertaArithmetic coding. PolaLempel Zivyang merupakan teknikDictionary Basedjuga dibandingkan dan dibagi menjadi dibagi menjadi dua bagian: yang merupakan derivasi dari LZ77 (LZ77, LZSS, LZH dan LZB) dan yang merupakan derivasi dari LZ78 (LZ78, LZW dan LZFG).

Penelitian dilakukan untuk mengevaluasi efisiensi dari algoritma kompresi yang diukur dengan dua parameter. Salah satunya adalah hasil file size dari kompresi dicapai dan yang lainnya adalah waktu yang digunakan oleh algoritma encoding dan decoding. Kemudian dilakukan uji kinerja praktis dari teknik yang disebutkan di atas pada beberapa ukuran file teks, setelah itu menemukan hasil berbagai teknik pengkodean statistik maupun teknik-teknik Lempel-Ziv yang dipilih dalam penelitian ini.

Dari hasil survei dan perbandingan yang telah dilakukan maka didapat algoritma-algoritma yang memiliki efisiensi yang cukup tinggi diantaranya Arithmetic Coding (untuk teknik Statistical Compression), LZB (untuk teknik Dictionary Based Compression derivasi LZ77), serta LZFG (untuk teknik Dictionary Based Compression derivasi LZ78) (Shanmugasundaram & Lourdusamy, 2011).

2.2.5 Comparative Study Between Various Algorithms of Data Compression Techniques, oleh Mohammed Al-laham dan Ibrahiem M. M. El Emary(Al-laham & El Emary, 2007)

Penelitian Al-laham dan El Emary ini membahas mengenai survei terhadap algoritma-algoritma teknik kompresi data. Penelitian ini menitikberatkan pada pola data yang menonjol kompresi, diantaranya yang cukup populer yaitu .DOC, .TXT, .BMP, .TIF, .GIF, dan .JPG. Dengan menggunakan beberapa algoritma kompresi yang berbeda, didapatkan beberapa hasil dan sehubungan dengan hasil tersebut ditarik kesimpulan mengenai algoritma yang efisien untuk digunakan pada jenis file tertentu yang akan dilakukan proses kompresi dengan mempertimbangkan rasio kompresi dan ukuran file terkompresi..

Beberapa algoritma yang digunakan dalam penelitian ini adalah algoritma LZW, Huffman, LZH (LZW – Huffman) serta HLZ (Huffman – LZW). Hasil yang di dapat berdasarkan parameter ukuran output hasil kompresi dan rasio kompresi didapat bahwa algoritma Huffman dan algoritma LZH (kategori algoritma kombinasi) lebih unggul untuk kompresi file .DOC, .TXT, dan .BMP dibandingkan algoritma LZW dan HLZ. Sedangkan untuk file .TIF, .GIF, dan .JPG semua algoritma yang diujikan menampilkan performansi yang buruk (Al-laham & El Emary, 2007).

Dokumen terkait