• Tidak ada hasil yang ditemukan

Analisis Perbandingan Algoritma Round-Robin dengan Least-Connection Terhadap Peningkatan Nilai Throughput Pada Layanan Web Server

N/A
N/A
Protected

Academic year: 2024

Membagikan "Analisis Perbandingan Algoritma Round-Robin dengan Least-Connection Terhadap Peningkatan Nilai Throughput Pada Layanan Web Server"

Copied!
7
0
0

Teks penuh

(1)

Analisis Perbandingan Algoritma Round-Robin dengan Least-Connection Terhadap Peningkatan Nilai Throughput Pada Layanan Web Server

Alfry Aristo Jansen Sinlae 1,*, Muhammad Bagir2, M. Hadi Prayitno3

1Ilmu Komputer, Universitas Katolik Widya Mandira, Kupang, Indonesia

2Sistem Informasi, Sekolah Tinggi Teknologi Informasi NIIT, Jakarta Selatan, Indonesia

3Informatika, Universitas Bhayangkara Jakarta Raya, Jakarta Selatan, Indonesia Email: 1,*[email protected], 2[email protected], 3[email protected]

Email Penulis Korespondensi: [email protected] Submitted 20-10-2022; Accepted 31-10-2022; Published 31-10-2022

Abstrak

Masifnya pertumbuhan jaringan internet saat ini, memicu peningkatan jumlah pengguna yang terkoneksi ke berbagai layanan server.

Kondisi tersebut harus dapat ditangani dengan sistem server yang baik. Hal tersebut dapat dilakukan penyelesaian melalui implementasi banyak server, karena dengan banyak server beban yang masuk akan dapat terurai. Salah satu metode yang dapat digunakan dalam mendistribusikan beban yang diterima ke sejumlah server adalah load balancing. Penelitian ini bertujuan untuk mendapatkan nilai throughput terbaik dari metode load balancing menggunakan algoritma round-robin dan least-connection. Hasil pengujian koneksi dengan nilai permintaan 500 koneksi/detik untuk 1000 permintaan, 600 koneksi/detik untuk 1200 permintaan, load balancing dengan algoritma least-connection ini terlihat sedikit lebih baik. Kondisi ini disebabkan oleh distribusi koneksi aktif yang masih dapat ditangani oleh masing-masing server. Namun, selama periode pengujian 700 koneksi/detik untuk 1400 permintaan, 800 koneksi/detik untuk 1600 permintaan, dan 900 koneksi/detik untuk 1800 permintaan terdapat perubahan pada kemampuan dalam memberikan respon terhadap permintaan yang masuk. Hal ini tentunya berdampak signifikan terhadap throughput yang diberikan server saat memproses sebuah request.

Kata Kunci: Load Balancing; Round-Robin; Least-Connection; Throughput; Server Abstract

The massive growth of the current internet network has triggered an increase in the number of users connected to various serv er services. These conditions must be handled with a good server system. This can be accomplished through the implementation of many servers, because with many servers the incoming load will be unraveled. One method that can be used in distributing the received load to a number of servers is load balancing. This study aims to obtain the best throughput value from the load balancing method using round-robin and least-connection algorithms. The results of the connection test with a request value of 500 connections/second for 1000 requests, 600 connections/second for 1200 requests, load balancing with the least-connection algorithm looks a little better. This condition is caused by the distribution of active connections that can still be handled by each server. However, during the test period of 700 connections/sec for 1400 requests, 800 connections/sec for 1600 requests, and 900 connections/sec for 1800 requests there was a change in the ability to respond to incoming requests. This certainly has a significant impact on the throughput provided by the server when processing a request.

Keywords:Load Balancing; Round-Robin; Least-Connection; Throughput; Server

1. PENDAHULUAN

Masifnya pertumbuhan internet dalam beberapa tahun terakhir berimbas pada meningkatnya jumlah pengguna yang terhubung dan mengakses berbagai layanan yang disediakan melalui jaringan. Kondisi ini dapat menyebabkan peningkatan beban pada server penyedia layanan seiring dengan bertambahnya jumlah klien [1]. Pertumbuhan ini tentu akan berimbas pada peralatan server yang semakin besar. Selain itu, berbagai layanan aplikasi Web kian meningkat yang memicu akses terhadap layanan internet. Berbagai layanan tersebut seperti e-learning, e-business, e-government, e- commerce serta e-news [2], [3]. Berbagai perkembangan tersebut akan mempercepat lahirnya teknologi terbaru yang disebut cloud computing atau komputasi awan. Komputasi awan dapat diartikan sebagai sekumpulan sumber daya komputasi dan networking, model manajemen penyimpanan, dan mendukung dalam berbagai sistem berbasiskan virtual.

Kondisi tersebut memungkinkan untuk melakukan penyesuaian terhadap aspek ketersediaan dengan apa yang dibutuhkan, melalui alasan estimasi terhadap perspektif perekonomian maupun perspektif yang lain. Peran penting cloud computing ada pada kemampuan yang dinamis di dalam mendukung infrastruktur TI, menjamin kualitas layanan, dan kemudahan dalam pengaturan aplikasi layanan [4], [5]. Kehadiran teknologi komputasi awan memudahkan dalam membangun berbagai infrastruktur [6], [7]. Cukup banyak penelitian yang menggunakan komputasi awan sebagai opsi untuk menyediakan sumber daya infrastruktur saat menyiapkan berbagai layanan berbasis aplikasi web. Oleh karena itu, untuk meningkatkan kinerja layanan sistem server web memerlukan sistem server yang maksimal [8]. Hal ini bertujuan agar dapat teratasi tingginya permintaan layanan ke server web. Kuatnya sistem server akan memberikan dukungan terhadap tersedianya layanan sesuai kebutuhan. Arsitektur server yang didukung dengan sejumlah server menjadi alternatif terbaik untuk diimplementasikan, akan tetapi membutuhkan konsep load balancing didalamnya. Load balancing adalah satu diantara beberapa teknologi jaringan yang dapat diimplementasikan sebagai upaya peningkatan ketersediaan dan kinerja sistem server. Prosedur load balancing proses kerjanya melalui pendistribusian beban koneksi yang mengakses server dengan bersamaan, atau dalam kata lain prosedur tersebut membongkar satu server [9], [10].

Sejumlah penelitian terkait dengan load balancing sudah banyak dilakukan beberapa peneliti. Penelitian mengenai peran loud balancing untuk meningkatkan kinerja server pada lingkungan cloud [11]. Pada penelitian ini melakukan

(2)

perancangan serta mengevaluasi metode load balancing dengan tujuan untuk meningkatkan Quality of Service (QoS) serta menjaga ketersedian layanan pada web server di dalam lingkungan cloud computing. Penelitian berikutnya, mengenai analisis pengembangan server menggunakan load balancing melalui Haproxy dan Nginx [12]. Pada penelitian ini melakukan pengujian terhadap Haproxy dan Nginx dengan melakukan pengukuran terhadap dua variable yakni throughput dan response time. Penelitian berikutnya, mengenai penerapan load balancing melalui algoritma round-robin untuk arsitektur web server [13]. Penelitian ini melakukan pembangunan load balancing dengan menggunakan algoritma round- robin untuk mengukur performa server dalam melayani suatu website.

Penelitian ini bertujuan untuk melakukan komparasi algoritma round-robin dan least-connection terhadap penerapan metode load balancing sebagai upaya untuk memberikan peningkatan layanan terhadap sistem server pada penanganan request yang tinggi dan juga dalam hal menjaga ketersediaan layanan. Permasalahan web server yakni jika jumlah klien yang melakukan akses pada web server mengalami peningkatan dan server tersebut tidak mampu dalam menanganinya. Seringkali penyebabnya adalah kelebihan beban yang menyebabkan layanan yang ada menjadi bermasalah. Terdapat sejumlah situs telah mengalami ribuan koneksi dari klien secara bersamaan [18], [20]. Berdasarkan masalah tersebut, maka penelitian ini berfokus pada bagaimana memilih algoritma yang tepat dalam merancang sistem load balancing yang dapat meningkatkan layanan yang terhubung pada server sehingga dapat meringankan beban pada server, terutaman pada parameter-parameter penting dalam mendukung kinerja server. Oleh karena itu, parameter seperti throughput memerlukan penyelesaian dalam memberikan dukungan terhadap sistem server yang optimal. Melalui model cluster server dapat menangani kelebihan beban yang terkait dengan peningkatan lalu lintas. Sebuah cluster server adalah kumpulan dari beberapa server. Dengan menerapkan model server cluster, maka dapat meningkatkan ketersediaan aplikasi dan keandalan sistem [14], [15]. Load balancing mengatur serta meneruskan permintaan yang diterima ke seluruh backend server atau kumpulan komputer untuk mengoptimalkan sumberdaya, memperkecil waktu respons, meningkatkan throughput, dan mengurangi kemungkinan terjadinya kemacetan lalu lintas data. Cluster server ditujukan untuk memastikan ketersediaan dan meningkatkan kinerja sistem [16], [17]. Selain sebagai penyeimbang beban, load balancing juga berperan sebagai jalan dalam pengaturan lalu lintas data. Load balancing juga dapat digunakan untuk menilai keadaan aplikasi dan konten pada server, meningkatkan layanan yang tersedia dan menyederhanakan manajemen [18], [19]. Sehingga perlu adanya perbaikan layanan server melalui peningkatan nilai throughput dalam melayani pengguna.

2. METODOLOGI PENELITIAN

2.1 Tahapan Penelitian

Agar dalam proses penelitian dapat terlaksana sesuai dengan yang diinginkan, maka dibutuhkan penyusunan tahapan- tahapan penelitian. Tahapan penelitian berisi fase-fase dalam melaksanakan penelitian yang disusun secara terstruktur dan terencana untuk tercapainya tujuan penelitian [21]. Penelitian ini melakukan komparasi algoritma round-robin dan least-connection pada metode load balancing dalam upaya peningkatan layanan server dalam mengatasi banyaknya request ke server. Gambar 1 berikut ini adalah alur dari tahapan penelitian yang diterapkan.

Gambar 1. Alur Penelitian

Pada Gambar 1 menyajikan alur tahapan penelitian yang harus dilalui saat melakukan penelitian. Teknik uji yang akan dijalankan menggunakan pendekatan load balancing dalam pendistribusian koneksi yang terhubung ke setiap server

(3)

web dan menguji kondisi ketika digunakan algoritma round-robin serta algoritma least-connection pada load balancing dalam melihat kinerjanya. Pada tahap awal penelitian, terlebih dahulu dilakukan studi literatur. Langkah selanjutnya adalah membuat web server. Setelah server web dibuat, lanjutkan untuk membuat server penyeimbang beban. Saat Anda mengukur kinerjanya, server web secara bertahap diberikan lebih banyak koneksi. Koneksi dirutekan ke server tunggal atau kumpulan server web yang terintegrasi ke dalam load balancing server. Langkah selanjutnya adalah menentukan evaluasi dari teknik load balancing yang dibuat dengan menerapkan sejumlah uji skenario. Hasil yang didapat selanjutnya akan dievaluasi untuk melihat dampak dari penggunaan algoritma round-robin dan juga least-connection pada load balancing dalam hal kinerja server.

2.2 Load balancing

Load balancing dikenal sebagai suatu konsep metodologi dalam bidang networking yang bertujuan dalam pendistribusian beban koneksi ke sejumlah komputer maupun kluster komputer sehingga dapat memanfaatkan sumber daya lebih maksimal, meningkatkan throughput, memperkecil waktu tanggap, serta terhindar dari beban server yang berlebih.

Kluster server terhimpun dari sejumlah perangkat PC yang saling terkoneksi untuk melakukan pekerjaan tertentu. Maka dari itu, kluster komputer dinilai sebagai sebuah jaringan yang memiliki beragam aspek Selain itu, kluster komputer ini umumnya dipergunakan sebagai peningkatan performa serta ketersediaan data yang terhimpun dari sejumlah komputer [14][22]. Untuk itu, pada kluster komputer membutuhkan load balancing untuk dapat menyelesaikan beberapa fungsi diantaranya: penyeimbang beban, pengaturan traffic serta peralihan menggunakan smart traffic. Load balancing juga berfungsi untuk mengetahui kondisi kesehatan dari server sehingga dapat mengoptimalkan tersedianya layanan dan pengelolaan server tersebut. Untuk menerapkan pendekatan load balancing terdapat banyak metode ataupun algoritma yang dapat diimplementasikan dalam meningkatkan kinerjanya seperti algoritma round-robin dan least-connection.

Untuk menguji load balancing dibutuhkan software tertentu, sehingga pada penelitian ini digunakan software httperf untuk pengujian agar memperoleh nilai throughput.

Metode load balancing dapat dibangun menggunakan perangkat lunak HAProxy. Selain itu Haproxy juga dapat mengalihkan kegagalan proses ke node lain yang disediakan pada suatu kluster komputer. HAProxy berjalan menggunakan operating system Linux serta berlisensi secara open source sehingga software tersebut bisa digunakan dengan bebas serta para developer dapat mengembangkannya [20]. Proses implementasi pada load balancing, sebuah server load balancer memerlukan suatu pendekatan tertentu dalam memproses distribusinya dengan model penjadwalan.

Terdapat 8 algoritma penjadwalan yang dapat diimplementasikan untuk mengkonfirgurasi HAProxy, diantaranya: Round- robin, Header Name, Static Round-robin, Source, URI (Uniform Resource Identifier), Least-connection, URL_parameter, dan RDP Cookie. Pada penelitian ini akan digunakan algoritma scheduling untuk HAProxy yaitu algoritma round-robin dan least connection.

2.1.1 Algoritma Round-Robin

Algoritma ini bekerja dengan cara mendistribusikan koneksi yang masuk secara merata kepada setiap kelompok backend sever yang sebenarnya. Round-robin menjalankan prosesnya melalui seluruh node server yang dibutuhkan yang selaras disesuaikan dengan penetapan beban oleh tiap-tiap server. Konsep utama dari algoritma ini yaitu melalui penggunaan time sharing, yang fokusnya adalah memberikan proses antrian dengan cara bergantian [23]. Gambar 2 berikut ini menunjukkan proses algoritma round-robin.

Gambar 2. Proses Kerja Algoritma Round-Robin

(4)

Pada algoritma Round-robin tidak memberikan izin untuk mengalihkan beban secara dinamis karena semuanya sudah ditentukan secara statik di awal [13]. Tidak terdapat pembatasan terhadap jumlah server yang aktif yang diposisikan sebagai backend.

2.1.2 Algoritma Least-Connection

Cara kerja dari algoritma least-connection adalah melalui distribusi yang lebih banyak pada request ke server yang memiliki koneksi aktif yang paling sedikit, tidak hanya itu pada algoritma ini seluruh server backend dianggap mempunya kinerja komputasi yang sama [14]. Pada intinya algoritma least-connection bekerja dengan membagi beban yang didasari dengan jumlah koneksi yang terlayani oleh suatu server. Proses algoritma least-connection dapat dilihat pada Gambar 3.

Gambar 3. Proses Kerja Algoritma Least-Connection

Algoritma Least-connection sangat sesuai jika diterapkan pada kluster yang memiliki kondisi yang dinamis dengan session yang sering mengalami perubahan [23].

2.1.3 Throughput

Throughput mendeskripsikan kinerja yang berhubungan dengan besaran data yang mampu terampaikan oleh server melalui jaringan komputer pada satuan waktu. Apabila data yang dapat dikirimkan semakin besar maka kinerja sistem semakin bagus. Pada penelitian yang dilakukan throughput berfungsi sebagai acuan untuk melihat bandwidth secara aktual maupun banyaknya bit yang dapat tertransmisi pada satuan waktu bps atau byte per second [14].

2.2 Skenario Pengujian Load balancing

Terdapat beberapa skenario pada pengujian algoritma pada load balancing. Skenario pengujian ini dijalankan melalui setiap algoritma yang akan di komparasi. Skenario yang dilakukan untuk menguji kinerja load balancing dengan algoritma round-robin serta algoritma least-connection. Pengujian dilakukan dengan membuat sejumlah koneksi secara bertahap yaitu 1000/500, 1200/600, 1400/700, 1600/800 dan 1800/900. Koneksi bertahap tersebut dilakukan untuk mendapatkan nilai throughput.

3. HASIL DAN PEMBAHASAN

Pengujian server load balancing dimaksudkan untuk mendapatkan kinerja sistem server ketika memperoleh peningkatan permintaan masuk dari klien dalam jangka waktu tertentu. Parameter yang diukur pada proses pengujian adalah parameter throughput. Pengukuran parameter throughput ini dilakukan dengan membandingkan dua algoritma penjadwalan. Saat membangun sistem load balancing, mesin virtual digunakan di komputer induk untuk mengembangkan infrastruktur server. Terdapat dua model untuk evaluasi yang digunakan dalam penelitian ini. Model pertama adalah server load balancing dengan algoritma round-robin. Model yang kedua adalah server load balancing menggunakan algoritma least- connection. Model arsitektur jaringan pada penelitian ini terdiri dari server load balancing dan dua server aplikasi web.

Request yang masuk dari klien tidak diproses oleh satu server, namun akan di distribusikan ke kumpulan server yang terletak di backend. Untuk arsitektur jaringan yang diterapkan dapat dilihat pada Gambar 4.

(5)

Gambar 4. Model Arsitektur Jaringan

Pada Gambar 4 menampilkan arsitektur yang terbentuk dari load balancing, server Aplikasi-Web1, server Aplikasi-Web2, dan komputer penguji yang saling terkoneksi. Tabel 1 merupakan penamaan dari perangkat dan alamat IP yang digunakan.

Tabel 1. Perangkat dan Alamat IP Nama Perangkat Alamat IP Komputer Penguji 192.168.109.182

Aplikasi-Web1 192.168.109.179

Aplikasi-Web2 192.168.109.178

Server Load balancing 192.168.109.184

Pada Tabel 1 menunjukkan konfigurasi pengalamatan IP yang diinstal pada setiap perangkat. Untuk alamat IP server load-balancing diatur dengan nilai 192.168.109.184. Server load balancing berfungsi sebagai distribusi layanan yang diakses dari klien ke server aplikasi web. Apabila klien melakukan akses ke server web untuk memperoleh layanan, maka klien dengan otomatis menuju ke server penyeimbang beban. Permintaan tersebut kemudian diteruskan ke setiap server web di belakang server penyeimbang beban. Oleh karena itu, dalam skenario yang dilakukan klien tidak dapat mengenali server web mana yang memiliki tanggung jawab untuk memproses request yang diterima. Permintaan layanan yang diterima kemudian dilanjutkan dari server penyeimbang beban ke server aplikasi web yang terletak di backend.

Pengujian yang dilakukan dalam penelitian ini meliputi pengamatan terhadap nilai throughput yang dapat diukur. Hal ini bertujuan agar dapat memperkirakan kinerja layanan yang ditawarkan oleh web server ketika server load balancing diimplementasikan. Untuk membangkitkan koneksi, klien menggunakan software httperf untuk memperoleh nilai throughput.

Untuk pengujian pengujian server load balancing menggunakan algoritma round-robin dengan least-connection menggunakan aplikasi httperf. Pengujian dilakukan dengan beberapa scenario. Skenario pertama dimulai dengan membuat koneksi 1000 permintaan pada 500 koneksi / detik. Kemudian scenario kedua dengan 1200 permintaan pada 600 koneksi / detik. Untuk scenario ketiga menggunakan 1400 permintaan pada 700 koneksi / detik. Selanjutnya, scenario keempat menggunakan 1600 request pada 800 koneksi/detik, dan scenario terakhir dengan 1800 request pada 900 koneksi/detik, yang secara bertahap diarahkan ke pada aplikasi web server. Skenario pengujian tersebut berlaku sama untuk kedua algoritma tersebut yakni algoritma round-robin dan least-connection. Pada Tabel 2 kemudian diikuti Tabel 3 di bawah ini merupakan hasil pengujian throughput untuk algoritma round-robin dan least-connection.

Tabel 2. Hasil pengujian throughput (kbs) dengan Algoritma Round-robin

No Respontime (ms) dengan Algoritma Round-robin

Jumlah Koneksi U1 U2 U3 U4 U-5 Hasil Rata-rata Pengujian

1 1000/500 5765.9 5768.7 5766.3 5767.4 5758.6 5765.38

2 1200/600 6917.7 6923.4 6922.4 6919.3 6923 6921.16

3 1400/700 8061.5 8065.2 8070.8 8071.2 8068.1 8067.36

4 1600/800 9218.6 9215.3 9227.7 9197.1 9226.5 9217.04

5 1800/900 10378 10375 10375.7 10310 10370 10361.74

Tabel 3. Hasil pengujian throughput (kbs) Algoritma Least-connection

No Respontime (ms) dengan Algoritma Least-connection

Jumlah Koneksi U1 U2 U3 U4 U5 Hasil Rata-rata Pengujian

1 1000/500 5766.9 5769.9 5768.6 5765.7 5762.4 5766.7

(6)

2 1200/600 6915.2 6907.5 6918.1 6901 6897.9 6907.94

3 1400/700 8070 8074.7 8069.5 8071.6 8074.4 8072.04

4 1600/800 9221.1 9198.4 9215.1 9192.7 9235.7 9212.6

5 1800/900 10373.4 10340 10348.6 10347.8 10239.8 10329.92

Pada Tabel 2 dan Tabel 3 memberikan penjelasan tentang hasil uji server load balancing menggunakan algoritma round-robin dan least-connection melalui software httperf. Permintaan koneksi dari klien ke server web dijalankan secara tahap demi tahap. Skenario pertama diawali dengan melakukan koneksi 1000 permintaan pada 500 koneksi / detik.

Kemudian lanjutkan dengan 1200 permintaan pada 600 koneksi / detik. Melanjutkan 1400 permintaan pada 700 koneksi / detik. Disusul 1600 request pada 800 koneksi/detik, dan terakhir 1800 request pada 900 koneksi/detik, yang secara bertahap diarahkan ke pada aplikasi web server. Hasil pengujian akan berbeda untuk setiap skenario pengujian. Kondisi ini terjadi karena durasi setiap skenario pengujian yang panjang. Ini menciptakan antrian yang tidak sama antara skenario satu dengan yang lainnya pada masing-masing permintaan yang terproses. Fenomena ini akan berdampak pada nilai throughput yang dihasilkan. Nilai throughput meningkat seiring dengan meningkatnya permintaan akan layanan dari web server. Berdasarkan nilai throughput yang diperoleh dari hasil pengujian, dapat diketahui kinerja load balancing dengan membandingkan kedua algoritma tersebut. Untuk memudahkan dalam membaca hasil perbandingan kedua algoritma tersebut maka hasil rata-rata pengujian throughput untuk algoritma round-robin dan least-connection dapat dilihat pada Tabel 4.

Tabel 4. Hasil rata-rata pengujian throughput (kbs) Server pada kedua arsitektur

Jumlah Koneksi Throughput (kbs)

Algoritma Round-robin Algoritma Least-connection

1000/500 5765.4 5766.7

1200/600 6921.2 6907.9

1400/700 8067.4 8072

1600/800 9217 9212.6

1800/900 10362 10330

Pada Tabel 4, dapat dilihat bahwa nilai rata-rata pengujian model arsitektur load balancing dengan algoritma round-robin dan least-connection algoritma round-robin menghasilkan nilai throughput yang lebih besar untuk jumlah koneksi yang meningkat dibandingkan algoritma least-connection. Untuk lebih jelasnya komparasi algoritma round-robin dan least-connection dari apa yang telah dihasilkan pada Tabel 4 dibuat dalam bentuk grafik untuk melihat hasil perbandingan dari kedua algoritma tersebut yang disajikan pada Gambar 5 berikut ini.

Gambar 5. Hasil nilai throughput dari algoritma round-robin dengan least-connection

Pada Gambar 5. merupakan grafik komparasi antara algoritma round-robin dan least-connection. Kondisi ini dapat dilihat dari hasil pengujian berdasarkan nilai throughput yang didapatkan. Hasil uji tersebut menunjukkan bahwa penerapan load balancing dengan algoritma round-robin menghasilkan nilai throughput yang lebih besar untuk jumlah koneksi yang meningkat dibandingkan algoritma least-connection. Tes dijalankan pada rentang dan waktu koneksi yang berbeda. Dalam pengujian koneksi dengan nilai permintaan 500 koneksi/detik untuk 1000 permintaan, 600 koneksi/detik untuk 1200 permintaan, load balancing dengan algoritma least-connection terlihat sedikit lebih baik. Kondisi ini disebabkan oleh distribusi berdasarkan koneksi aktif yang masih dapat ditangani oleh masing-masing server. Namun, selama periode pengujian 700 koneksi/detik untuk 1400 permintaan, 800 koneksi/detik untuk 1600 permintaan, dan 900 koneksi/detik untuk 1800 permintaan terdapat perubahan pada kemampuan dalam memberikan respon terhadap permintaan yang masuk. Pada load balancing dengan algoritma round-robin memiliki waktu respon yang lebih besar dibandingkan dengan load balancing dengan algoritma least-connection. Hal ini terjadi karena server akan menerima tugas secara merata pada setiap server backend, sehingga ada efisiensi yang terjadi.

1000/500 1200/600 1400/700 1600/800 1800/900 Round-Robin 5765,38 6921,16 8067,36 9217,04 10361,74 Least-Connection 5766,7 6907,94 8072,04 9212,6 10329,92

0 2000 4000 6000 8000 10000 12000

Throughput (KB/s)

Throughput

(7)

4. KESIMPULAN

Penelitian melakukan analisis perbandingan untuk mengetahui dampak implementasi algoritma round-robin dengan algoritma least-connection dalam metode load balancing pada sistem server yang bertugas memberikan distribusi request ke tiap-tiap web server. Hasil uji koneksi dengan nilai permintaan 500 koneksi/detik untuk 1000 permintaan, 600 koneksi/detik untuk 1200 permintaan, load balancing dengan algoritma least-connection ini terlihat sedikit lebih baik.

Kondisi ini disebabkan oleh distribusi koneksi aktif yang masih dapat ditangani oleh masing-masing server. Namun, selama periode pengujian 700 koneksi/detik untuk 1400 permintaan, 800 koneksi/detik untuk 1600 permintaan, dan 900 koneksi/detik untuk 1800 permintaan terdapat perubahan pada kemampuan dalam memberikan respon terhadap permintaan yang masuk. Hal ini tentunya berdampak signifikan terhadap throughput yang diberikan server saat memproses sebuah request. Untuk penyelidikan di masa mendatang, server penyeimbang beban harus dicadangkan dengan jumlah server yang ditambah. Model ini dapat digunakan untuk mendukung toleransi kesalahan yang diperlukan agar dapat memberikan peningkatan dalam penyediaan layanan yang optimal pada sistem server.

REFERENCES

[1] P. Singh, P. Baaga, and S. Gupta, “Assorted Load Balancing Algorithms in Cloud Computing: A Survey,” Int. J. Comput. Appl., vol. 143, no. 7, pp. 34–40, 2016, doi: 10.5120/ijca2016910258.

[2] S. D. Riskiono and D. Pasha, “Analisis Metode Load Balancing Dalam Meningkatkan Kinerja Website E-Learning,” J.

Teknoinfo, vol. 14, no. 1, p. 22, 2020, doi: 10.33365/jti.v14i1.466.

[3] N. Angsar, “Pengujian Distribusi Beban Web dengan Algoritma Least Connection dan Weighted Least Connection,” Jnteti, vol.

3, no. 1, pp. 24–28, 2014.

[4] S. Suresh and S. Sakthivel, “A novel performance constrained power management framework for cloud computing using an adaptive node scaling approach,” Comput. Electr. Eng., vol. 60, pp. 30–44, 2017, doi: 10.1016/j.compeleceng.2017.04.018.

[5] Y. Afrianto and A. H. Hendrawan, “Implementasi Data Center Untuk Penempatan Host Server Berbasis Private Cloud Computing,” Krea-Tif, vol. 7, no. 1, p. 50, 2019, doi: 10.32832/kreatif.v7i1.2031.

[6] D. E. Kurniawan, M. Iqbal, J. Friadi, R. I. Borman, and R. Rinaldi, “Smart Monitoring Temperature and Humidity of the Room Server Using Raspberry Pi and Whatsapp Notifications,” J. Phys. Conf. Ser., vol. 1351, no. 1, 2019, doi: 10.1088/1742- 6596/1351/1/012006.

[7] M. Akbar, Q. Quraysh, and R. I. Borman, “Otomatisasi Pemupukan Sayuran Pada Bidang Hortikultura Berbasis Mikrokontroler Arduino,” J. Tek. dan Sist. Komput., vol. 2, no. 2, pp. 15–28, 2021.

[8] I. Ahmad, E. Suwarni, R. I. Borman, A. Asmawati, F. Rossi, and Y. Jusman, “Implementation of RESTful API Web Services Architecture in Takeaway Application Development,” in International Conference on Electronic and Electrical Engineering and Intelligent System (ICE3IS), 2022, pp. 132–137.

[9] H. Ren, Y. Lan, and C. Yin, “The load balancing algorithm in cloud computing environment,” Proc. 2nd Int. Conf. Comput. Sci.

Netw. Technol. ICCSNT 2012, pp. 925–928, 2012, doi: 10.1109/ICCSNT.2012.6526078.

[10] D. Lukitasari, F. Oklilas, F. I. Komputer, and U. Sriwijaya, “Analisis Perbandingan Load Balancing Web Server Tunggal Dengan Web server Cluster Menggunakan Linux Virtual Server,” vol. 5, no. 2, pp. 31–34, 2010.

[11] S. D. Riskiono and D. Darwis, “Peran Load Balancing Dalam Meningkatkan Kinerja Web Server Di Lingkungan Cloud,” Krea- TIF, vol. 8, no. 2, p. 1, 2020, doi: 10.32832/kreatif.v8i2.3503.

[12] S. D. Riskiono and D. Pasha, “Analisis Perbandingan Server Load Balancing dengan Haproxy & Nginx dalam Mendukung Kinerja Server E- Learning,” J. Telekomun. dan Komput., vol. 10, no. 3, p. 135, 2020, doi: 10.22441/incomtech.v10i3.8751.

[13] G. Triono, “Implementasi Load Balancing Dengan Menggunakan Algoritma Round Robin Pada Kasus Pendaftaran Siswa Baru Sekolah Menengah Pertama Labschool Unesa Surabaya,” pp. 169–176, 2015.

[14] S. D. Riskiono, S. Sulistyo, and T. B. Adji, “Kinerja Metode Load Balancing dan Fault Tolerance Pada Server Aplikasi Chat,”

Pros. Semin. Nas. ReTII, 2017.

[15] S. D. Riskiono, “Implementasi Metode Load Balancing Dalam Mendukung Sistem Kluster Server,” pp. 455–460, 2018, doi:

10.31227/osf.io/9vuzx.

[16] U. Haluoleo, K. Bumi, and T. Anduonohu, “Peningkatan Kinerja Siakad Menggunakan Metode Load Balancing dan Fault Tolerance Di Jaringan Kampus Universitas Halu Oleo,” vol. 10, no. 1, pp. 11–22, 2016.

[17] S. K. Mishra, B. Sahoo, and P. P. Parida, “Load balancing in cloud computing: A big picture,” J. King Saud Univ. - Comput. Inf.

Sci., 2018, doi: 10.1016/j.jksuci.2018.01.003.

[18] D. Aribowo, “Cluster Server IPTV dengan Penjadwalan Algoritma Round Robin,” vol. 1, no. 2, pp. 1–5, 2012.

[19] D. V Jose, P. C. Lakshmi, G. Priyadarshini, and M. Singh, “International Journal of Advanced Research in Computer Science and Software Engineering,” Int. J., vol. 5, no. 1, pp. 811–814, 2015, [Online]. Available:

http://www.ijarcsse.com/docs/papers/Volume_5/1_January2015/V5I1-0464.pdf.

[20] S. D. Riskiono, S. Sulistyo, and T. B. Adji, “EVALUASI METODE LOAD BALANCING MENGGUNAKAN HAPROXY SERVER CHAT SOCIAL NETWORK,” pp. 635–639, 2016.

[21] R. Napianto, Y. Rahmanto, R. I. Borman, O. Lestari, and N. Nugroho, “Dhempster-Shafer Implementation in Overcoming Uncertainty in the Inference Engine for Diagnosing Oral Cavity Cancer,” CSRID (Computer Sci. Res. Its Dev. Journal), vol. 13, no. 1, p. 45, 2021, doi: 10.22303/csrid.13.1.2021.46-54.

[22] Y. Gao, X. Li, and Y. Che, “New architecture and algorithm for webserver cluster based on linux virtual server,” Proc. - Int.

Symp. Inf. Process. ISIP 2008 Int. Pacific Work. Web Min. Web-Based Appl. WMWA 2008, pp. 520–524, 2008, doi:

10.1109/ISIP.2008.143.

[23] H. Triangga, I. Faisal, and I. Lubis, “Analisis Perbandingan Algoritma Static Round-Robin dengan Least-Connection Terhadap Efisiensi Load Balancing pada Load Balancer Haproxy,” InfoTekJar (Jurnal Nas. Inform. dan Teknol. Jaringan), vol. 4, no. 1, pp. 70–75, 2019, doi: 10.30743/infotekjar.v4i1.1688.

Referensi

Dokumen terkait

Penulisan penilitian ini dimaksudkan untuk membandingkan dua algoritma penjadwalan CPU yang berdasarkan pada algoritma penjadwalan CPU round robin, yaitu A New Improved Round

Pada pengujian download, didapat bahwa algoritme Least connection untuk load balancing pada Software Defined Network dengan menggunakan metode Agen Psutils dapat

Penulisan penilitian ini dimaksudkan untuk membandingkan dua algoritma penjadwalan CPU yang berdasarkan pada algoritma penjadwalan CPU round robin, yaitu A New Improved Round

Implementasi load balancing server dengan metode direct routing menggunakan algoritma weighted round robin 2 banding 3 pada pengujian 7500 request dan 10000

Implementasi load balancing pada local traffic dengan menggunakan algoritma round robin memberikan dampak yang cukup signifikan pada performansi jaringan,

1. OPNET Modeler dapat melakukan pemodelan dan simulasi jaringan load balancing, sehingga dapat dihasilkan data perbandingan kinerja dari berbagai algoritma load

Performansi cluster server IPTV berbasis load balancing pada penelitian ini diperoleh algoritma penjadwalan rr sebagai alternatif untuk melakukan unjuk kerja yang

Dapat mengetahui hasil kinerja load balancing dari algoritma round robin yang menggunakan POX controller melalui parameter yaitu throughput, CPU usage, dan response time.. Beban server