• Tidak ada hasil yang ditemukan

DESAIN DAN IMPLEMENTASI SISTEM

3.5 Pembuatan Controller Node

3.5.3 Nova (Compute) pada Controller

auth_uri = http://controller:5000/v2.0 identity_uri = http://controller:35357 admin_tenant_name = service admin_user = glance admin_password = GLANCE_PASS [paste_deploy] flavor = keystone

Kode 3.2: Hubungan antara database, keystone dan glance

3.5.3 Nova (Compute) pada Controller

Nova ataucompute servicemerupakan bagian utama dari IaaS (Infrastructure as a Service) sistem yang bertugas sebagaihost dan sistem manajemen pada komputasi awan. Nova yang terhubung langsung dengan keystone untuk autentikasi, glance untuk image dari sistem operasi dan dashboard merupakan tempat untuk inte-raksi antara pengguna dengan layanan dan konfigurasinya. Bagian utama dari nova terdiri dari tiga bagian di antaranya API, Com-pute Core, dan Networking VMs. Setiap bagian dari nova terdiri dari beberapa perangkat lunak dasar demi berjalannya nova. Nova yang terpasang pada controller node bertugas sebagai pengontrol dari nova yang terpasang pada setiap compute node. Berikut me-rupakan penjelasan setiap bagian perangkat lunak pendukung nova padacontroller node :

API (Application Programming interface)

Pada Gambar 3.4 terlihat API dari nova terhubung dengan glance untuk mengakses dan berkoordinasi perihal image. Di si-ni terjalin hubungan antara horizon (dashboard) dengan nova agar layanan OpenStack dapat diakses melalui browser. API dari nova terletak padacontroller node. Berikut merupakan penjelasan pera-ngakat lunak pendukung API pada nova :

1. Nova-apiberfungsi untuk menerima dan merespon panggilan dari pengguna compute API.

meta-data dari instances. Nova-api-metameta-data biasanya digunakan dalam penggunaan compute node dalam jumlah banyak.

Compute Core

Tugas utama dari compute core adalah meyediakan layanan komputasi atau instance yang berupa mesin virtual. Jumlah dari compute core dapat terus ditambah secara horizontal sesuai kebu-tuhan komputasi. Berikut ini adalah perangkat lunak pendukung compute core :

1. nova-scheduler adalah penerima permintaan instance atau mesin virtual dari queue, kemudian menentukan compute no-de mana yang akan menjalankannya.

2. nova-conductor merupakan sebuah perangkat lunak peng-hubung antara nova-compute dan database.

Sama seperti pada glance, hal pertama yang dilakukan da-lam pemasangan nova adalah pemasangan layanan pendukung dan dilanjutkan pembuatan database. Kemudian dilanjutkan dengan pendaftarkan nova sebagai layanan pada keystone, tentukan ju-ga role, tenant dan endpoint. File penting yang menghubungkan database, keystone, glance dan nova terdapat pada /etc/nova/ nova.confseperti yang dituliskan dalam Kode 3.3.

[DEFAULT] ... verbose = True rpc_backend = rabbit rabbit_host = controller rabbit_password = RABBIT_PASS my_ip = 192.168.100.11 vncserver_listen = 192.168.100.11 vncserver_proxyclient_address = 192.168.100.11 network_api_class = nova.network.api.API security_group_api = nova compute_driver = libvirt.LibvirtDriver [database] ... connection = mysql://nova:NOVADB_PASS@controller/nova [glance] ...

host = controller [keystone_authtoken] ... auth_uri = http://controller:5000/v2.0 identity_uri = http://controller:35357 admin_tenant_name = service admin_user = nova admin_password = NOVA_PASS

Kode 3.3: Hubungan database, keystone, galance dan nova

3.5.4 Cinder (Block Storage Service)

Cinder bertugas untuk penyediaan penyimpanan tambahan untuk mesin virtual. Padablock storage servicehanya terdapat satu layanan, yaitu cinder ataublock storage service. Dalam layanan ter-sebut terdapat dua layanan pembangun, agar cinder dapat berjalan dan memberikan layanan berupa media penyimpanan. Kedua la-yanan pembangun tersebut adalah cinder-api, cinder-scheduller dan cinder-volume. Berikut merupakan penjelasan dari ketiga layanan pembangun tersebut :

1. cinder-apimenerima perintah dan mengarahkannya ke cinder-volume untuk proses eksekusi.

2. cinder-volumeberinteraksi langsung dengan cinder, dan pro-ses seperti cinder-scheduler. Propro-ses tersebut dilakukan mela-luimesage queque. Cinder-volume merespon untuk membaca dan menulis permintaan yang kemudian dikirim ke cinder un-tuk membuat penyimpanan sesuai dengan permintaan peng-guna. Cinder-volume dapat berinteraksi dengan berbagai ma-cam media penyimpanan dan berbagai mama-cam driver. 3. cinder-scheduler menerima perintah dan mengarahkannya

ke cinder-volume untuk proses eksekusi.

Pertama kali yang dilakukan pada proses pemasangan cinder padacontroller nodeadalah pemasangan layanan pembangun yang terdiri dari cinder-api, cinder-volume, cinder-scheduler dan dilan-jutkan pembuatan database untuk cinder. Kemudian dilanjutkan dengan pendaftarkan cinder sebagai layanan pada keystone,

tentuk-an jugarole,tenantdanendpoint. Filepenting yang menghubungk-an database, keystone dan cinder terdapat pada /etc/cinder/ cinder.confseperti yang dituliskan dalam Kode 3.4.

[DEFAULT] ... verbose = True debug = True rpc_backend = rabbit rabbit_host = controller rabbit_password = RABBIT_PASS auth_strategy = keystone my_ip = 192.168.100.11 glance_host = controller volume_driver = cinder.volume.drivers.nfs.NfsDriver nfs_mount_options = rsize=8192,wsize=8192,timeo=14,intr nfs_mount_point_base = /var/lib/cinder/mnt nfs_oversub_ratio = 1.0 nfs_shares_config = /etc/cinder/nfs_share nfs_sparsed_volumes = False nfs_used_ratio = 0.95 [database] ... connection = mysql://cinder:CINDERDB_PASS@controller/ cinder [keystone_authtoken] ... auth_uri = http://controller:5000/v2.0 identity_uri = http://controller:35357 admin_tenant_name = service admin_user = cinder admin_password = CINDER_PASS

Kode 3.4: Hubungan antara database, keystone, dan cinder Pada Kode 3.4 selain adanya hubungan antaradatabase, keys-tone dan cinder. Terdapat juga hubungan antara controller dengan storage node, dimana controller terpasang cinder sedangkanstorage node yang terdiri dari NAS1 dan NAS2 yang menyediakan layanan NFS (Network File System).

Hubungan anatarastorage nodedancontroller nodepadanfs shares config = /etc/cinder/nfs share, dimana

contro-ller dapat melakukan mount (penambahan penyimpanan) secara otomatis dengan membaca isifileyang terletak pada direktori/etc /cinder/nfs share. Isi dari file tersebut adalah alamat server dari NFS (192.168.100.1:/Cinder). Akses ke NFS server di-lakukan melalui alamat 192.168.100.1 milik NAS1. Hal tersebut karenakan penggunaan ISCSI yang menggabungkan penyimpanan milik NAS2 ke NAS1 melalui jaringan manajemen.

Padavolume driver = cinder.volume.drivers.nfs. NfsDrivermenunjukan driver penyimpanan yang digunakan oleh cinder, seperti pada pembahasan sebelumnya bahwa jenis penyim-panan yang digunakan adalah NFS. Kemudian pada nfs mount point base = /var/lib/cinder/mnt dapat diartikan bahwa pada direktori /var/lib/cinder/mnt adalah tempat penyim-panan yang ditambahkan oleh NFS. Selanjutnya padanfs mount options = rsize=8192,wsize=8192,timeo=14,intr kon-figurasi yang menentukan permission dari direktori yang ditam-bahkan oleh NFS, apakah read, writedanexecute.

Dokumen terkait