• Tidak ada hasil yang ditemukan

Pemrosesan Paralel. Contoh aplikasi di atas melibatkan komputasi intensif dan memerlukan daya olah yang tinggi. Performance: Weather Prediction

N/A
N/A
Protected

Academic year: 2021

Membagikan "Pemrosesan Paralel. Contoh aplikasi di atas melibatkan komputasi intensif dan memerlukan daya olah yang tinggi. Performance: Weather Prediction"

Copied!
9
0
0

Teks penuh

(1)

Pemrosesan Paralel

Kudang B. Seminar

Kebutuhan Komputer Berkinerja Tinggi

Peramalan cuaca

Aerodinamik

Kercerdasan buatan: robotik

Rekayasa genetik

Contoh aplikasi di atas melibatkan

komputasi intensif dan memerlukan

daya olah yang tinggi

Example 1: Weather Prediction

Area, segments

– 3000*3000*11 cubic miles

– .1*.1*.1 cubic mile: ~ 10

11

segments

Two day prediction

– half hour periods: ~ 100 periods

Computation per segment

– Temp, Pressure, Humidity, Wind speed, Wind

direction

– Assume ~ 100 FLOPs

Performance: Weather Prediction

Computational requirement: 10

15

Serial supercomputer: 10

9

instr/sec

Total serial time: 10

6

sec =

280

hours

Not too good for

48

hour weather

(2)

Parallel Weather Prediction

1 K workstations, grid connected

– 10

8

segment computations per processor

– 10

8

instructions per second

– 100 instructions per segment computation

– 100 time steps: 10

4

seconds =

~3 hours

Much more acceptable

– Assumption:

Communication not a problem here

More workstations:

– finer grid

– better accuracy

Other Challenging Applications

Satellite data acquisition: billions of bits / sec

Satellite data processing

– Pollution levels, Remote sensing of materials

– Image recognition

Discrete optimization problems

– Planning, Scheduling, VLSI design

Material modeling

Nuclear weapons modeling (ASCI)

Airplane/Satellite/Vehicle design

Application Specific Architectures

Mapping an algorithm directly onto hardware

– ASICs: Application Specific Integrated Circuits

– Levels of ‘specificity’

Full custom ASICs

Standard cell ASICs

Field programmable gate arrays

– Computational models

Dataflow graphs

Systolic arrays

– Orders of magnitude better performance

– Orders of magnitude lower power

ASICS cont’

How much faster than General purpose?

– Example: 1D 1024 FFT

General purpose machine (G4): 25 micro secs

ASIC device (MIT Lincoln Labs): 32 nano secs

ASIC device uses 20 milliwatts (100 * less power)

Future designs:

– 2 tera ops in small ( < cubic ft ) device

– Target applications

FFT

Finite Impulse Response (FIR) Filters

Matrix multiply

(3)

Contoh Nyata

Peramalan cuaca 24 jam di UK melibatkan sekitar 1012 operasi untuk dieksekusi. Ini memerlukan waktu 2.7 hours pada mesin Cray-1 (berkemampuan 108 operasi per detik).

Berapa

operasi untuk peramalan mingguan, bulanan,

tahunan?

Menurut Einstein kecepatan cahaya: 3 x 108 m/dt. Dua

peralatan elektronik yang masing-masing mampu melakukan 1012 operasi/detik dan terpisah dengan jarak 0.5 mm. Dalam

hal ini akan lebih lama waktu yang diperlukan bagi sinyal melakukan perjalanan antar dua peralatan tersebut daripada waktu yang diperlukan untuk melakukan eksekusi operasi (10 -12 detik) oleh salah satu peralatan elektronik tersebut.

Jadi

faktor pembatasnya adalah kecepatan cahaya.

SOLUSI

:

mendayagunakan paralelisme

Motivation of Parallel Computing

Parallel Computing is cost effective

– Off the shelf, commodity processors are very fast

– Memory is very cheap

– Building a processor that is a small factor faster costs

an order of magnitude more

– NoW is the time!

Cheapest way to get more performance: multiprocessor

NoW: Networks of workstations

Workstation can be an SMP

SMP: Symmetric Multi Processor

– Shared memory – Bus

Wile E. Coyote’s Parallel Computer

Get a lot of the fastest processors

Get a lot of memory per processor

Get the fastest network

Hook it all together

And then what ???

Now you need to program it!

Parallel programming introduces:

– Task partitioning, task scheduling

– Data partitioning

– Synchronization

– Load balancing

– Latency issues

hiding

tolerance

(4)

Speedup

Ideal: n processors  n fold speed up

– Ideal not always possible.

WHY?

– Tasks are data dependent

– Not all processors are always busy

– Remote data

Super linear speedup: >n speedup

– Nonsense! Because we can execute the faster

parallel program sequentially

– No nonsense!! Because parallel computers do not just

have more processors, they have more caches

Pemrosesan Sekuensial & Paralel

3 x lebih cepat dari

5/30/2013 15

The Design of Supervisory Control

System for Greenhouses

USER U S E R I N T E R F A C E USER’S PREFERENCE SELECTION

MODULE Modes of

control Parameters of control Optimality Criteria

Control Knowledge

Supervisory Control Engine

Crop Knowledge Climatic Knowledge I/O Knowledge Greenhouse Controllers Greenhouses Greenhouse Controllers Greenhouse Controllers Array of Controllers SUPERVISORY SYSTEM

(5)

30/05/2013

Dies Natalis IPB 2001 17

Pengaturan

PH Tanaman

Hidroponik

Potted flower Relay WTB Selenoid valve Selenoid valve Base Acid Marriot tubes pH meter Storage tank Pump 30/05/2013 Dies Natalis IPB 2001 18

Copyright 1996-98 © Dale Carnegie & Associates, Inc.

Produksi Tanaman Hidroponik

Uji dan Aplikasi

Moh. Khawarizmie Alim F14101030

Komputasi Paralel

dengan Jaringan Saraf Probabilistik

pada Proses Klasifikasi Mutu Tomat

Departemen Teknik Pertanian Fakultas Teknologi Pertanian Institut Pertanian Bogor

pembimbing: Prof.DR. Ir. Kudang B. Seminar, M.Sc Ir. Agus Buono, M.Si, M.Kom

Ruang Sidang TEP – Selasa, 24 Januari 2006

• Tomat memiliki nilai ekonomi yang tinggi

• Tomat bermutu tinggi  penanganan pasca panen baik • Sortasi  titik kritis penanganan pasca panen • Produksi skala besar  sortasi dengan mesin • Sortasi dengan mesin  A.I.  teknik klasifikasi objek • Pengembangan  1 prosesor  mencapai akurasi tinggi • Akan tercapai titik maksimal  akurasi sangat tinggi,

dalam waktu tertentu • Pengembangan selanjutnya  lebih dari 1 prosesor • Penerapan komputasi paralel  waktu lebih singkat Tomat

Klasifikasi

Komputasi Paralel

(6)

Menguji kinerja program komputasi paralel pada Jaringan Saraf Probabilistik (PNN) hasil penelitian Sukin (2004) yang diterapkan untuk proses klasifikasi mutu tomat

• Membandingkan akurasi klasifikasi dan waktu yang dibutuhkan antara proses klasifikasi dengan komputasi sekuensial dan proses klasifikasi dengan komputasi paralel

• Mengetahui besarnya peningkatan kecepatan dan peningkatan akurasi yang mungkin terjadi pada proses klasifikasi dengan komputasi paralel • Mengetahui keunggulan dan cara kerja metode PNN, Algoritma Genetik, dan komputasi paralel

Tujuan

Sortasi manual dengan mesin conveyor

Tinjauan Pustaka

Teknologi

Sortasi

• Bermula pada awal-awal industrialisasi

• Tenaga manusia tetap digunakan, dibantu dengan mesin conveyor

Sortasi dengan mesin skala kecil dan sedang

Tinjauan Pustaka

Teknologi

Sortasi

• Menggunakan mesin berukuran kecil dan sedang • Mesin melakukan sortasi dengan pengawasan manusia

Pemrosesan Paralel adalah penggunaan banyak prosesor yang saling bekerja sama satu sama lain untuk mencari suatu solusi tunggal dari suatu permasalahan [Pacifico, et.al. , 1998]

Tinjauan Pustaka

Pemrosesan

Paralel

• Mempercepat waktu eksekusi

• Mendistribusikan pencarian solusi dari permasalahan yang sangat kompleks

• Sesuai dengan penelitian sebelumnya, pemrosesan paralel pada penelitian ini dilakukan melalui metode pelemparan pesan dengan menggunakan pemrograman soket

(7)

Peningkatan Kecepatan

Tinjauan Pustaka

Pemrosesan

Paralel

• Peningkatan kecepatan menunjukkan seberapa cepat proses komputasi paralel dibandingkan dengan komputasi sekuensial

Sp : Peningkatan kecepatan

T1 : Waktu eksekusi dari algoritma sekuensial terbaik Tp : Waktu eksekusi dari algoritma paralel

p : Jumlah prosesor yang terlibat dalam komputasi paralel

• Peningkatan dari pemrosesan paralel tidak hanya bergantung pada banyaknya prosesor yang digunakan, akan tetapi lebih dipengaruhi oleh fraksi rasio antara intruksi sekuensial dengan keseluruhan intruksi pada suatu program [Hukum Amdahl]

Tp

T

Sp

1

Metodologi Penelitian

Kelas A Kelas B Kelas C

bobot pjng lebar bobot pjng lebar bobot pjng lebar

Ulangan 1 Ulangan 2 Ulangan 3 dst . . . .

• Ilustrasi Pola Pengambilan Data untuk Mode Pelatihan 1

Hasil dan Pembahasan

Akurasi Klasifikasi

• Sekuensial vs Paralel

• Pengaruh mode pelatihan • Pengaruh populasi AG

• Statistika deskriptif • Diagram plot kotak • Histogram • Pengamatan grafik • Pengamatan grafik • Statistika deskriptif

Hasil dan Pembahasan

Akurasi Klasifikasi

(8)

Hasil dan Pembahasan

Akurasi Klasifikasi

• Diagram plot kotak

Hasil dan Pembahasan

Akurasi Klasifikasi

• Histogram

Hasil dan Pembahasan

Akurasi Klasifikasi

• Pengaruh Mode Pelatihan

Hasil dan Pembahasan

Akurasi Klasifikasi

(9)

Hasil dan Pembahasan

Akurasi Klasifikasi

• Pengaruh Populasi AG

Pengaruh Populasi AG terhadap Akurasi Klasifikasi PNN untuk Data Pelatihan 10% 86.50 87.00 87.50 88.00 88.50 89.00 89.50 500 1000 Populasi AG Akura si Klasifik asi (%)

Komputasi SekuensialKomputasi Paralel

Pengaruh Populasi AG terhadap Akurasi Klasifikasi PNN untuk Data Pelatihan 20% 86.80 87.00 87.20 87.40 87.60 87.80 88.00 88.20 500 1000 Populasi AG Akura si Kla sifik asi (% )

Komputasi SekuensialKomputasi Paralel

Pengaruh Populasi AG terhadap Akurasi Klasifikasi PNN untuk Data Pelatihan 30% 87.70 87.75 87.80 87.85 87.90 87.95 88.00 88.05 500 1000 Populasi AG Akura si Kla sifik asi (% )

Komputasi SekuensialKomputasi Paralel

Pengaruh Populasi AG terhadap Akurasi Klasifikasi PNN untuk Data Pelatihan 60% 89.10 89.20 89.30 89.40 89.50 89.60 89.70 500 1000 Populasi AG Akura si K lasifikasi (% )

Komputasi SekuensialKomputasi Paralel

Pengaruh Populasi AG terhadap Akurasi Klasifikasi PNN untuk Data Pelatihan 50% 88.40 88.50 88.60 88.70 88.80 88.90 89.00 89.10 500 1000 Populasi AG Akura si K lasifikasi (% )

Komputasi SekuensialKomputasi Paralel

Pengaruh Populasi AG terhadap Akurasi Klasifikasi PNN untuk Data Pelatihan 60% 89.10 89.20 89.30 89.40 89.50 89.60 89.70 500 1000 Populasi AG Akura si K lasifikasi (% )

Komputasi SekuensialKomputasi Paralel

Pengaruh Populasi AG terhadap Akurasi Klasifikasi PNN untuk Data Pelatihan 80% 90.10 90.20 90.30 90.40 90.50 90.60 90.70 500 1000 Populasi AG Akura si K lasifikasi (% )

Komputasi SekuensialKomputasi Paralel

Pengaruh Populasi AG terhadap Akurasi Klasifikasi PNN untuk Data Pelatihan 80% 90.10 90.20 90.30 90.40 90.50 90.60 90.70 500 1000 Populasi AG Akura si Klasifik asi (% )

Komputasi SekuensialKomputasi Paralel

Pengaruh Populasi AG terhadap Akurasi Klasifikasi PNN untuk Data Pelatihan 90% 0.00 10.00 20.00 30.00 40.00 50.00 60.00 70.00 80.00 90.00 100.00 500 1000 Populasi AG Akurasi K lasifikasi (% )

Komputasi SekuensialKomputasi Paralel

Hasil dan Pembahasan

Akurasi Klasifikasi

• Pengaruh Populasi AG

Kesimpulan dan Saran

Kesimpulan (lanjutan)

• Rata-rata waktu total paling baik (paling rendah) terjadi pada populasi AG 500 individu sedangkan waktu total paling buruk (paling tinggi) terjadi pada populasi AG 1000 individu. Secara rata-rata akurasi klasifikasi pada populasi AG 1000 individu lebih baik daripada pada populasi AG 500 individu. • Efisiensi sistem paralel menunjukkan pemakaian setiap komputer untuk

proses klasifikasi adalah sebesar 64.43% dan sisanya terpakai untuk proses komunikasi dan sinkronisasi antar komputer.

Referensi

Dokumen terkait