• Tidak ada hasil yang ditemukan

BAB II TINJAUAN PUSTAKA

N/A
N/A
Protected

Academic year: 2021

Membagikan "BAB II TINJAUAN PUSTAKA"

Copied!
13
0
0

Teks penuh

(1)

BAB II

TINJAUAN PUSTAKA

2.1 Konsep Clustering dalam Data Mining

Konsep dasar data mining adalah menemukan informasi tersembunyi dalam sebuah

basis data dan merupakan bagian dari Knowledge Discovery in Databased (KDD)

untuk menemukan informasi dan pola yang berguna dalam data (Durham, 2003). Data mining mencari informasi baru, berharga dan berguna dalam sekumpulan data dengan melibatkan komputer dan manusia serta bersifat iteratif baik melalui proses yang

otomatis ataupun manual. Secara umum sifat data mining adalah:

a. Predictive: menghasilkan model berdasarkan sekumpulan data yang dapat

digunakan untuk memperkirakan nilai data yang lain. Metode yang termasuk dalam

prediktif data mining adalah:

- Klasifikasi: pembagian data ke dalam beberapa kelompok yang telah ditentukan

sebelumnya.

- Regresi: memetakan data ke suatu prediction variable.

- Time Series Analisys: pengamatan perubahan nilai atribut dari waktu ke waktu.

b. Descriptive: mengidentifikasi pola atau hubungan dalam data untuk menghasilakn

informasi baru. Metode yang termasuk dalam Descriptive Data Mining adalah:

- Clustering: identifikasi kategori untuk mendeskripsikan data.

- Association Rules: pemetaan data ke dalam subset dengan deskripsi sederhana.

- Sequence Discovery: identifikasi pola sekuensial dalam data.

Clustering membagi data menjadi kelompok-kelompok atau cluster berdasarkan

suatu kemiripan atribut-atribut diantara data tersebut (Durham, 2003). Karakteristik

tiap cluster tidak ditentukan sebelumnya, melainkan tercermin dari kemiripan data

yang terkelompok di dalamnya. Oleh sebab itu hasil clustering seringkali perlu

(2)

mengenai karakter domain data tersebut. Selain digunakan sebagai metode yang

independen dalam data mining, clustering juga digunakan dalam pra-pemrosesan data

sebelum data diolah dengan metode data mining yang lain untuk meingkatkan

pamahaman terhadap domain data.

Karakteristik terpenting dari hasil clustering yang baik adalah suatu instance

data dalam suatu cluster lebih “mirip” dengan instance lain di dalam clustering

tersebut daripada dengan instance di luar dari clustering itu. Ukuran kemiripan

(similarity measure) tersebut bisa bermacam-macam dan mempengaruhi perhitungan

dalam menentukan anggota suatu cluster. Jadi tipe data yang akan di-cluster

(kuantitatif atau kualitatis) juga menentukan ukuran apa yang tepat digunakan dalam

suatu algoritma. Selain kemiripan antar data dalam suatu cluster, clustering juga dapat

dilakukan berdasarkan jarak antar data atau cluster yang satu dengan yang lain.

Ukuran jarak (distance atau dissimilarity measure) yang merupakan kebalikan dari

ukuran kemiripan ini juga banyak ragamnya dan penggunaannya juga tergantung pada

tipe data yang akan di-cluster. Kedua ukuran ini bersifat simetris, dimana jika A

dikatakan mirip dengan B maka dapat disimpulkan bahwa B mirip dengan A.

Ada beberapa macam rumus perhitungan jarak antara cluster. Untuk tipe data

numerik, sebuah data det X beranggotakan X1 Є X, i = 1, ..., n, tiap item

direpresentasekan sebagai vektor X1 = {Xi1, Xi2, Xim} dengan m sebagai jumlah

dimensi dari item. Rumus-rumus yang biasa digunakan sebagai ukuran jarak antara Xi

dan Xj untuk data numerik ini antara lain:

a. Euclidean Distance ���𝑥𝑥𝑖𝑖𝑖𝑖 − 𝑥𝑥𝑖𝑖𝑖𝑖�2 𝑛𝑛 𝑖𝑖=1 � 1 2 (1)

Ukuran ini sering digunakan dalam clustering karena sederhana. Ukuran ini

memiliki masalah jika skala nilai atribut yang satu sangat besar dibandingkan nilai atribut lainnya. Oleh sebab itu, nilai-nilai atribut sering dinormalisasi.

b. City Block Distance atau Manhatta Distance

��𝑥𝑥𝑖𝑖𝑖𝑖 − 𝑥𝑥𝑖𝑖𝑖𝑖� 𝑛𝑛

𝑖𝑖=1

(3)

Jika tiap item digambarkan sebagai sebuah titik dalam grid, ukuran jarak ini merupakan banyak sisi harus dilewati suatu titik untuk mencapai titik yang lain seperti halnya dalam sebuah peta jalan.

c. Minkwoski Metric ���𝑥𝑥𝑖𝑖𝑖𝑖 − 𝑥𝑥𝑖𝑖𝑖𝑖�𝑝𝑝 𝑛𝑛 𝑖𝑖=1 � 1 𝑝𝑝 (3)

Ukuran ini merupakan bentuk umum dari Euclidean Distance dan Manhatta

Distance. Euclidean Distance adalah kasus dimana nilai p = 2 sedangkan Manhatta

Distance merupakan bentuk Minkwoski dengan p = 1. Dengan demikian, lebih

banyak nilai numerik yang dapat ditempatkan pada jarak terjauh di antara 2 vektor.

Seperti pada Euclidean Distance dan juga Manhattan Distance, ukuran ini

memiliki masalah jika salah satu atribut dalam vektor memiliki rentang yang lebih besar dibanding atribut-atribut lainnya.

d. Cosine – Corelation (ukuran kemiripan dari model Euclidean n-dimensi)

∑𝑚𝑚𝑖𝑖=1�𝑥𝑥𝑖𝑖𝑖𝑖.𝑥𝑥𝑖𝑖𝑖𝑖� �∑ 𝑥𝑥𝑖𝑖𝑖𝑖2 ∑ 𝑥𝑥 𝑖𝑖𝑖𝑖2 𝑚𝑚 𝑖𝑖=0 (4) Ukuran ini bagus digunakan pada data dengan tingkat kemiripan tinggi walaupun sering pula digunakan bersama pendekatan lain untuk membatasi dimensi dari permasalahan.

Dalam mendefenisikan ukuran jarak antara cluster yang digunkan beberapa

algoritma untuk menentukan cluster mana yang terdekat, perlu dijelaskan

mengenai atribut-atribut yang menjadi referensi dari suatu cluster. Untuk suatu

cluster Km berisi N item {Xm1, Xm2, ..., Xnm}:

- Centroid: suatu besaran yang dihitung dari rata-rata nilai dari setiap item dari

suatu cluster menurut rumus:

𝐶𝐶𝑚𝑚 = ∑ |𝑥𝑥𝑚𝑚𝑖𝑖| 𝑛𝑛

𝑖𝑖=1

𝑁𝑁 (5)

- Medoid: item yang letaknya paling tengah.

Metode-metode untuk mencari jarak antara cluster:

- Single Link: jarak terkecil antara suatu elemen dalam suatu cluster dengan

(4)

- Comple Link: jarak rata-rata antar satu elemen dalam suatu cluster dengan

elemen lain di cluster yang berbeda.

- Average: jarak rata-rata antar satu elemen dalam suatu cluster dengan elemen

lain di cluster yang berbeda.

- Centoid: jarak antara centroid dari tiap cluster dengan centoid cluster lainnya.

- Medoid: jarak antara medoid dari tiap cluster denga medoid cluster lainnya.

2.2 Algoritma Clustering

Secara umum pembagian algoritma clustering dapat digambarkan sebagai berikut:

Gambar 2.1 Kategori Algoritma Clustering

Hierarchical clustering menentukan sendiri jumlah cluster yang dihasilkan.

Hasil dari metode ini adalah suatu struktur data berbentuk pohon yang disebut

dendogram dimana data dikelompokkan secara bertingkat dari yang paling bawah

dimana tiap intance data merupakan satu cluster sendiri, hingga tingkat paling atas

dinamakan keseluruhan data membentuk satu cluster besar berisi cluster-cluster

seperti gambar 2.2

Clustering

Hierarchical Partitional Clustering

Large Data

Divisive Agglomerative

(5)

1 2 3

A B C D E 4

Gambar 2.2 Dendogram

Divisive hierarchical clustering mengelompokkan data dari kelompok yang

terbesar hingga ke kelompok yang terkecil, yaitu masing-masing instance dari

kelompok data tersebut. Sebaliknya, agglomerative hierarchical clustering mulai

mengelompokkan data dari kelompok yang terkecil hingga kelompok yang terbesar.

Beberapa algoritma yang menggunakan metode ini adalah: Robust Clustering Using

Links (ROCK), Chameleon, Cobweb, Shared Nearest Neighbor (SNN).

Partitional clustering yang mengelompokkan data ke dalam k cluster dimana k

adalah banyaknya cluster dari input user. Kategori ini biasanya memerlukan

pengetahuan yang cukup mendalam tentang data dan proses bisnis yang memanfaatkannya unuk mendapatkan kisaran nilai input yang sesuai. Beberapa

algoritma yang masuk dalam kategori diantara lain : K-Means, Fuzzy C-Means,

Clustering Large Aplications (CLARA), Expectation Maximation (EM), Bond Energy

Algorithm (BEA), algoritma Genetika, Jaringan Saraf Tiruan.

Clustering Large Data, dibutuhkan untuk melakukan clustering pada data yang

volumenya sangat besar sehingga tidak cukup ditampung dalam memori komputer

pada suatu waktu. Biasanya untuk mengatasi masalah besarnya volume data, dicari

teknik-teknik untuk meminimalkan berapa kali algoritma harus membaca seluruh data.

Beberapa algoritma yang masuk dalam kategori ini antara lain: Balance Iteratif

Reducing and clustering using hierarchies (BIRCH), Density Based Spatial

Clustering of Application With Noise (DCSCAN), Clustering Categorical Data Using

(6)

2.3 Algoritma C-Means

Pada proses clustering sacara klasik (misalnya pada Clustering K-Means),

pembentukan partisi dilakukan sedemikian rupa sehingga setiap obyek berada tepat pada satu partisi, karena sebenarnya obyek tersebut terletak di antara 2 atau lebih partisi yang lain. Pada logika algoritma, metode yang dapat digunkana untuk

melakukan pengelompokan sejumlah data dikenal dengan nama algoritma clustering.

Algoritma Clustering lebih alami jika dibandingkan dengan clustering secara klasik.

Suatu algoritma clustering dikatakan sebagai algoritma clustering jika algoritma

tersebut menggunakan parameter strategis adaptasi secara soct competitive. Sebagian

besar algoritma clustering didasarkan atas optimasi fungsi obyektif atau modifikasi

dari fungsi obyektif tersebut (Kusumadewi. S, Hartati. S. 2006).

Salah satu teknik algoritma clustering adalah Algoritma C-Means. Algoritma

C-Means adalah suatu teknik clustering data yang keberadaan tiap-tiap data dalam suatu

cluster ditentukan oleh nilai/derajat keanggotaan tertentu. Teknik ini pertama kali

diperkenalkan Jim Bezdek pada tahun 1981 (Kusumadewi. S, Hartati. S. 2006).

Berbeda dengan teknik clustering secara klasik (dimana suatu obyek hanya akan

menjadi anggota dari beberapa cluster. Batas-batas cluster dalam Algoritma C-Means

adalah lunak (soft). Kosep dasar Algoritma C-Means, pertama kali adalah menentukan

pusat cluster yang menandai lokasi rata-rata untuk tiap-tiap cluster. Pada kondisi

awal, pusat cluster ini masih belum akurat. Tiap-tiap data memiliki derajat

keanggotaan untuk tiap-tiap cluster. Dengan cara memperbaiki pusat cluster dan nilai

keanggotaan tiap-tiap data secara berulang, maka akan terlihat bahwa pusat cluster

akan bergerak menuju lokasi yang tepat. Perulangan ini didasarkan pada minimasi

fungsi obyektif. Fungsi obyektif yang digunakan pada Algoritma C-Means adalah

(Kusrini, 2006): 𝐽𝐽𝑤𝑤(𝑈𝑈,𝑉𝑉;𝑋𝑋) =� �𝑐𝑐 (𝜇𝜇𝑖𝑖𝑖𝑖)𝑤𝑤(𝑑𝑑𝑖𝑖𝑖𝑖)2 𝑖𝑖=1 𝑛𝑛 𝑖𝑖=1 (6) dengan w Є [1, ], 𝑑𝑑𝑖𝑖𝑖𝑖 = 𝑑𝑑(𝑥𝑥𝑖𝑖− 𝑣𝑣𝑖𝑖) =�� �𝑥𝑥𝑖𝑖𝑖𝑖𝑚𝑚 − 𝑣𝑣𝑖𝑖𝑖𝑖� 𝑖𝑖=1 � 1 2 (7)

(7)

x adalah data yang akan di clustering:

𝑥𝑥=�𝑥𝑥11⋮ ⋯ 𝑥𝑥… 1⋮𝑚𝑚 𝑥𝑥𝑛𝑛1 ⋯ 𝑥𝑥𝑛𝑛𝑚𝑚

� (8) dan v adalah matriks pusat cluster :

𝑥𝑥=�𝑣𝑣11⋮ ⋯ 𝑣𝑣… 1⋮𝑚𝑚

𝑣𝑣𝑚𝑚1 ⋯ 𝑣𝑣𝑛𝑛𝑚𝑚

� (9) nilai Jw terkecil adalah yang terbaik, sehingga:

Jw*(U*, V*; X) = min J (U, V, X) (10)

Jika dik > 0, , k; w > 1 dan X setidaknya memiliki m elemen, maka (U,V) Є Mfmx

Rmp dapat meminimasi Jw hanya jika:

𝜇𝜇𝑖𝑖𝑖𝑖 = �∑ �𝑋𝑋𝑖𝑖𝑖𝑖 −𝑉𝑉𝑖𝑖𝑖𝑖� 2 𝑚𝑚 𝑖𝑖=1 � −1 𝑤𝑤−1 ∑ �∑ �𝑋𝑋𝑖𝑖𝑖𝑖 −𝑚𝑚𝑖𝑖=1 𝑉𝑉𝑖𝑖𝑖𝑖�2� −1 𝑤𝑤−1 𝑚𝑚 𝑖𝑖=1 ; 1≤ 𝑖𝑖 ≤ 𝑚𝑚; 1≤ 𝑖𝑖 ≤ 𝑛𝑛 (11) dan 𝑉𝑉𝑖𝑖𝑖𝑖 =∑ �(𝜇𝜇𝑖𝑖𝑖𝑖) 𝑤𝑤 ∗ 𝑋𝑋 𝑖𝑖𝑖𝑖� 𝑛𝑛 𝑖𝑖=1 ∑𝑛𝑛 (𝜇𝜇𝑖𝑖𝑖𝑖)𝑤𝑤 𝑖𝑖=1 ; 1≤ 𝑖𝑖 ≤ 𝑚𝑚; 1≤ 𝑖𝑖 ≤ 𝑚𝑚 (12)

Algoritma C-Means diberikan sebagai berikut(Kusumadewi, et al, 2006):

1. Menentukan data yang akan di clustering X, berupa matriks berukuran n x m (n =

jumlah sampel data, m = atribut setiap data), Xij = data sampel ke-i (i = 1,2, ... , n),

atribut ke-j (j = 1,2,..., mm).

2. Menentukan:

- Jumlah cluster = c

- Pangkat = w

- Maksimal interaksi = Maxlter

- Error terkecil yang diharapkan =

- Fungsi objektif awal = Po = 0

(8)

3. Membangkitkan bilangan random µik i=1,2,3, ..., n: k=1,2,3,.., c: sebagai

elemen-elemen matriks partisi awal U. Menghitung jumlah setiap kolom:

𝑄𝑄𝑖𝑖 = � 𝜇𝜇𝑖𝑖𝑖𝑖 𝑐𝑐 𝑖𝑖 (13) Dengan j=1,2,..,n Menghitung:

4. Menghitung pusat cluster ke-k: Vkj, dengan k=1,2,...c: dan j=1,2,...m

𝑉𝑉𝑖𝑖𝑖𝑖 =∑ �(𝜇𝜇𝑖𝑖𝑖𝑖) 𝑤𝑤.𝑋𝑋𝑖𝑖𝑖𝑖 𝑛𝑛 𝑖𝑖=1 ∑𝑛𝑛 (𝜇𝜇𝑖𝑖𝑖𝑖)𝑤𝑤 𝑖𝑖=1 (14)

5. Menghitung fungsi objektif pada interasi ke-t:

𝑃𝑃𝑡𝑡 =� � ����𝑋𝑋𝑖𝑖𝑖𝑖 −𝑉𝑉𝑖𝑖𝑖𝑖�2 𝑚𝑚 𝑖𝑖=1 �(𝜇𝜇𝑖𝑖𝑖𝑖)𝑤𝑤 𝑐𝑐 𝑖𝑖=1 𝑛𝑛 𝑖𝑖=1 (15)

6. Menghitung perubahan matriks partisi:

𝜇𝜇𝑖𝑖𝑖𝑖 = �∑ �𝑋𝑋𝑖𝑖𝑖𝑖𝑚𝑚𝑖𝑖=1 − 𝑉𝑉𝑖𝑖𝑖𝑖�2� −1 𝑤𝑤−1 ∑ �∑ �𝑋𝑋𝑖𝑖𝑖𝑖 −𝑚𝑚𝑖𝑖=1 𝑉𝑉𝑖𝑖𝑖𝑖�2� −1 𝑤𝑤−1 𝑐𝑐 𝑖𝑖=1 (16) Dengan : i = 1,2,..., n: dan k = 1,2,,...,c

7. Memeriksa kondisi berhenti:

- Jika: (|Pt – Pt - 1| < ξ) atau (t > Max) maka berhenti

- Jika tidak: t = t + 1, mengulang langkah ke-4

2.4 Cluster Analysis (Variance)

Digunakan untuk mengukur nilai hasil penyebaran data-data hasil clustering ada dua

macam (Ridho Barakbah, 2009), yaitu:

1. Variance within cluster: Tipe varian ini mengacu pada jarak antar anggota pada

cluster yang sama.

(9)

Ada dua ketentuan apabila menentukan cluster ideal menggunakan cara

perbandiangan Variance within Cluster Vw) dan Variance between Cluster (Vb) yaitu

sebagai berikut:

a. Berdasarkan nilai minimum

𝑉𝑉 = 𝑉𝑉𝑉𝑉𝑊𝑊

𝐵𝐵 (17) Keterangan:

V = nilai variance

Vw = nilai variance between cluster

VB = nilai variance between cluster

Cluster yang disebut ideal adalah cluster yang memiliki nilai variance yang paling

kecil.

b. Berdasarkan nilai maksimum

𝑉𝑉 = 𝑉𝑉𝑉𝑉𝐵𝐵

𝑊𝑊 (18) Keterangan:

V = nilai variance

Vw = nilai variance within cluster

VB = nilai variance between cluster

Cluster yang disebut ideal adalah cluster yang memiliki variance yang paling besar.

Sebelum mencari nilai variance (V), perlu dicari nilai variance within cluster (Vw)

dan nilai variance between cluster (VB) (Ali, Modul ajar cluster analysis).

a. Variance within Cluster (Vw)

𝑉𝑉𝑊𝑊 =𝑁𝑁 − 𝑖𝑖 �1 (𝑛𝑛𝑖𝑖−1).𝑉𝑉𝑖𝑖2 𝑖𝑖

(10)

Keterangan:

N = jumlah semua data

k = jumlah cluster

ni = jumlah data pada cluster ke-i

Vi2 = variance pada cluster ke-i

Sebelum menghitung variance within perlu menghitung nilai Vi2.

Keterangan: 𝑉𝑉𝐶𝐶2 = 𝑛𝑛 1 𝐶𝐶−1� �𝑑𝑑𝑖𝑖 − 𝑑𝑑̅𝑖𝑖� 2 𝐶𝐶 𝑖𝑖=1 (20)

Vc2 = variance pada cluster c

c = 1...k, dimana k = jumlah cluster

nc = jumlah data pada cluster c

di = data ke-i pada suatu cluster

dl = rata-rata dari data pada suatu cluster

b. Variance between Cluster (VB)

𝑉𝑉𝐵𝐵 = 𝑖𝑖 −1 1� 𝑛𝑛𝑖𝑖 𝑖𝑖 𝑖𝑖=1 �𝑑𝑑̅𝑙𝑙− 𝑑𝑑̅� 2 (21) Keterangan: d = rata-rata dari di 2.5 Riset-riset Terkait

Dalam melakukan penelitian, penulis menggunakan beberapa riset terkait yang dijadikan yang membuat penelitian berjalan lancar. Adapun riset-riset terkait tersebut adalah:

(11)

Tabel 2.3 Riset Terkait

No Judul Riset Nama Peneliti

Dan Tahun Algoritma/ Metode yang digunakan Hasil Penelitian 1 Penentuan jurusan sekolah menengah atas dengan algoritma fuzzy C-Means Bahar, 2011 Algoritma C-Means Penentun jurusan di Sekolah Menengah Atas

dengan algoritma

C-Means memiliki tingkat

akurasi yang lebih tinggi

dibanding dengan metode penentuan jurusan secara manual.

2 Implementasi Algoritma Clustering ISMC dan FCM Ri Handayani, et al. 2011 Algoritma ISMC dan FCM Bahwa algoritma FSMC lebih mampu menghasilkan cluster yang homogen dibanding ISMC 3 Studi Tentang Metode C-Means

Cluster dan Fuzzy

C-Means Cluster Serta Aplikasinya Pada Kasus Pengelompokkan Desa/ Kelurahan Berdasarkan Status Ketertinggalan

Sukim, 2011 C-Means Metode C-Means lebih

halus dalam mempartisi cluster. Hal ini karena tiap objek dilengkapi

dengan derajat keanggotaan ke pusat

cluster yang terbentuk, tapi running time

algoritma C-Means

terhadap banyaknya cluster tidak linier

4 Penggunaan Indeks Validitas Pada Algoritma Fuzzy C-Means Lailil Muflikhah, 2011 C-Means dan K-Means

Metode Fuzzy C-Means

lebih baik dari pada

fuzzy K-Means

(12)

Clustering Untuk Pengklasteran Dokumen

penyimpangan pada pengklasteran dengan

metode K-Means. Agar

supaya pengklasteran dokumen optimal, telah diaplikasikan indeks validitas. 5 Deteksi Kepala Janin Pada Gambar USG Menggunakan Fuzzy C-Means dengan Informasi Spesial dan Iterative Randomized Hough Transform (IRHT) Dwi Puspita Handayani Tjandrasa, 2011 C-Means dan K-Means Segmentasi menggunakan metode FCM dengan Informasi spesial mampu mengurangi noise pada

gambar USG kepala janin dibanding dengan

menggunakan metode K-Means 6 Implementasi Metode Single Linkage Untuk Menentukan Kinerja Agent

Pada Call Center

Berbasis Asterisk For JAVA Beni Ilham Priyambodo, et al. 2011 Single Linkage Kelebihan metode manual yaitu kekurangan pembentukan cluster dibanding dengan

metode Single Linkage

dilihat dari perhitungan

variance.

2.6 Perbedaan Dengan Riset Yang Lain

Dalam penelitian ini menggunakan Algoritma C-Means dan Cluster Analysis

(Variance) dengan berbagai data yang akan diolah dan juga menggunakan alat bantu

berupa software Visual Basic sehingga dapat langsung diterapkan untuk penyelesaian

(13)

2.7 Kontribusi Riset

Dalam penelitian ini digunakan dua Algoritma C-Means dan Cluster Analysis

(Variance) yang saling mengisi yang diharapkan dari penelitian ini dapat menentukan

berapa sesungguhnya cluster yang ideal yang terbentuk dari range data yang akan di

Gambar

Gambar 2.1 Kategori Algoritma Clustering
Gambar 2.2 Dendogram
Tabel 2.3 Riset Terkait
gambar USG kepala  janin dibanding dengan  menggunakan metode  K-Means  6  Implementasi  Metode Single  Linkage  Untuk  Menentukan  Kinerja Agent  Pada  Call Center  Berbasis  Asterisk  For JAVA  Beni Ilham Priyambodo,  et al

Referensi

Dokumen terkait

PCS akan menentukan distribusi ukuran partikel rata-ratanya, sedangkan DLS digunakan untuk menentukan ukuran partikel dengan cara memasukkan partikel kecil di dalam

Penilaian kelayakan satuan/program pendidikan dilakukan dengan cara mengecek derajat pemenuhan SNP yang telah dicapai oleh satuan/program pendidikan dengan mengacu

Kualitas dan kuantitas cahaya secara luas menentukan tipe dan terdapatnya alga. Sejauh ini fotosintesis dan fotomorfogenesis banyak mendapat perhatian. Pada kebanyakan

Pada bentuk ruang dalam, rumah Jawa yang ideal paling tidak terdiri dari dua atau tiga unit bangunan, yakni pendopo (ruang untuk pertemuan), pringgitan (ruang untuk pertunjukan)

1) Menentukan tanggal tibanya haul: yaitu tanggal yang dipilih untuk menghitung zakat. Haul ini harus memiliki awal dan akhir yang jarak waktunya adalah 12 bulan.

Menurut UU No. 16 tahun 2000 pasal 1 tentang ketentuan umum dan tata cara perpajakan, dijelaskan bahwa Wajib Pajak adalah orang pribadi atau badan yang menurut ketentuan

Dalam tipe kepemimpinan, pemimpin menentukan sendiri policy dan rencana untuk kelompoknya, membuat keputusan-keputusan sendiri, namun mengharapakan tanggung jawab

Cara menentukan saluran komunikasi ini terdiri dari dua cara yaitu, yang pertama dengan menggunakan saluran komunikasi personal yakni dengan mencakup dua orang atau