• Tidak ada hasil yang ditemukan

TINJAUAN PUSTAKA

2.5. Algoritma Clustering ( Clustering Algorithm )

Data Clusteringmerupakan salah satu metode Data Mining yang bersifat tanpa arahan

(unsupervised). K-Means merupakan salah satu metode data Clustering Non Hirarki

yang berusaha mempartisi data yang ada ke dalam bentuk satu atau lebih cluster. Metode ini mempartisi data ke dalam clustersehingga data yang memiliki karakteristik yang sama dikelompokkan ke dalam satu clusteryang sama dan data yang mempunyai karakteristik yang berbeda dikelompokkan ke dalam kelompok yang lain. Adapun tujuan dari data clusteringini adalah untuk meminimalisasikan objective functionyang diatur dalam proses clustering, yang pada umumnya berusaha meminimalkan variasi di dalam suatu clusterdan memaksimalkan variasi antar cluster

(Heryanto, et al. 2013).

Pada dasarnya clustering merupakan suatu metode untuk mencari dan mengelompokkan data yang memiliki kemiripan karakteriktik (similarity) antara satu data dengan data yang lain. Clusteringmerupakan salah satu metode Data Miningyang bersifat tanpa arahan (unsupervised), maksudnya metode ini diterapkan tanpa adanya latihan (training) dan tanpa ada guru (teacher)serta tidak memerlukan target output. Dalam Data Mining ada dua jenis metode clustering yang digunakan dalam pengelompokan data, yaitu HierarchicalClusteringdan Non HierarchicalClustering

(Santosa, 2007).

Cluster memegang peran penting dalam pengklasifikasian obyek. Bergantung pada aplikasinya, obyek biasa berupa sinyal, pelanggan, pasien, berita, tanaman, dan lain- lain. Teknik clustering adalah teknik nonparametric yang sangat banyak diaplikasikan

dalam kasus nyata. Teknik cluster dikelompokkan ke dalam dua kelas besar : Partioning Cluster dan Hierarcichal Cluster. Ada dua

macam teknik cluster yang cukup sering dipakai. Yang pertama adalah K-Means

(mewakili Partitioning Cluster atau Non Hierarcichal) dan yang berikutnya adalah

Tujuan utama dari metoda klaster adalah pengelompokan sejumlah data/obyek ke dalam cluster (group) sehingga setiap klaster akan berisi data yang semirip mungkin. Ini berarti obyek dalam satu klaster sangat mirip satu sama lain dan berbeda dengan obyek dalam klaster-klaster yang lain (Santosa, 2007)

Gambar 2.2 Contoh Proses Clustering

Sumber : (Nugraheni, 2011)

Ada dua metode Clustering yang kita kenal, yaitu Hierarchical Clustering dan

Partitioning Clustering. Metode Hierarchical Clusteringsendiri terdiri dari Complete Linkage Clustering, Single Linkage Clustering, Average Linkage Clusteringdan

Centroid Linkage Clustering. Sedangkan metode Partitioningsendiri terdiri dari K- Means dan Fuzzy K-Means (Alfina, et al. 2012).

Hierachical Clusteringadalah suatu metode pengelompokan data yang dimulai dengan mengelompokkan dua atau lebih objek yang memiliki kesamaan paling dekat. Kemudian proses diteruskan ke objek lain yang memiliki kedekatan kedua. Demikian seterusnya sehingga cluster akan membentuk semacam pohon dimana ada hierarki (tingkatan) yang jelas antar objek, dari yang paling mirip sampai yang paling tidak mirip. Secara logika semua objek pada akhirnya hanya akan membentuk sebuah

cluster. Dendogram biasanya digunakan untuk membantu memperjelas proses hierarki tersebut (Santoso, 2010).

Berbeda dengan metode Hierarchical Clustering, metode Non HierarchicalClusteringjustru dimulai dengan menentukan terlebih dahulu jumlah

cluster yangdiinginkan (dua cluster, tiga cluster, atau lain sebagainya). Setelah jumlah

clusterdiketahui, baru proses cluster dilakukan tanpa mengikuti proses hierarki. Metode inibiasa disebut dengan K-MeansClustering (Santoso, 2010).

2.5.1. Clustering Hirarkhi (Hierarchical Clustering)

Clusteringhirarkhi membangun sebuah hirarkhi clusteratau dengan kata lain sebuah pohon cluster, yang juga dikenal sebagai dendrogram. Setiap node

clustermengandung clusteranak; cluster-cluster saudara yang membagi point yang ditutupi oleh induk mereka. Metode-metode clusteringhirarkhi dikategorikan ke dalam agglomerative (bawah-atas) dan idivisive (atas-bawah) (Paulanda, 2012).

Clustering agglomerative dimulai dengan clustersatu point (singleton) dan secara berulang mengabungkan dua atau lebih clusteryang paling tepat. Cluster divisive dimulai dengan satu clusterdari semua point data dan secara berulang membagi

clusteryang paling tepat. Proses tersebut berlanjut hingga kriteria penghentian (seringkali, jumlah k yang diperlukan dari cluster) dicapai. Kelebihan clusterhirarkhi meliputi :

1. Fleksibilitas yang tertanam mengenai level granularitas. 2. Kemudahan menangani bentuk-bentuk kesamaan atau jarak. 3. Pada akhirnya, daya pakai pada tipe-tipe atribut apapun Kelemahan dari clusteringhirarkhi berhubungan dengan :

1. Ketidakjelasan kriteria terminasi.

2. Terhadap perbaikan hasil clustering, sebagian besar algoritma hirarkhi tidak mengunjungi kembali cluster-clusternya yang telah dikonstruksi.

Untuk clusteringhirarki, menggabungkan atau memisahkan subset dari point-point

dan bukan point-point individual, jarak antara point-point individu harus digeneralisasikan terhadap jarak antara subset.

Ukuran kedekatan yang diperoleh disebut metrik hubungan. Tipe metrik hubungan yang digunakan secara signifikan mempengaruhi algortima hirarkhi, karena merefleksikan konsep tertentu dari kedekatan dan koneksitas. Metrik hubungan antar

clusterutama (Paulanda, 2011) termasuk hubungan tunggal, hubungan rata-rata dan hubungan sempurna.

Dalam clustering hirarki kita hitung jarak masing-masing obyek dengan setiap obyek yang lain. Selanjutnya kita temukan pasangan obyek yang jaraknya dekat. Sehingga tiap obyek akan berpasangan dengan satu obyek atau kelompok obyek yang lain yang paling dekat jaraknya. Langkah-langkah yang perlu dilakukan untuk melakukan

a. Kelompokkan setiap obyek ke dalam kelompok/clusternya sendiri.

b. Temukan pasangan paling mirip untuk dimasukkan ke dalam cluster yang sama dengan melihat data dalam matriks kemiripan (resemblance).

c. Gabungkan kedua obyek dalam satu cluster. d. Ulangi sampai tersisa hanya satu cluster.

Clusteringhirarkhi membangun sebuah hirarkhi clusteratau dengan kata lain sebuah pohon cluster, yang juga dikenal sebagai dendrogram. Setiap nodeclustermengandung

clusteranak; cluster-cluster saudara yang membagi point yang ditutupi oleh induk mereka. Metode-metode clusteringhirarkhi dikategorikan ke dalam

agglomerative(bawah-atas) dan idivisive (atas-bawah) . Clustering agglomerative

dimulai dengan clustersatu point (singleton) dan secara berulang mengabungkan dua atau lebih clusteryang paling tepat. Clusterdivisivedimulai dengan satu clusterdari semua point data dan secara berulang membagi clusteryang paling tepat. Proses tersebut berlanjut hingga kriteria penghentian (seringkali, jumlah k yang diperlukan dari cluster) dicapai (Paulanda, 2012).

Untuk clusteringhirarkhi, menggabungkan atau memisahkan subset dari point-point

dan bukan point-point individual, jarak antara point-point individu harus digeneralisasikan terhadap jarak antara subset (Paulanda, 2012).

Ukuran kedekatan yang diperoleh disebut metrik hubungan. Tipe metrik hubungan yang digunakan secara signifikan mempengaruhi algortima hirarkhi, karena merefleksikan konsep tertentu dari kedekatan dan koneksitas. Metrik hubungan antar

clusterutama (termasuk hubungan tunggal, hubungan rata-rata dan hubungan sempurna).

a. Single Lingkage Clustering (Pautan Tunggal)

Metode ini didasarkan pada jarak minimum. Dimulai dengan dua objek yang dipisahkan dengan jarak paling pendek, maka keduanya akan ditempatkan pada

cluster pertama, dan seterusnya. Metode ini dikenal pula dengan nama pendekatan tetangga terdekat.

Metode Pautan Tunggal (single lingkage) akan mengelompokan dua objek yang mempunyai jarak terdekat dahulu. Jadi pada setiap tahapan, banyaknya cluster

berkurang satu. Secara formal dua buah cluster Br dan Bs, jarak antara Br dan Bs misalkan h (Br, Bs) didefinisikan sebagai:

Hasil Single Linkage Clustering dapat disajikan dalam bentuk Dendogram atau diagram pohon. Cabang-cabang tersebut bertemu bersama-sama (menggabung) pada simpul posisinya sepanjang suatu sumbu jarak (kemiringan) menunjukan tingkat dimana penggabungan terjadi. Input untuk algoritma single linkage bisa berujud jarak atau similarities antara pasangan-pasangan dari objek-objek. Kelompok-kelompok dibentuk dari entities individu dengan menggabungkan jarak paling pendek atau similarities (kemiripan) yang paling besar.

b. Complete Linkage Clustering (Pautan Lengkap)

Metode ini didasarkan pada jarak maksimum. Metode Pautan Lengkap (Complete lingkage) akan mengelompokan dua objek yang mempunyai jarak terjauh dahulu. Metode ini dikenal pula dengan nama pendekatan tetangga terjauh. Metode ini memberikan kepastian bahwa semua item-item dalam satu kelompok berada dalam jarak paling jauh (similaritas terkecil) satu sama lain.

Hasil Complete Linkage Clustering dapat disajikan dalam bentuk Dendogram atau diagram pohon. Cabang-cabang tersebut bertemu bersama-sama (menggabung) pada simpul posisinya sepanjang suatu sumbu jarak (kemiringan) menunjukan tingkat dimana penggabungan terjadi. Complete Linkage memberikan kepastian bahwa semua item-item dalam satu cluster berada dalam jarak paling jauh (similaritas terkecil) satu sama lain.

c. Averaging Lingkage Clustering

Average Linkage memperlakukan jarak antara dua cluster sebagai jarak rata-rata antara semua pasangan item-item di mana satu anggota dari pasangan tersebut kepunyaan tiap cluster. Mulai dengan mencari matriks jarak D = {dik} untuk memperoleh objek-objek paling dekat ( paling mirip) misalnya U dan V . Objek objek ini digabungkan untuk membentuk cluster (UV). Untuk langkah dari algoritma di atas jarak-jarak antara(UV) dan cluster W yang lain ditentukan oleh:

di mana dik adalah jarak antara objek i dalam Cluster (UV) dan objek k dalam

ClusterW , dan Nuv dan Nw berturut-turut adalah banyaknya item-item dalam Cluster

(UV) dan W.

2.5.2. Clustering Partisional (Partitional Clustering)

Dalam partisioning kita mengelompokkan obyek ke dalam k

cluster. Ini bisa dilakukan dengan menentukan pusat cluster awal, lalu dilakukan realokasi obyek berdasarkan kriteria tertentu sampai dicapai pengelompokan yang optimum. Dalam cluster hirarki, kita mulai dengan membuat m cluster dimana setiap

cluster beranggotakan satu obyek dan berakhir dengan satu cluster dimana anggotanya adalah m obyek. Pada setiap tahap dalam prosedurnya, satu cluster digabung dengan satu cluster yang lain. Kita bisa memilih berapa jumlah cluster yang diinginkan dengan menentukan cut-off pada tingkat tertentu (Santosa, 2007).

Salah satu isu dengan algoritma-algoritma tersebut adalah kompleksitas tinggi, karena menyebutkan semua pengelompokkan yang memungkinkan dan berusaha mencari optimum global. Bahkan untuk jumlah objek yang kecil, jumlah partisi adalah besar. Itulah sebabnya mengapa solusi-solusi umum dimulai dengan sebuah partisi awal, biasanya acak, dan berlanjut dengan penyempurnaannya.

Sebuah pendekatan terhadap pembagian data adalah mengambil sudut pandang konseptual yang mengidentifikasikan clusterdengan model tertentu yang parameternya tidak diketahui harus ditemukan. Model-model probabilistik menganggap bahwa data berasal dari campuran beberapa populasi yang didistribusi dan prioritasnya ingin ditemukan. Sebuah kelebihan yang jelas dari metode-metode probabilitas adalah daya interpretasi dari cluster-clusteryang dibuat.

Dengan memiliki representasi clusteryang tepat juga memungkinkan penghitungan yang tidak ekspensif dari ukuran-ukuran intra-clusterdari kesesuaian yang memberikan fungsi objektif yang tergantung pada sebuah pembagian (partition). (Paulanda, 2012). Sedangkan metode partitioning sendiri terdiri dari k-means dan

fuzzy K-Means.Dengan mengetahui objek-objek database N, sebuah algoritma

clusteringpartisional membentuk k bagian dari data, dimana setiap

clustermengoptimalkan kriteria clustering, seperti minimasi jumlah jarak kuadrat dari rata-rata dalam setiap cluster.

Salah satu isu dengan algoritma-algoritma tersebut adalah kompleksitas tinggi, karena menyebutkan semua pengelompokkan yang memungkinkan dan berusaha mencari

optimum global. Bahkan untuk jumlah objek yang kecil, jumlah partisi adalah besar. Itulah sebabnya mengapa solusi-solusi umum dimulai dengan sebuah partisi awal, biasanya acak, dan berlanjut dengan penyempurnaannya.

Praktek yang lebih baik akan berupa pelaksanaan algoritma partisional untuk kumpulan point-point awal yang berbeda (yang dianggap sebagai representative) dan meneliti apakah semua solusi menyebabkan partisi akhir yang sama atau tidak. Algoritma-algoritma clusteringpartisional berusaha memperbaiki secara local sebuah kriteria tertentu. Pertama, menghitung nilai-nilai kesamaan atau jarak, mengurutkan hasil, dan mengangkat nilai yang mengoptimalkan kriteria. Oleh karena itu, dapat dianggap sebagai algoritma seperti greedy. Sebuah pendekatan terhadap pembagian data adalah mengambil sudut pandang konseptual yang mengidentifikasikan

clusterdengan model tertentu yang parameternya tidak diketahui harus ditemukan. Model-model probabilistik menganggap bahwa data berasal dari campuran beberapa populasi yang didistribusi dan prioritasnya ingin ditemukan. Sebuah kelebihan yang jelas dari metode-metode probabilitas adalah daya interpretasi dari

cluster-clusteryang dibuat. Dengan memiliki representasi clusteryang tepat juga memungkinkan penghitungan yang tidak ekspensif dari ukuran-ukuran intra

clusterdari kesesuaian yang memberikan fungsi objektif yang tergantung pada sebuah pembagian (partition). Tergantung pada bagaimana representative dibuat, algoritma partitioning optimasi literative dibagi lagi ke dalam metode-metode K-medoids dan K- means.

a. K-Means Clustering

Salah satu metode partisi atau biasa disebut juga dengan metode non hirarki. Salah satu metode partisi yang biasa digunakan adalah metode K-Means Clustering. Metode

K-Means Clustering dapat diterapkan pada kasus dengan jumlah objek yang sangat besar (Utami & Sutikno, 2010).

Dari beberapa teknik clustering yang paling sederhana dan umum dikenal adalah

clustering k-means. Dalam teknik ini kita ingin mengelompokkan obyek ke dalam k kelompok atau cluster. Untuk melakukan clustering ini, nilai k harus ditentukan terlebih dahulu. Biasanya user atau pemakai sudah mempunyai informasi awal tentang obyek yang sedang dipelajari, termasuk berapa jumlah cluster yang paling tepat. Secara detail kita bisa menggunakan ukuran ketidakmiripan untuk mengelompokkan obyek kita. Jika jarak dua obyek atau data titik cukup dekat, maka dua obyek itu

mirip. Semakin dekat berarti semakin tinggi kemiripannya. Semakin tinggi nilai jarak, semakin tinggi ketidakmiripannya (Santosa, 2007)

K-Means Clusteringmerupakan salah satu metode data clustering non hirarki yang mengelompokan data dalam bentuk satu atau lebih cluster/kelompok. Data-data yang memiliki karakteristik yang sama dikelompokan dalam satu cluster/kelompok dan data yang memiliki karakteristik yang berbeda dikelompokan dengan

cluster/kelompok yang lain sehingga data yang berada dalam satu cluster/kelompok memiliki tingkat variasi yang kecil (Agusta, 2007).

Metode K-Means digunakan sebagai alternatif metode cluster untuk data dengan ukuran besar karena memiliki kecepatan yang lebih tinggi dibandingkan metode hirarki. Menurut Forgy (1965) K-Means adalah salah satu algoritma terkenal dalam

clustering, awalnya dikenal sebagai metode Forgy’s dan telah digunakan secara luas

di berbagai bidang termasuk Data Mining, analisi statistik data dan aplikasi bisnis lainnya.

Untuk k-means, k menunjukkan jumlah cluster. Nilai k ditentukan oleh pemakai atau user. Untuk kasus dimana ada pertimbangan dari ahli yang kompeten atau expert di bidangnya, nilai k akan mudah di tentukan. Tetapi sering sekali terjadi bahwa nilai k ini harus ditentukan dengan melihat pada data (tanpa ada pertimbangan dari expert) (Mahrus, et al. 2013)

K-Means merupakan algoritma clustering yang berulang-ulang. Algoritma K-Means dimulai dengan pemilihan secara acak K, K disini merupakan banyaknya cluster yang ingin dibentuk. Kemudian tetapkan nilai-nilai K secara random, untuk sementara nilai tersebut menjadi pusat dari cluster atau biasa disebut dengan centroid, mean atau

means”. Hitung jarak setiap data yang ada terhadap masing-masing centroid

menggunakan rumus Euclidian hingga ditemukan jarak yang paling dekat dari setiap data dengan centroid. Klasifikasikan setiap data berdasarkan kedekatannya dengan

centroid. Lakukan langkah tersebut hingga nilai centroid tidak berubah (stabil) (Rismawan, 2008)

Konsep dasar dari algortima K-Means adalah pencarian pusat cluster (centroidpoints) secara iterative. Pusat cluster ditetapkan berdasarkan jarak setiap data ke pusat cluster. Proses clustering dimulai dengan mengidentifikasikan data yang akan di-cluster, dengan n adalah jumlah data yang akan di cluster dan m adalah jumlah variable.

Pada awal iterasi, pusat setiap cluster ditetapkan secara bebas (sembarang),

. Kemudian dihitung jarak antara setiap data dengan setiap pusat

cluster. Untuk melakukan perhitungan jarak data ke -

ke-I pada pusat cluster ke , diberi nama dapat digunakan formula Euclidean, yaitu:

Suatu data akan menjadi anggota dari clusterke-j apabila jarak data tersebut ke pusat

clusterke-j bernilai paling kecil jika dibandingkan dengan jarak ke pusat

clusterlainnya. Selanjutnya, kelompokkan data-data yang menjadi anggota pada setiap

cluster. Nilai pusat clusteryang baru dapat dihitung dengan cara mencari nilai rata-rata dari data-data yang menjadi anggota pada clustertersebut, dengan rumus:

Menurut Santosa (2007), langkah-langkah melakukan Clustering dengan metode K-Meansadalah sebagai berikut:

a. Pilih jumlah cluster k.

b. Inisialisasi k pusat clusterini bisa dilakukan dengan berbagai cara. Namun yang paling sering dilakukan adalah dengan cara random. Pusat-pusat cluster

diberi nilai awal dengan angka-angka random.

c. Alokasikan semua data/ objek ke cluster terdekat. Kedekatan dua objek ditentukan berdasarkan jarak kedua objek tersebut. Demikian juga kedekatan suatu data ke clustertertentu ditentukan jarak antara data dengan pusat cluster. Dalam tahap ini perlu dihitung jarak tiap data ke tiap pusat cluster. Jarak paling antara satu data dengan satu clustertertentu akan menentukan suatu data masuk dalam Clustermana. Untuk menghiutng jarak semua data ke setiap tiitk pusat Cluster dapat menggunakan teori jarak Euclidean yang dirumuskan sebagai berikut:

dimana:

Jarak data ke i ke pusat Clusterj Data ke i pada atribut data ke k Titik pusat ke j pada atribut ke k

d. Hitung kembali pusat Clusterdengan keanggotaan Clusteryang sekarang. Pusat

Clusteradalah rata-rata dari semua data/ objek dalam Clustertertentu. Jika dikehendaki bisa juga menggunakan median dari Cluster tersebut. Jadi rata- rata (mean) bukan satu-satunya ukuran yang bisa dipakai.

e. Tugaskan lagi setiap objek memakai pusat Clusteryang baru. Jika pusat

Clustertidak berubah lagi maka proses clusteringselesai. Atau, kembali ke langkah nomor 3 sampai pusat clustertidak berubah lagi.

Algoritma K-Means adalah algoritma yang terbaik dalam algoritma Partitional Clustering dan yang paling sering digunakan diantara algoritma Clustering lainnya, karena kesederhanaan dan efesiensinya (Budiman, 2012).

Ya

Tidak

Gambar 2.3 Flowchart Algoritma Metode K-MeansClustering

Sumber : (Nugraheni, 2011) Menentukan jumlah Cluster

Menentukan centroid

Menentukan nilai De (Distance Euclidean) Menghitung jarak objek dengan nilai

De (Distance Euclidean)

Ada Objek yang berpindah

Seperti disinggung dalam salah satu langkah dalam prosedur clustering bahwa rata- rata (mean) sebagai pusat cluster bisa diganti dengan ukuran pemusatan yang lain seperti median. Untuk kasus-kasus tertentu pemakaian median sebagai alternatif dari mean memberikan hasil yang lebih baik. Seperti kita ketahui median tidak sensitif terhadap data outlier, data yang terletak jauh dari kebanyakan data yang lain. Jika kita mempunyai data yang kita yakini mempunyai data outlier yang mengandung informasi penting pemakaian ukuran pemusatan berupa median dalam Clustering ini mungkin bisa di coba. Perhatikan contoh berikut ini

a. Mean dari 1, 3, 5, 7, 9 adalah 5 b. Mean dari 1, 3, 5, 7, 1009 adalah 205 c. Median dari 1, 3, 5, 7, 1009 adalah 5

d. Kelihatan bahwa median tidak sensitif terhadap nilai ekstrim. Hasil Cluster

dengan metode K-Mean sangat bergantung pada nilai pusat Cluster yang diberikan. Pemberian nilai awal yang berbeda bisa menghasilkan hasil Cluster

yang berbeda. Ada beberapa cara memberi nilai awal misalnya dengan mengambil sampel awal dari data, lalu mencari pusatnya, memberi nilai awal secara random, kita tentukan nilai awalnya atau menggunakan hasil dari

Cluster hirarki dengan jumlah Cluster yang sesuai.

Pada Survey yang dipublikasikan Springer ” Tio 10 Algorithm in Data Mining

(Budiman, 2012), algoritma K-Means ditempatkan pada posisi 2 (dua) sebagai algoritma paling banyak digunakan dalam Data Mining menjadi posisi pertama untuk algoritma Clustering. Urutan Top Algoritma-nya adalah sebagai berikut :

1) C4.5 2) K-Means

3) SVM (Support Vector Machines) 4) Algoritma Apriori 5) EM (Expectation Maximazation) 6) Algoritma PageRank 7) Algoritma AdaBoost 8) K-Nearest Neighbor 9) Naïve Bayes

b. Fuzzy K-Means Clustering

Fuzzy K-means Clustering atau fuzzy isodata dikembangkan oleh Bezdek pada tahun 1981 untuk menyelesaikan masalah optimasi (Agusta, 2007). Pengelompokan dengan mempertimbangkan tingkat keanggotaan yang mencakup himpunan fuzzy sebagai dasar pembobotan bagi pengelompokan disebut dengan Fuzzy Clustering. Metode

Fuzzy K-means Clustering merupakan pengembangan dari metode K-means Clustering untuk meminimalkan masalah kegagalan konvergen (Utami & Sutikno, 2010).

Metode K-Means Clustering memiliki matriks keanggotaan biner yaitu 0 dan 1, sedangkan fuzzy K-Means Clustering memiliki matriks keanggotaan kontinu antara 0 dan 1. Pada Fuzzy K-Means Clustering, fungsi keanggotaan memiliki nilai antara 0 sampai 1 dengan fungsi pembatas berikut:

Derajat keanggotaan terbesar dari setiap objek menunjukkan kecenderungan objek tersebut menjadi anggota dari kelompok tertentu. Prinsip utama dari fuzzy K-means Clustering adalah meminimumkan fungsi objektif, yaitu jarak antara objek dengan setiap pusat kelompok.

Tidak ada nilai w yang optimum, tetapi nilai w yang sering digunakan adalah 2 (Agusta, 2007). Fungsi objektif dapat diminimumkan dengan fungsi pembatas dengan menggunakan pengganda lagrange kelompok yang optimum pada metode fuzzy K- means clustering.

Dokumen terkait