• Tidak ada hasil yang ditemukan

PENERAPAN DATA MINING UNTUK MENGANALISA KEMUNGKINAN PENGUNDURAN DIRI CALON MAHASISWA BARU

N/A
N/A
Protected

Academic year: 2021

Membagikan "PENERAPAN DATA MINING UNTUK MENGANALISA KEMUNGKINAN PENGUNDURAN DIRI CALON MAHASISWA BARU"

Copied!
10
0
0

Teks penuh

(1)

PENERAPAN DATA MINING UNTUK MENGANALISA KEMUNGKINAN PENGUNDURAN DIRI CALON MAHASISWA BARU

Tacbir Hendro Pudjiantoro, Faiza Renaldi, dan Age Teogunadi Universitas jenderal Achmad Yani Cimahi

tacbir23501027@yahoo.com

ABSTRACT

Students are one important asset in a university, especially in private universities. The trends of acquired new students for private universities in Indonesia has declined and made new-enrollment process more challenging than ever before.

The trend of a late forfeit of registration makes it difficult for one university to predict the number of their new intake students in every new academic year. This research attempts to predict whether one prospective student will likely to continue their study or not, using a data mining method called ID3 algorithm. Set of rules will be created as a basis to be compared with new data which at the end will result in a prediction of whether a student will continue their study (registration process) or not. This research will be conducted in Universitas Jenderal Achmad Yani (UNJANI) using a 5- Year registration data. As for its end product, UNJANI will be able to predict (from the total number of registered prospective students), the possibility of each student that will continue the process up until they are studying in UNJANI.

The output of this DSS System will be implemented in the Promotion Div of New Student Intake (HUMAS/PPMB UNJANI) as the management will take further step in anticipating each year’s new student intake target.

Keywords: Data Mining, ID3 Algorithm, DSS System.

1. Pendahuluan

1.1 Latar Belakang Masalah

Perguruan tinggi kesulitan mendapatkan informasi mengenai jumlah mahasiswa baru yang akan resgistrasi dari daftar mahasiswa yang sudah dinyatakan lulus dalam seleksi penerimaan mahasiswa baru. Hal ini biasa terjadi di perguruan tinggi swasta dikarenakan biasanya perguruan tinggi swasta bukan menjadi pilihan pertama, sehingga apabila mereka diterima di perguran tinggi negeri, maka biasanya perguruan tinggi swasta tersebut ditinggalkan tanpa pemberitahuan meskipun mereka sudah dinyatakan diterima. Biasanya hal ini baru dapat diketahui pada akhir periode penerimaan mahasiswa baru, atau pertengahan semester 1. Hal ini akan menjadi sangat terlambat untuk mengambil tindakan apabila ternyata mahasiswa baru yang registrasi sangat sedikit jumlahnya.

1.2 Tujuan Penelitian

Penelitian ini dilakukan dengan tujuan untuk membantu pihak perguruan tinggi swasta, khususnya dalam hal memprediksi jumlah kemungkinan mahasiswa yang akan melakukan registrasi ulang secepat mungkin.

1.3 Rumusan Masalah

Pihak perguruan tinggi kesulitan mengetahui jumlah mahasiswa yang akan registrasi dari sejumlah calon mahasiswa yang sudah dinyatakan lolos seleksi penerimaan mahasiswa baru. Dengan tidak diketahuinya mahasiswa yang akan registrasi, maka pihak-pihak perguruan tinggi tidak dapat mengetahui dengan pasti kapan jumlah target penerimaan mahasiswa baru tercapai. Hal ini dikarenakan jumlah mahasiswa yang telah dinyatakan lolos seleksi penerimaan mahasiswa baru, tidak menggambarkan jumlah mahasiswa yang akan melakukan registrasi. Apabila hal tersebut baru diketahui pada akhir proses penerimaan mahasiswa baru akan mengakibatkan target menjadi tidak tercapai. Hal ini juga dapat menjadi gangguan dalam hal finansial, karena biasanya pembiayaan perguruan tinggi swasta sebagian besar dari dana yang didapatkan dari mahasiswa.

2. Landasan Teori 2.1 Data Mining

Data mining adalah proses yang menggunakan teknik statistik, matematika, kecerdasan buatan, dan machine learning untuk mengekstraksi dan mengidentifikasi informasi yang bermanfaat dan pengetahuan yang terkait dari database yang besar.

Data mining juga sering disebut knowledge discovery in database (KDD), yang semua prosesnya adalah kegiatan yang meliputi pengumpulan, pemakaian data historis untuk menemukan keteraturan, pola atau hubungan dengan set data yang berukuran besar. Keluaran dari data mining ini bisa dipakai untuk memperbaiki pengambilan keputusan di masa depan[1]. 2.2 Decision Tree Induction

Pohon keputusan merupakan metode klasifikasi dan prediksi yang sangat kuat dan terkenal. Pohon-keputusan bekerja dengan melibatkan/menggunakan satu set data pelatihan untuk menghasilkan pohon keputusan dengan mengklasifikasikan data pelatihan yang merepresentasikan aturan-aturan[3]. Jika pembelajaran telah dilakukan, maka pohon keputusan akan dibandingkan dengan mengklasifikasikan data masukan baru.

(2)

Data dalam pohon keputusan biasanya dinyatakan dalam bentuk Tabel dengan atribut dan record. Atribut menyatakan suatu parameter yang dibuat sebagai kriteria dalam pembentukan pohon. Misalkan untuk menentukan main tenis, kriteria yang paling diperhatikan adalah cuaca, angin dan temperatur. Salah satu atribut merupakan atribut yang menyatakan data solusi per-item data yang disebut target atribut. Salah satu algoritma pohon keputusan induksi yang terkenal adalah ID3, yang dikembangkan oleh Quinland pada 1980-an.

2.2 Algoritma ID3

Algoritma ID3 merupakan sebuah metode yang digunakan untuk membangkitkan pohon keputusan. ID3 adalah algoritma decision tree learning (algoritma pembelajaran pohon keputusan) yang paling dasar[2].

Karakteristik ID3 dalam membangun pohon keputusan adalah secara top-down. Top-down artinya pohon keputusan dibangun dari simpul akar ke daun. Dalam prosedur algoritma ID3, input adalah berupa sampel training, label training dan atribut. Algoritma pada metode ini berbasis pada Occam’s razor: lebih memilih pohon keputusan yang lebih kecil (teori sederhana) dibanding yang lebih besar. Node dipilih dengan memilih fitur data set pelatihan yang memberikan nilai informasi yang paling besar. Berikut algoritma dari ID3:

Algoritma ID3 (1) Create node N;

(2) If samples are all of the same class, C then (3) Return N as a leaf node labeled with the class C;

(4) if atribute-list is empty then

(5) Return N as a leaf node labeled with the most common class in samples; // majority voting (6) select test-atribute, atribute among atribute-list with the highest information gain;

(7) label node N with test-atribute;

(8) for each known value ai of test-atribute // partition the samples (9) grow a branch from node N for the condition test-atribute = ai;

(10) let si be the set of samples in samples for which test-atribute = ai; // a partition (11) if si is empty then

(12) attach a leaf labeled with the ,most common class in samples;

(13) else attach the node returned by Generate_decision_tree(si, attribute-list-test-atribute);

Adapun data sample yang digunakan oleh ID3 memiliki beberapa syarat, yaitu:

1. Deskripsi atribut-nilai.

Atribut yang sama harus mendeskripsikan tiap contoh dan memiliki jumlah nilai yang sudah ditentukan.

2. Kelas yang sudah didefinisikan sebelumnya.

Suatu atribut contoh harus sudah didefinisikan, karena mereka tidak dipelajari oleh ID3.

3. Kelas-kelas yang diskrit.

Kelas harus digambarkan dengan jelas. Kelas yang kontinu dipecah-pecah menjadi kategori-kategori yang relatif, misalnya saja metal dikategorikan menjadi “hard, quite hard, flexible, soft, dan quite soft”.

4. Jumlah contoh (example) yang cukup.

Karena pembangkitan induktif digunakan, maka dibutuhkan test case yang cukup untuk membedakan pola yang valid dari peluang suatu kejadian.

2.3 Entropy

Entropy adalah ukuran dari teori informasi yang dapat mengetahui karakteristik dari impury, dan homogenity dari kumpulan data. Sebuah obyek yang diklasifikasikan dalam pohon harus dites nilai entropinya. Dari nilai entropy tersebut kemudian dihitung nilai information gain (IG) masing-masing atribut. Pemillihan atribut pada ID3 dilakukan dengan properti statistik, yang disebut dengan information gain. Dengan tujuan untuk mendefinisikan gain, pertama-tama digunakanlah ide dari teori informasi yang disebut entropi. Entropi mengukur jumlah dari informasi yang ada pada atribut. Rumus menghitung entropi informasi adalah:

Entropy(S) = -p+ log p+ - p- log2 p- (1) Dimana:

S = ruang (data) sample yang digunakan untuk training.

P+ = adalah jumlah yang bersolusi positif (mendukung) pada data sample untuk kriteria tertentu.

P- = adalah jumlah yang bersolusi negatif (tidak mendukung) pada data sample untuk kriteria tertentu.

2.4 Infornation Gain

Information Gain adalah ukuran efektivitas suatu atribut dalam mengklasifikasikan data. Gain digunakan untuk mengukur seberapa baik suatu atribut memisahkan training example ke dalam kelas target. Atribut dengan informasi tertinggi akan dipilih. Secara matematis, infomation gain dari suatu atribut A, dituliskan sebagai berikut:

(3)

Gain(S,A) = Entropy(S) - ∑ Entropy(Sv) (2) Dimana:

A = atribut

v = menyatakan suatu nilai yang mungkin untuk atribut A Values(A): himpunan yang mungkin untuk atribut A |S| = jumlah seluruh sempel data

Entropy(Sv) = entropy untuk sample-sample yang memiliki nilai v 3. Metode Penelitian

Metode penelitian yang dilakukan seperti yang tergambar pada Gambar 1. Proses awal adalah mengolah data kelulusan dan registrasi calon mahasiswa baru 5 tahun ke belakang. Data tersebut dijadikan data sample untuk membentuk pohon keputusan yang akan membentuk aturan dengan menggunakan algoritma ID3. Setelah aturan terbentuk, selanjutnya adalah memasukkan data calon mahasiswa baru yang sudah lolos seleksi untuk diprediksi dengan menggunakan aturan tadi.

Gambar 1. Metode Penelitian 3.1 Pembentukan Pohon Keputusan

Proses pembentukan pohon keputusan dalam pengelolaan data digunakan untuk menurunkan atribut-atribut pada data menjadi pohon keputusan sehingga menghasilkan aturan-aturan.

Misalnya terdapat data sample mahasiswa dari sebuah universitas, kemudian dari data tersebut dipilih atribut-atribut yang bisa mewakili atribut lain yang ada pada data untuk dicari pola atau informasi yang ada di dalamnya. Karena keterbatasan sample data yang digunakan, maka terpilihlah 12 atribut yang akan digunakan untuk pembentukan pohon keputusan.

Setelah pemilihan atribut, tahap selanjutnya adalah cleaning terhadap data yang terduplikasi, data yang tidak lengkap ataupun data yang salah dalam penulisannya.

Adapun data mahasiswa yang dijadikan sebagai sample dengan 12 atribut yang dipilih untuk pembentukan pohon keputusan, dapat dilihat pada Tabel 1.

Tabel 1. Tabel Sample Pembentukan Tree KOD

E_PR ODI

JENIS_

KELA MIN

KOD E_A GAM A

KOD E_G OLD ARA H

KODE_

PEKER JAAN

KODE_P ENGHA

SILAN

KODE_

JURUS ANSLT

A

KODE_

ASALS EKOL

AH

KOD E_PR ODI1

KOD E_PR ODI2

KOD E_PR ODI3

GE LO MB AN G

REGIS TRASI

34 W I 1 16 D 01 000000

00 41 33 34 0 Tidak

25 W I 4 18 C 01 000002

12 41 33 25 0 Tidak

33 P I 2 18 D 01 000003

04 41 33 34 0 Tidak

(4)

KOD E_PR ODI

JENIS_

KELA MIN

KOD E_A GAM A

KOD E_G OLD ARA H

KODE_

PEKER JAAN

KODE_P ENGHA

SILAN

KODE_

JURUS ANSLT A

KODE_

ASALS EKOL AH

KOD E_PR ODI1

KOD E_PR ODI2

KOD E_PR ODI3

GE LO MB AN G

REGIS TRASI

33 W I 4 18 A 01 000002

67 41 33 71 0 Tidak

34 P I 1 01 C 01 000002

62 34 25 27 0 Tidak

71 P I 4 10 A 01 000002

30 41 71 33 0 Registr

asi

71 W I 2 18 D 01 000002

67 41 71 33 0 Tidak

33 W I 4 16 C 10 000000

00 33 41 71 0 Registr

asi

26 W I 1 11 D 01 000002

22 41 33 26 0 Tidak

33 P I 1 18 E 01 000002

71 41 33 34 0 Registr

asi

33 W I 4 10 A 01 000003

04 33 71 26 0 Registr

asi

25 W I 2 01 A 01 000001

54 33 25 34 0 Tidak

34 P I 3 10 C 01 000000

44 41 12 34 0 Tidak

25 P I 1 16 A 01 000000

00 41 33 25 0 Registr

asi 3.2 Perhitungan Entropy dan Information Gain

Penurunan atribut menjadi pohon keputusan menggunakan algoritma ID3 dilakukan dengan konsep Entropy dan Information gain. Konsep ini digunakan untuk menentukan node induk dan node daun dalam pohon keputusan. Sebuah obyek yang diklasifikasikan dalam pohon harus dites nilai entropinya. Entropy adalah ukuran dari teori informasi yang dapat mengetahui karakteristik dari impury, dan homogenity dari kumpulan data. Dari nilai entropy tersebut kemudian dihitung nilai information gain (IG) masing-masing atribut.

Pemillihan atribut pada ID3 dilakukan dengan properti statistik, yang disebut dengan information gain. Gain mengukur seberapa baik suatu atribut memisahkan training example ke dalam kelas target. Atribut dengan informasi tertinggi akan dipilih. Dengan tujuan untuk mendefinisikan gain, pertama-tama digunakanlah ide dari teori informasi yang disebut entropy. Entropy mengukur jumlah dari informasi yang ada pada atribut. Setelah mendapat nilai entropy untuk suatu kumpulan data, maka kita dapat mengukur efektivitas suatu atribut dalam mengklasifikasikan data. Ukuran efektifitas ini disebut information gain.

Untuk penentuan node pertama dalam pembentukan pohon keputusan. Maka harus menghitung nilai entropy terlebih dahulu. Setelah mendapatkan hasil entropy maka barulah selanjutnya dapat menghitung nilai information gain untuk mencari node yang akan menjadi node induk. Hasil yang didapatkan untuk penghitungan terhadap entropy dan information gain terhadap sample data pada Tabel 2, dapat dilihat pada Tabel 3.

Tabel 2 Tabel Perhitungan Node Induk

Node Variable Value Count Yes No Entropy Gain

0

KODE_PRODI

14 5 9 0.940285959

0.253883068

25 3 1 2 0.918295834

26 1 0 1 0

33 5 3 2 0.970950594

34 3 0 3 0

71 2 1 1 1

JENIS_KELAMIN 0.04812703

(5)

Node Variable Value Count Yes No Entropy Gain 0

JENIS_KELAMIN P 6 3 3 1

W 8 2 6 0.811278124

KODE_AGAMA 0

I 14 5 9 0.940285959

KODE_GOLDARAH

0.269744684

1 5 3 1 0.906564975

2 3 0 3 0

3 1 0 1 0

4 5 3 2 0.970950594

KABUPATEN

0.029222566 Kab. Karawang 3 1 2 0.918295834

Kab. Bandung 4 2 2 1

Kota. Bandung 3 1 2 0.918295834

Kab. Bogor 4 1 3 0.811278124

KODE_PEKERJAAN

0.288899139

1 2 0 2 0

10 3 2 1 0.918295834

11 1 0 1 0

16 3 2 1 0.918295834

18 5 1 4 0.721928095

KODE_PENGHASILAN

0.361724139

A 5 3 2 0.970950594

C 4 1 3 0.811278124

D 4 0 4 0

E 1 1 0 0

KODE_JURUSANSLTA

0.113400864

1 13 4 9 0.89049164

10 1 1 0 0

KODE_MEDIAINFO 0.276081651

A 2 2 0 0

I 1 0 1 0

J 11 3 8 0.845350937

KODE_PRODI1

0.227845355

33 3 2 1 0.918295834

34 1 0 1 0

41 10 2 8 0.721928095

KODE_PRODI2

0.311947996

12 1 0 1 0

25 2 0 1 0

(6)

Node Variable Value Count Yes No Entropy Gain 0

KODE_PRODI2

33 7 2 5 0.863120569

41 1 1 0 0

71 3 2 1 0.918295834

KODE_PRODI3

0.083143102

25 2 1 1 1

26 2 1 1 1

27 1 0 1 0

33 2 1 1 1

34 4 1 3 0.811278124

71 3 2 1 0.918295834

GELOMBANG 0

0 14 5 9 0.940285959

Dari hasil perhitungan Tabel 2 di atas maka didapatlah node induk dalam pembentukan pohon keputusan, Perhitungan tersebut dilihat dari nilai perhitungan information gain terbesar dari atribut-atribut yang ada dengan menggunakan data pada Tabel 1. Node yang dihasilkan dapat dilihat pada Gambar 2.

Gambar 2. Node Induk

Node induk mempunyai empat akar dari node, dimana akar ini dihasilkan dari data yang ada pada atribut kode penghasilan. Node induk di atas mempunyai empat cabang A, C, D, E yang merupakan class dari data kode penghasilan.

Pencarian nilai entropy dan information gain dari node daun sama dengan perhitungan untuk pencarian node induk, tetapi untuk perhitungan node daun entropy yang digunakan adalah perhitungan entropy dari node induk yaitu kode penghasilan. Adapun perhitungan node daun dari akar kode penghasilan yang bernilai A dapat dilihat pada Tabel 3.

Tabel 3. Perhitungan Node Daun

Node Variable Value Count Yes No Entropy Gain

1

KODE_PRODI

5 3 2 0.970950594

0.570950594

25 2 1 1 1

33 2 1 1 1

71 1 1 0 0

JENIS_KELAMIN

0.419973094

P 2 2 0 0

W 3 2 1 0.918295834

(7)

Node Variable Value Count Yes No Entropy Gain 1

KODE_AGAMA 0

I 5 3 2 0.970950594

KODE_GOLDARAH

0.419973094

1 1 0 1 0

2 1 0 1 0

4 3 2 1 0.918295834

KABUPATEN

0.170950594 Kab.

Karawang 2 1 1 1

Kab. Bandung 2 1 1 1

Kab. Bogor 1 1 0 0

0.970950594

KODE_PEKERJAAN

1 1 0 1 0

10 2 2 0 0

16 1 1 0 0

18 1 0 1 0

KODE_JURUSANSLTA 0

1 5 3 2 0.970950594

KODE_MEDIAINFO

0.419973094

A 2 2 0 0

J 3 1 2 0.918295834

KODE_PRODI1

0.219973094

33 2 1 2 0.5

41 3 2 1 0.918295834

KODE_PRODI2

0.570950594

25 1 0 1 0

33 2 1 1 1

71 2 2 0 0

KODE_PRODI3

0.970950594

25 1 1 0 0

26 1 1 0 0

33 1 1 0 0

34 1 0 1 0

71 1 0 1 0

GELOMBANG 0

0 5 3 2 0.970950594

Hasil dari perhitungan entropy dan information gain di atas menyatakan perhitungan gain yang paling besar adalah kode pekerjaan, sehingga kode pekerjaan terpilih menjadi node daun dari kode penghasilan dari akar A. Adapun gambar pohon yang terbentuk seperti pada Gambar 3.

(8)

Gambar 3 Node Daun Akar A

Dari Gambar 3 terlihat node daun dari kode penghasilan dengan akar A yaitu kode pekerjaan. Kode node daun tersebut mempunyai beberapa akar yaitu 01, 10, 16, 18. Dari akar ini dicari lagi apakah masih memiliki penurunan node daun.

Dari sample pada Tabel 1 dinyatakan bahwa dari node daun kode pekerjaan tidak akan menghasilkan node daun dikarenakan data pada atribut kode pekerjaan dengan akar 01, semua data telah mengacu pada hasil akhir yaitu tidak melakukan registrasi. Untuk kode pekerjaan dengan akar 10, semua data telah mengacu pada hasil akhir registrasi. Untuk kode pekerjaan dengan akar 16, semua data telah mengacu dengan hasil akhir registrasi, dan untuk node pekerjaan dengan akar 18, semua data telah mengacu pada hasil akhir tidak registrasi. Adapun pohon keputusan yang dihasilkan dapat dilihat pada Gambar 4.

Gambar 4 Node Akhir

Untuk perhitungan pada akar lain dari kode penghasilan dapat dilakukan menggunakan cara yang sama pada pencarian yang dilakukan terhadap akar A dari kode penghasilan. Dari hasil perhitungan nilai entropy dan information gain secara menyeluruh maka terbentuklah sebuah pohon keputusan, seperti pada Gambar 5.

(9)

Gambar 5 Pohon Keputusan Akhir

Dari pohon keputusan pada Gambar 5 yang dihasilkan berdasarkan Tabel 1. didapat hasil analisa berdasarkan data sample yang digunakan yang menyatakan bahwa jika pekerjaaan orang tua dengan kode penghasilan D dengan tingkat penghasilan yang tinggi cenderung tidak melakukan registrasi karena tidak lulus pada jurusan pilihan pertama yaitu jurusan kedokteran. Ini membuktikan bahwa kode penghasilan orang tua merupakan faktor yang menentukan dalam keputusan akan melakukan registrasi atau tidak.

Pohon keputusan yang dihasilkan bersifat dinamis tergantung dari jumlah data dan atribut yang digunakan dalam sample training. Dari pohon keputusan yang dihasilkan akan terbentuk aturan-aturan dari penurunan data. Dari sample mahasiswa yang digunakan maka terbentuklah aturan-aturan:

DAFTAR ATURAN:

1 JIKA KODE_PENGHASILAN = A DAN KODE_PEKERJAAN = 01 MAKA Tidak

2 JIKA KODE_PENGHASILAN = A DAN KODE_PEKERJAAN = 10 MAKA Registrasi

3 JIKA KODE_PENGHASILAN = A DAN KODE_PEKERJAAN = 16 MAKA Registrasi

4 JIKA KODE_PENGHASILAN = A DAN KODE_PEKERJAAN = 18 MAKA Tidak

5 JIKA KODE_PENGHASILAN = C DAN KODE_PRODI = 25

MAKA Tidak

6 JIKA KODE_PENGHASILAN = C DAN KODE_PRODI = 33

MAKA Registrasi

7 JIKA KODE_PENGHASILAN = C DAN KODE_PRODI = 34

MAKA Tidak

8 JIKA KODE_PENGHASILAN = D MAKA Tidak

9 JIKA KODE_PENGHASILAN = E MAKA Registrasi

4. Hasil Penelitian dan Diskusi

Dengan menggunakan data calon mahasiswa 2007-2009 yang digunakan sebagai data sample untuk pembentukan pohon keputusan, didapatkan hasil kecocokan prediksi dengan menggunakan 600 data calon mahasiswa baru 2010 yang di ujikan terdapat tingkat kecocokan hasil prediksi dengan hasil nyata sebesar 61,89%. Hasil uji tersebut menyatakan sistem cukup layak untuk digunakan dalam prediksi calon mahasiswa baru meskipun sistem belum menghasilkan tingkat akurasi yang maksimal.

(10)

Untuk mendapatkan nilai yang maksimal, sebaiknya data sampel yang digunakan harus lebih banyak lagi. Data yang digunakan sebagai data sampel dalam penelitian ini sebanyak 2000 data setelah melalui tahapan cleaning data. Semakin banyak data sampel yang digunakan, maka semakin baik kualitas pembentukan aturan yang terbentuk.

Daftar Pustaka

[1] Fayyad, Usama. (1996). Advance in Knowledge Discovery and Data Mining. MIT Press.

[2] Wahyudin. “Metode Iterative Dichotomizer 3 ( ID3 ) Untuk Penerimaan Mahasiswa Baru”, Jurnal Program Studi Ilmu Komputer, Universitas Pendidikan Indonesia, http://file.upi.edu/Direktori/FPMIPA/PRODI._ILMU_

KOMPUTER/WAHYUDIN/metode_ID3_untuk_mhs_baru.pdf, diakses terakhir tanggal 19 )ktober 2011.

[3] Defiyanti, Sofi., Pardede, Crispina, D. L. “Perbandingan Kinerja Algoritma Id3 Dan C4.5 Dalam Klasifikasi Spam-Mail”, Jurnal Jurusan Sistem Informasi, Sistem Komputer, Universitas Gunadarma, http://openstorage.

gunadarma.ac.id/~mwiryana/KOMMIT/per-artikel/03-02-004-Perbandingan%5BSofi%5D.pdf, diakses terakhir tanggal 19 Oktober 2011.

[4] Pussisfo. (2010). Data Calon Mahasiswa Baru, Universitas Jenderal Achmad Yani, Cimahi.

Gambar

Tabel 1. Tabel Sample Pembentukan Tree  KOD E_PR ODI  JENIS_ KELAMIN  KODE_A GAM A  KODE_GOLDARA H  KODE_PEKERJAAN  KODE_PENGHASILAN  KODE_JURUS ANSLTA  KODE_ASALSEKOLAH  KOD E_PR ODI1  KOD E_PR ODI2  KOD E_PR ODI3  GE LO MBANG  REGIS TRASI  34  W   I   1
Tabel 2 Tabel Perhitungan Node Induk
Tabel 3. Perhitungan Node Daun
Gambar 3 Node Daun Akar A
+2

Referensi

Dokumen terkait

Tujuan dalam penelitian ini adalah untuk menganalisis perbedaan pengetahuan dan sikap ibu dengan anak penyandang autis sebelum dan sesudah pemberian pendidikan

Berdasarkan hasil penelitian terdapat tujuh kategori kesulitan belajar yang dialami peserta didik dalam belajar fisika melalui pembelajaran daring di SMA Negeri

Sebagai muslimah kita harus tahu jilbab yang dapat menutup aurat, aurat yang menutup dada dan tidak terlihat lekuk tubuh muslimah. muslimah harus tau apa

Laporan Penelitian Tugas Akhir ini disusun untuk memenuhi syarat kelulusan tugas akhir pada Program Strata Satu (S1) pada Fakultas Teknik Jurusan Teknik Industri di

Puskesmas Pembantu dengan kunjungan tertinggi adalah Puskesmas Pembantu Karang anyar sebesar 1.812 Pasien dengan rata-rata kunjungan 906 pasien per bulan dan Puskesmas pembantu

Peranan hipersensitivitas tipe I yang diperantarai oleh Ig E dalam patogenesis dermatitis atopik didasarkan kepada penelitian yang menunjukkan sekitar _ anak dengan dermatitis

Tujuan: Penelitian ini bertujuan untuk mengetahui efek toksik infusa daun salam ( Syzygium polyanthum (Wight) Walp.) terhadap gambaran histopatologi hepar tikus

Tambahan pula, ilmu-ilmu yang dipelajari “ membantu ” mereka “ memperkembangkan lagi ” ilmu pengajian Islam secara “ lebih luas .” Bagi peserta kajian PKK2 pula,