• Tidak ada hasil yang ditemukan

APLIKASI MATRIKS VARIAN-KOVARIAN ROBUST PADA ANALISIS FAKTOR SKRIPSI AYU ANDINI

N/A
N/A
Protected

Academic year: 2022

Membagikan "APLIKASI MATRIKS VARIAN-KOVARIAN ROBUST PADA ANALISIS FAKTOR SKRIPSI AYU ANDINI"

Copied!
39
0
0

Teks penuh

(1)

APLIKASI MATRIKS VARIAN-KOVARIAN ROBUST PADA ANALISIS FAKTOR

SKRIPSI

AYU ANDINI 140803034

DEPARTEMEN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA

MEDAN 2018

(2)

APLIKASI MATRIKS VARIANS-KOVARIANS ROBUST PADA ANALISIS FAKTOR

SKRIPSI

Ditulis Sebagai Syarat untuk Mencapai Gelar Sarjana Sains di Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Sumatera Utara.

AYU ANDINI 140803034

DEPARTEMEN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA

MEDAN 2018

(3)

i

PERNYATAAN ORISINALITAS

APLIKASI MATRIKS VARIAN-KOVARIAN ROBUST PADA ANALISIS FAKTOR

SKRIPSI

Saya mengakui bahwa skripsi ini adalah hasil kerja saya sendiri,kecuali beberapa kutipan dan ringkasan yang masing-masing disebutkan sumbernya.

Medan, September 2018

Ayu Andini 140803034

(4)

PENGESAHAN SKRIPSI

Judul : Aplikasi Matriks Varian-Kovarian Robust Pada Analisis Faktor

Kategori : Skripsi

Nama : Ayu Andini

Nomor Induk Mahasiswa : 140803034

Program Studi : Sarjana (S1) Matematika

Departemen : Matematika

Fakultas : Matematika dan Ilmu Pengetahuan Alam Universitas Sumatera Utara

Disetujui di

Medan, September 2018

Komisi Pembimbing: Disetujui Oleh

Departemen Matematika FMIPA USU

Pembimbing Ketua

Dr. Elly Rosmaini, M.Si Dr. Suyanto, M.Kom NIP.196005201985032002 NIP.195908131986011002

(5)

iii

APLIKASI MATRIKS VARIAN-KOVARIAN ROBUST PADA ANALISIS FAKTOR

ABSTRAK

Salah satu metode estimasi pada analisis faktor adalah metode analisis komponen utama. Analisis Faktor dengan metode Analisis Komponen Utama menjelaskan struktur matriks varian-kovarian data melalui sejumlah kecil komponen yang tidak saling berkorelasi, dimana komponen tersebut merupakan kombinasi linier dari variabel-variabel asal sedemikian hingga mempunyai variansi yang maksimal.

Matriks varian-kovarian robust dapat diestimasikan dengan Minimum Volume Ellipsoid (MVE). Pada penelitian ini, faktor loading yang dihasilkan dari setiap variabel dengan estimasi robust dan estimasi klasik memiliki perbedaan, yaitu dengan estimasi robust faktor loading-faktor loading yang dihasilkan memiliki nilai yang tidak jauh berbeda. Seperti pada variabel X1 faktor loading-nya adalah 2,6069; -3,2191; dan -0,0762. Sedangkan dengan estimasi biasa (klasik) faktor loading-faktor loading yang dihasilkan memiliki perbedaan nilai yang cukup jauh.

Seperti pada variabel X1 faktor loading-nya adalah 1,6546; 13,4489; dan -0,5143.

Kata Kunci: Analisis faktor, analisis komponen utama, multivariat, MVE, robust

(6)

THE APPLICATION OF ROBUST VARIANCE-COVARIANCE MATRIX ON FACTOR ANALYSIS

ABSTRACT

One of the estimation methods in factor analysis is the principal component analysis method. Factor Analysis with the Principal Component Analysis method describes the structure of the variance-covariance matrix of data through a small number of components that are not correlated with each other, where the component is a linear combination of the origin variables so that they have maximum variance. The robust covariance-variant matrix can be estimated by the Minimum Ellipsoid Volume (MVE). In this study, the robust estimated factor loading and the classic estimated factor loading have different results such in variable X1 , the factor loadings are 2,6069; -3,2191; and -0,0762. However, the classic estimated factor loadings are 1,6546; 13,4489; and -0,5143.

Keyword: Factor Analysis, Multivariate, MVE, Principal Component Analysis, Robust

(7)

v

PENGHARGAAN

Puji dan syukur penulis panjatkan kepada Allah SWT, atas limpahan karunia-Nya penulis dapat menyelesaikan penyusunan skripsi dengan judulAplikasi Matriks Varian-KovarianRobust Pada Analisis Faktordengan baik,guna melengkapi syarat memperoleh gelar S1Matematika pada Fakultas Matematika dan Ilmu Pengetahuan Alam diUniversitas Sumatera Utara.

Dalam kesempatan ini, penulis ingin mengucapkan terima kasih yangsebesar-besarnya kepada semua pihak yang telah membantu dan membimbingpenulis dalam penyusunan skripsi ini, ucapan terima kasih penulis sampaikankepada Bapak Alm. Drs. Pengarapen Bangun, M.Si dan IbuDr. Elly Rosmaini, M.Si selaku Dosen Pembimbing.Bapak Dr. Sutarman, M.Scdan IbuDra. Laurentina Pangaribuan, MSselaku DosenPembanding atas segala saran dan masukan yang diberikan dalam penyelesaian skripsi ini.Bapak Dr. Suyanto, M.Kom dan Bapak Drs. Rosman Siregar, M.Siselaku Ketua dan Sekretaris Departemen Matematika FMIPA USU.Bapak Dr. Kerista Sebayang, MS selaku Dekan FMIPA USU serta semuaWakil Dekan FMIPA USU.Semua Dosen Departemen Matematika FMIPA-USU dan pegawai diFMIPA-USU.Ayahanda Helmi Wahyudi, Ibunda Suriyani, M.Pd,Saudara penulis, Ari Andrian, S.T dan Dimas Anhari, serta keluarga yang memberikan doa dan dukungan bagi penulis.Seluruh teman-teman.

Penulis menyadari bahwa masih terdapat banyak kekurangan dalam penulisanskripsi ini. Maka, diperlukan kritik dan saran dari pembaca untukpenyempurnaan skripsi ini.

Medan, September 2018 Penulis

Ayu Andini

(8)

DAFTAR ISI

Halaman

PERNYATAAN ORISINALITAS i

PENGESAHAN SKRIPSI ii

ABSTRAK iii

ABSTRACT iv

PENGHARGAAN v

DAFTAR ISI vi

BAB 1 PENDAHULUAN

1.1 Latar Belakang 1

1.2 Rumusan Masalah 2

1.3 Batasan Masalah 3

1.4 Tujuan Penelitian 3

1.5 Manfaat Penelitian 3

1.6 Metodologi Penelitian 3

BAB 2 TINJAUAN PUSTAKA

2.1 Matriks 5

2.1.1 Definisi Matriks 5

2.1.2 Matriks Invers 5

2.1.3 Matriks Definit dan Semidefinit Positif 6

2.1.4 Matriks Ortogonal 6

2.1.5 Matriks Simetrik 7

2.1.6 Matriks Transpose A 7

2.1.7 Matriks Identitas 7

2.1.8 Determinan Matriks 7

2.2 Analisis Faktor 8

2.3 Metode Estimasi 11

2.3.1 Analisis Komponen Utama 12 2.3.2 Faktor Model Solusi Komponen Utama 14 2.4 Analisis Komponen Utama Yang Robust 14

2.5 Minimum Volume Ellipsoid (MVE) 15

2.5.1 Algoritma MVE 15

BAB 3 HASIL DAN PEMBAHASAN

3.1 Pengumpulan Data 18

3.2 Analisis Faktor Dengan Metode MVE 3.3 Analisis Faktor Klasik

19 21

3.4 Estimated Factor Loading 23

BAB 4 KESIMPULAN DAN SARAN

4.1 Kesimpulan 25

4.2 Saran 25

(9)

vii

DAFTAR PUSTAKA 26

LAMPIRAN

(10)

BAB I PENDAHULUAN

1.1 Latar Belakang

Teknik multivariat berperan dalam mengakomodasi banyak variabel untuk memahami hubungan kompleks yang tidak bisa dipahami dengan metode univariat atau bivariat. Semakin banyak variabel, semakin besar kemungkinan bahwa variabel- variabel tersebut berhubungan (berkorelasi) dan tidak mewakili konsep yang berbeda atau variabel-variabel ini mewakili konsep yang lebih umum.

Analisis faktor membantu pemilihan variabel-variabel yang lebih representatif atau membuat variabel baru sebagai pengganti variabel asli tapi masih mengandung karakteristik dari variabel asli tersebut. Ada beberapa metode estimasi pada analisis faktor, salah satunya adalah metode analisis komponen utama.

Analisis Faktor dengan metode Analisis Komponen Utama (Principal Component Analysis) menjelaskan struktur matriks varian-kovarian data melalui sejumlah kecil komponen yang tidak saling berkorelasi, dimana komponen tersebut merupakan kombinasi linier dari variabel-variabel asal sedemikian hingga mempunyai variansi yang maksimal. Seringkali Analisis Komponen Utama digunakan sebagai langkah pertama dalam analisis data, seperti dalam regresi komponen utama, analisis diskriminan, analisis cluster dan berbagai metode analisis multivariat lainnya.

Matriks varian-kovarian sangat sensitif terhadap pengamatan outlier. Pada kenyataannya, data lapangan seringkali mengandung beberapa pengamatan outlier dan biasanya tidak mudah untuk dipisahkan dari data. Oleh karena itu, penyusutan dimensi data berdasarkan Analisis Komponen Utama yang klasik menjadi tidak dapat diandalkan lagi apabila pengamatan outlier muncul dalam data (Sujatmiko et al., 2005).

Outlier adalah pengamatan yang berada jauh (ekstrim) dari pengamatan- pengamatan lainnya. Pendeteksian outlier pada pengamatan univariat telah dilakukan

(11)

2

oleh Hawkins (1980) yang melihat suatu outlier tunggal pada sampel dengan melihat pengamatan yang menyimpang dari pengamatan lain. Barnet dan Lewis (1994) melihat pengaruh pengamatan yang tidak konsisten dengan pengamatan lain pada proses multivariat, Pena dan Prieto (2001) menyajikan prosedur pendeteksian outlier didasarkan pada analisis proyeksi dari titik-titik sampel, dan Filzmoser (2005) mengidentifikasi outlier didasarkan pada jarak Mahalanobis.

Keberadaan outlier akan mengganggu dalam proses analisis data dan harus dihindari dalam banyak hal. Dalam kaitannya dengan analisis, outlier dapat menyebabkan residual yang besar dari model yang terbentuk, varians pada data tersebut menjadi lebih besar, taksiran interval memiliki rentang yang lebar.

Pengamatan outlier dapat diatasi dengan Analisis Komponen Utama yang robust. Pendekatan pertama dilakukan dengan menggantikan matriks varian-kovarian yang klasik dengan suatu estimator yang robust. Berbagai metode untuk mendapatkan estimator yang robust telah banyak ditawarkan. Namun, breakdown point (tingkat robust) yang dimiliki tidak lebih dari 1

(𝑝+1) , dimana p merupakan dimensi data. Hal ini berarti bahwa untuk dimensi yang besar, suatu kelompok pencemar yang sangat kecil dapat menghasilkan estimasi yang masih dipengaruhi oleh pengamatan outlier. Matriks varian-kovarian robust dapat diestimasikan dengan fast Minimum Covariance Determinant (fast-MCD) atau Minimum Volume Ellipsoid (MVE). Pada penelitian ini penulis menggunakan metode MVE sebagai estimator robust pada matriks varian-kovarian. Biasnya yang rendah membuat MVE sangat berguna untuk deteksi outlier dalam data multivariat, sering kali melalui penggunaan jarak robust berbasis MVE.

Dari uraian di atas, penulis mencoba membuktikan performansi Analisis Faktor dengan metode Analisis Komponen Utama yang menggunakan estimator MVE.

1.2 Rumusan Masalah

Berdasarkan latar belakang di atas, didapati bahwa outlier akan mengganggu hasil dari analisis faktor. Gangguan ini disebabkan oleh matriks varian-kovarian yang

(12)

3

tidak konsisten di dalam analisis faktor. Maka, salah satu metode yang dapat digunakan untuk menaksir matriks varian-kovarian adalah Minimum Volume Ellipsoid (MVE).

1.3 Batasan Masalah

Adapun yang menjadi batasan masalah dalam penulisan skripsi ini yaitu metode yang digunakan pada Analisis Faktor adalah metode Analisis Komponen Utama dengan estimator Minimum Volume Ellipsoid (MVE).

1.4 Tujuan Penelitian

Tujuan utama dari penelitian ini adalah menggunakan matriks varian-kovarian robust pada analisis faktor dan memperlihatkan bahwa Minimum Volume Ellipsoid (MVE) merupakan estimator robust yang berguna untuk pendeteksian outlier pada data multivariat.

1.5 Manfaat Penelitian

Manfaat dari penelitian ini adalah sebagai referensi pengaplikasian matriks varian- kovarian robust pada analisis faktor.

1.6 Metodologi Penelitian

Penelitian disusun dengan langkah-langkah sebagai berikut:

1. Studi Pendahuluan

Mengumpulkan dan mempelajari berbagai informasi berupa buku-buku ataupun jurnal-jurnal yang berhubungan dengan analisis faktor dan estimasi MVE.

2. Pengumpulan Data

(13)

4

Data yang digunakan sebagai contoh pengaplikasian adalah data Stackloss Brownlee.

3. Melakukan perhitungan analisis faktor robust dengan langkah sebagai berikut:

a. Menghitung estimator parameter model untuk analisis faktor robust.

b. Melakukan analisis faktor dengan menggunakan estimator robust.

c. Menghitung proporsi kumulatif varian yang dapat dijelaskan dari hasil yang didapat dari analisis faktor robust.

4. Membuat kesimpulan.

(14)

BAB 2

TINJAUAN PUSTAKA

Pada bab ini akan diurai tinjauan pustaka yang digunakan di dalam penulisan skripsi ini.

2.1 Matriks

2.1.1 Definisi Matriks

Sebuah matriks adalah jajaran empat persegi panjang dari bilangan-bilangan.

Bilangan-bilangan dalam jajaran tersebut disebut entri dari matriks (Anton & Rorres, 2004).

Matriks dapat dituliskan sebagai berikut:

𝑨 = [

𝑎11 𝑎12 ⋯ 𝑎1𝑝 𝑎21 𝑎22 ⋯ 𝑎2𝑝

⋮ 𝑎𝑝1

⋮ 𝑎𝑝2

⋮ 𝑎𝑝𝑝

]

2.1.2 Matriks Invers

Invers matriks A merupakan matriks kebalikan dari A. Hal tersebut dapat dinyatakan dengan 𝑨−1. Adapun formulasi invers dinyatakan sebagai berikut :

𝑨−1= 1

|𝑨|𝑎𝑑𝑗(𝑨) dimana,

|𝑨| : determinan A

𝑎𝑑𝑗(𝑨) : adjoint A atau transpose dari matriks kofaktor A

Invers matriks A merupakan kebalikan dari matriks A, maka hasil dari perkalian antara matriks A dengan inversnya akan menghasilkan identitas (I).

𝑨𝑨−1= 𝑨−1𝑨 = 𝑰

(15)

6

Dimana,

𝑨−1 : invers matriks 𝑨 : matriks A

𝑰 : matriks identitas (Anton & Rorres, 2004).

2.1.3 Matriks Definit dan Semidefinit Positif

Sebuah matriks A berukuran 𝑛 × 𝑛 dikatakan bersifat definit positif jika untuk sembarang vektor 𝒙 ≠ 0 , bentuk kuadratik 𝒙−𝟏𝑨𝒙 > 0. Sedangkan dikatakan semidefinit jika 𝒙−𝟏𝑨𝒙 ≥ 0. Jika A adalah definit positif maka persamaan 𝒙−𝟏𝑨𝒙 = c dengan c adalah konstanta. Jika A adalah matriks diagonal yang semua unsur diagonalnya bernilai positif, maka A adalah matriks definit positif. Akan tetapi, apabila ada sebuah unsur bernilai nol dan yang lain positif maka A akan menjadi matriks semidefinit positif. Matriks diagonal yang unsurnya ragam peubah akan bersifat demikian karena ragam tidak pernah bernilai negatif.

Matriks yang definit positif, akar-akar cirinya semua bernilai positif dan determinan dari matriks definit positif juga bernilai positif karen berupa hasil perkaliannya. Jadi determinannya tidak sama dengan nol, sehingga A bersifat non- singular.

Matriks B berukuran 𝑚 × 𝑛, maka 𝐁𝐁𝐓 dan 𝐁𝐓𝐁 bersifat semidefinit positif. Jika 𝑚 < 𝑛 dan 𝑟(𝐵) = 𝑚, maka 𝐁𝐁𝐓 definit positif, tetapi 𝐁𝐓𝐁 masih semidefinit positif.

2.1.4 Matriks Ortogonal

Suatu matriks bujur sangkar A disebut ortogonal jika 𝑨𝑨𝑇 = 𝑨𝑇𝑨 = 𝑰 yaitu jika 𝑨𝑇 = 𝑨−1.

(16)

7

2.1.5 Matriks Simetrik

Sebuah matriks A berukuran n x n dikatakan simetrik jika AT = A. Misalnya, jika aij adalah unsur ke (i,j) dari matriks, maka untuk matriks simetrik adalah aij = aji , untuk semua i dan j.

2.1.6 Matriks Transpose A

Jika A adalah sebarang matriks 𝑚 × 𝑛, maka transpose dari A dinyatakan oleh AT dan didefinisikan dengan matriks 𝑛 × 𝑚 yang didapatkan dengan mempertukarkan baris-baris dan kolom-kolom dari A, sehingga kolom pertama dari AT adalah baris pertama dari A, kolom kedua dari AT adalah baris kedua dari A, dan seterusnya (Anton & Rorres, 2004).

2.1.7 Matriks Identitas

Jika R adalah bentuk eselon baris tereduksi dari matriks 𝐴𝑛×𝑛 , maka terdapat dua kemungkinan yaitu R memiliki satu baris bilangan nol atau R merupakan matriks identitas 𝐼𝑛 (Anton & Rorres, 2004).

2.1.8 Determinan Matriks

Menurut Mattjik dan Sumertajaya (2011), determinan matriks 𝐴𝑛×𝑛 adalah perkalian dari semua akar ciri A, 𝜆1, 𝜆2, ⋯ , 𝜆𝑛 dapat dinotasikan |𝐴|, sehingga

|𝐴| = 𝜆𝑛× ⋯ × 𝜆𝑛.

Jadi |𝐴| = 0 jika dan hanya jika paling tidak ada satu akar yang nol, yaitu terjadi jika dan hanya jika A singular.

(17)

8

2.2 Analisis Faktor

Analisis faktor adalah nama umum yang diberikan kepada kelas metode statistik multivariat yang tujuan utamanya adalah menentukan struktur yang mendasari dalam matriks data. Secara umum, analisis faktor membahas masalah menganalisis struktur hubungan timbal balik (korelasi) di antara sejumlah besar variabel (misalnya, nilai tes, item tes, tanggapan kuesioner) dengan mendefinisikan satu set dimensi umum yang mendasari, yang dikenal sebagai faktor. Dengan analisis faktor, peneliti dapat mengidentifikasi dimensi terpisah dari struktur dan kemudian menentukan sejauh mana setiap variabel dijelaskan oleh masing-masing dimensi. Setelah dimensi ini dan penjelasan masing-masing variabel ditentukan, dua penggunaan utama untuk analisis faktor—peringkasan dan reduksi data—dapat dicapai (Hair, 2010).

Menurut Johnson dan Wichern (1982), analisis faktor merupakan teknik analisis multivariat yang bertujuan untuk meringkas sejumlah p variabel yang diamati menjadi sejumlah m faktor penting, dengan 𝑚 < 𝑝. Misal X adalah vektor random teramati dengan yang memiliki p komponen pada pengamatan ke-i, dengan vektor rata-rata (𝝁) dan matriks kovariansi (𝚺). Vektor X bergantung secara linier dengan variabel 𝐹1, 𝐹2, … , 𝐹𝑚 yang disebut faktor bersama dan sejumlah sumber variansi dari 𝜖1, 𝜖2, ... , 𝜖𝑝 yang disebut faktor spesifik. Model analisis faktor menurut Johnson dan Wichern adalah:

𝑋1− 𝜇1 = 𝑙11𝐹1+ 𝑙12𝐹2+ ⋯ + 𝑙1𝑚𝐹𝑚+ 𝜀1

𝑋2− 𝜇2 = 𝑙21𝐹1+ 𝑙22𝐹2 + ⋯ + 𝑙2𝑚𝐹𝑚+ 𝜀2

𝑋𝑝− 𝜇𝑝 = 𝑙𝑝1𝐹1+ 𝑙𝑝2𝐹2+ ⋯ + 𝑙𝑝𝑚𝐹𝑚+ 𝜀p

Dengan:

𝑋𝑝 : Variabel ke-p

𝜇𝑝 : Rata-rata variabel ke-p

𝑙𝑝𝑚: Bobot variabel (factor loading) ke-p pada faktor ke-m 𝐹𝑚 : Faktor bersama (common factor) ke-m

𝜀p : Faktor spesifik ke-p

(18)

9

Faktor spesifik berkorelasi dengan yang lain dan dengan common factor.

Common factor dapat dinyatakan sebagai kombinasi linier dari variabel yang diteliti.

Dengan persamaan:

𝐹𝑗 = 𝑊𝑗1𝑋1+ 𝑊𝑗2𝑋2+ 𝑊𝑗3𝑋3+ ⋯ + 𝑊𝑗𝑝𝑋𝑝 Dimana:

𝐹𝑗 : Faktor ke-j yang diestimasikan W : Bobot atau koefisien skor faktor

𝑋𝑝 : Banyaknya variabel X pada faktor ke-p p = 1, 2, ..., n ; j = 1, 2, ... , n

Struktur kovarian untuk model faktor ortogonal adalah:

1. 𝐶𝑜𝑣 (𝑋) = 𝐿𝐿+ Ψ Atau

𝑉𝑎𝑟 (𝑋𝑖) = ℓ𝑖12 + ⋯ + ℓ𝑖𝑚2 + Ψ𝑖 𝐶𝑜𝑣 (𝑋𝑖, 𝑋𝑘) = ℓ𝑖1𝑘1+ ⋯ + ℓ𝑖𝑚𝑘𝑚 2. 𝐶𝑜𝑣 (𝑋, 𝐹) = 𝐿

Atau

𝐶𝑜𝑣 (𝑋𝑖, 𝐹𝑗) = ℓ𝑖𝑗

Struktur Eigen pada matriks kovarian ditentukan dengan misalkan X adalah vektor random p-komponen dimana p adalah jumlah variabel. Matriks kovarian, 𝚺, diberikan oleh E(XX’). Misalkan 𝛾′ = (𝛾1 𝛾2 ⋯ 𝛾𝑝 ) adalah sebuah vektor bobot untuk membentuk kombinasi linier dari variabel-variabel asli, dan 𝜉 = 𝛾′𝑿 adalah variabel baru, yang adalah kombinasi linier dari variabel-variabel asli. Varian dari variabel baru tersebut diberikan oleh E(𝜉𝜉′) dan sama dengan E(𝛾′𝑿𝑿′𝛾) atau 𝛾′ Σ𝛾.

Masalahnya sekarang mengurangi untuk mendapatkan vektor bobot, 𝛾′, sedemikian hingga variannya, 𝛾′ Σ𝛾 , dari variabel baru tersebut maksimal pada kelas kombinasi linier yang bisa dibentuk subjek pada kendala 𝛾𝛾 = 𝐼.

(19)

10

Solusi untuk maksimalisasi masalah tersebut dapat diperoleh sebagai berikut:

Misalkan

𝒁 = 𝛾Σ𝛾 − 𝜆(𝛾𝛾 − 1) 𝒁 = Σ𝛾2− 𝜆(𝛾2− 1)

𝒁 = Σ𝛾2− 𝜆𝛾2+ 𝜆

dimana 𝜆 adalah pengali Lagrange. Vektor p-komponen dari turunan parsialnya diberikan dengan

𝝏𝒁

𝝏𝛾 = 2Σ𝛾 − 2𝜆𝛾

membentuk vektor turunan parsial di atas menjadi nol pada solusi akhir. Yakni, (Σ − 𝜆𝐼)𝛾 = 0

agar sistem persamaan homogen di atas memiliki sebuah solusi nontrivial, determinan (Σ − 𝜆𝐼) harus nol. Yakni,

|Σ − 𝜆𝐼| = 0

Persamaan di atas adalah polinomial dalam 𝜆 derajat p, dan karena itu memiliki p akar. Misalkan 𝜆1 ≥, 𝜆2 ≥, … , 𝜆𝑝 adalah p akar. Persamaan di atas menghasilkan nilai p untuk 𝜆, dan masing-masing nilai disebut eigenvalue atau akar dari matriks Σ.

Masing-masing nilai 𝜆 menghasilkan bobot yang diperoleh dari vektor 𝛾 p- komponen dengan menyelesaikan persamaan berikut:

(Σ − 𝜆𝐼)𝛾 = 0 𝛾𝛾 = 𝐼

Maka, eigenvektor pertama, 𝛾1 , sesuai dengan eigenvalue pertama, 𝜆1, diperoleh dengan menyelesaikan persamaan

(Σ − 𝜆1𝐼)𝛾1 = 0

(20)

11

𝛾′1𝛾1 = 1

Perkalian (Σ − 𝜆1𝐼)𝛾1 = 0 dengan 𝛾′1 menghasilkan 𝛾′1(Σ − 𝜆1𝐼)𝛾1 = 0

𝛾′1Σ𝛾1 = 𝜆𝛾′1𝛾1 𝛾′1Σ𝛾1 = 𝜆1

karena 𝛾′1𝛾1 = 1. 𝛾′1Σ𝛾1 adalah varian dari variabel baru, 𝜉, dan sama dengan eigenvalue, 𝜆1. Principal component yang pertama diberikan oleh eigenvektor, 𝛾1, sesuai dengan eigenvalue terbesar, 𝜆1.

Misalkan 𝛾2adalah vektor bobot p-komponen kedua yang membentuk

kombinasi linier lainnya. Kombinasi linier selanjutnya dapat ditemukan sedemikian hingga varian dari 𝛾′2𝑿 adalah subjek maksimum pada kendala 𝛾′1𝛾2 = 0 dan 𝛾′2𝛾2 = 1. Dapat ditunjukkan bahwa principal component yang tersisa,

𝛾′3, 𝛾′4, … , 𝛾′𝑝, adalah eigenvektor yang sesuai dengan eigenvalue, 𝜆3, 𝜆4, … , 𝜆𝑝, pada matriks kovarian, 𝚺. Maka, masalah dalam menemukan bobot merupakan menemukan struktur eigen dari matriks kovarian. Eigenvektor memberikan vektor bobot dan eigenvalue mewakili varian dari variabel-variabel baru atau nilai principal components.

2.3 Metode Estimasi

Pada pengamatan yang diberikan 𝑥1, 𝑥2, … , 𝑥𝑛 dengan variabel sejumlah p yang secara umum berkorelasi, analisis faktor akan mencari jawaban dari pertanyaan:

“Apakah model faktor, dengan faktor berjumlah sedikit, dapat merepresentasikan data dengan tepat?” Pembuatan model statistik ini dilakukan dengan memverifikasi hubungan kovarian.

Matriks kovarian sampel S adalah sebuah estimator matriks 𝚺 kovarian populasi yang belum diketahui. Jika elemen-elemen off-diagonal dari S kecil atau elemen-elemen dari matriks korelasi sampel R pada dasarnya nol, variabel-variabel

(21)

12

tersebut tidak berhubungan, dan analisis faktor tidak akan terbukti berguna. Dalam keadaan ini, faktor-faktor spesifik memainkan peran dominan, dimana tujuan utama analisis faktor adalah untuk menentukan beberapa faktor umum yang penting.

Jika 𝚺 muncul menyimpang secara signifikan dari matriks diagonal, maka model faktor dapat dibentuk, dan masalah awalnya adalah memperkirakan faktor loading ℓ𝑖𝑗 dan varian tertentu Ψ𝑖. Penulis menggunakan metode estimasi Komponen Utama (dan Faktor Utama) untuk menyederhanakan interpretasi faktor.

2.3.1 Analisis Komponen Utama (Principal Component Analysis)

Misalkan 𝚺 mempunyai pasangan eigenvalue-eigenvektor (𝜆𝑖, 𝑒𝑖) dengan 𝜆1 ≥ 𝜆2

⋯ ≥ 𝜆𝑝 ≥ 0. Maka,

𝚺 = 𝜆1𝐞𝟏𝐞′𝟏+ 𝜆2𝐞𝟐𝐞′𝟐+ ⋯ + 𝜆𝑝𝐞𝐩𝐞′𝐩

= [√𝜆1 𝐞𝟏⋮ √𝜆2 𝐞𝟐⋮ ⋯ ⋮ √𝜆𝑝 𝐞𝐩] [

√𝜆1 𝐞′𝟏

√𝜆2 𝐞′𝟐

√𝜆𝑝 𝐞′𝐩]

(2.1)

Ini sesuai dengan struktur kovarian yang ditentukan untuk model analisis faktor yang memiliki banyak faktor sebagai variabel (m = p) dan varian tertentu Ψi = 0 untuk semua i. Matriks loading mempunyai j kolom yang diberikan oleh √𝜆𝑗 𝐞𝐣. Dapat ditulis

𝚺(𝐩 ×𝐩) = 𝐋(𝐩 ×𝐩)𝐋′(𝐩 ×𝐩) + 𝟎(𝐩 ×𝐩) = 𝐋𝐋′ (2.2) Terlepas dari faktor skala √𝜆𝑗, faktor loading pada faktor ke-j adalah koefisien untuk komponen utama ke-j dari populasi.

Meskipun representasi analisis faktor dari 𝚺 di (2.1) tepat, dia tidak terlalu berguna: dia menggunakan banyak faktor umum karena ada variabel-variabel dan tidak memungkinkan variasi dalam faktor-faktor spesifik. Penulis lebih memilih model yang menjelaskan struktur kovarian hanya dari beberapa faktor umum. Satu pendekatan, ketika eigenvalue terakhir p−m kecil, adalah dengan mengabaikan kontribusi dari 𝜆𝑚+1𝐞𝐦+𝟏𝐞𝐦+𝟏+ ⋯ + 𝜆𝑝𝐞𝐩𝐞′𝐩 terhadap 𝚺 di (2.1). Dengan mengabaikan kontribusi ini, dapat diperoleh pendekatan

(22)

13

𝚺 = [√𝜆1 𝐞𝟏 ⋮ √𝜆2 𝐞𝟐⋮ ⋯ ⋮ √𝜆𝑚 𝐞𝐦] [

√𝜆1 𝐞′𝟏

√𝜆2 𝐞′𝟐

√𝜆𝑚 𝐞′𝐦]

= 𝑳(𝒑×𝒎)𝑳′(𝒎×𝒑) (2.3)

Representasi pendekatan di (2.3) mengganggap bahwa faktor-faktor spesifik 𝜀 di model faktor ortogonal dengan m faktor 𝑿(𝑝×1) = 𝝁(𝑝×1)+ 𝑳(𝒑×𝒎) 𝑭(𝒎×𝟏)+ 𝜺(𝒑×𝟏) adalah kepentingan minor dan bisa juga diabaikan dalam pemfaktoran 𝚺. Jika faktor- faktor spesifik dimasukkan di dalam model, variannya bisa diambil untuk elemen diagonal dari 𝚺 − 𝐋𝐋′ , dimana 𝐋𝐋′ didefinisikan pada (2.3).

Memungkinkan untuk faktor-faktor tertentu, diperoleh pendekatan menjadi 𝚺 = 𝑳𝑳+ Ψ

= [√𝜆1 𝐞𝟏 𝜆2 𝐞𝟐 ⋮ ⋯ ⋮𝜆𝑚 𝐞𝐦] [

𝜆1 𝐞′𝟏

𝜆2 𝐞′𝟐

𝜆𝑚 𝐞′𝐦] +[

Ψ𝟏 𝟎 𝟎

𝟎 Ψ𝟐 𝟎

𝟎

𝟎

Ψ𝒑

] (2.4)

Dimana Ψ𝒊= 𝝈𝒊𝒊− ∑𝒎𝒋=𝟏𝓵𝒊𝒋𝟐 untuk i = 1, 2, ..., p.

Untuk menggunakan pendekatan ini pada data 𝑥1, 𝑥2, … , 𝑥𝑛, yang pertama dilakukan adalah memusatkan pengamatan dengan mengurangi mean sampel 𝑥̅.

Pengamatan terpusat

𝑥𝑗− 𝑥̅ = [ 𝑥𝑗1 𝑥𝑗2

⋮ 𝑥𝑗𝑝

] − [ 𝑥̅1 𝑥̅2

⋮ 𝑥̅𝑝

] = [

𝑥𝑗1− 𝑥̅1 𝑥𝑗2− 𝑥̅2

⋮ 𝑥𝑗𝑝− 𝑥̅𝑝]

j = 1, 2, ..., n (2.5)

mempunyai matriks kovarian sampel S yang sama dengan pengamatan asli.

Dalam kasus ini dimana unit variabel tidak sepadan, biasanya dapat berhasil dengan variabel yang sudah distandardisasi

𝑧

𝑗

=

[

𝑥𝑗1−𝑥̅1

√𝑠11 𝑥𝑗2−𝑥̅2

√𝑠22

𝑥𝑗𝑝−𝑥̅𝑝

√𝑠𝑝𝑝

]

j = 1, 2, ..., n

(23)

14

yang matriks kovarian sampelnya adalah matriks korelasi sampel R dari pengamatan 𝑥1, 𝑥2, … , 𝑥𝑛. Standardisasi mencegah memiliki satu variabel dengan varian besar yang terlalu mempengaruhi penentuan faktor loading.

Representasi dalam (2.4), ketika digunakan pada matriks kovarian sampel S atau matriks korelasi sampel R, dikenal sebagai solusi komponen utama (principal component solution). Nama tersebut diambil dari fakta bahwa faktor loading-nya adalah koefisien skala dari beberapa komponen utama sampel pertama.

2.3.2 Faktor Model Solusi Komponen Utama

Analisis faktor komponen utama dari matriks kovarians sampel S ditentukan dalam hal pasangan eigenvalue-eigenvektornya (𝜆̂, 𝑒1 ̂ ), (𝜆1 ̂, 𝑒2 ̂ ), ..., (𝜆2 ̂, 𝑒𝑝 ̂), dimana 𝜆𝑝 ̂ ≥1 𝜆2

̂ ≥ ⋯ ≥ 𝜆̂. Misalkan 𝑚 < 𝑝 adalah jumlah faktor-faktor umum. Maka matriks 𝑝 faktor loading yang diperkirakan {ℓ̃} diberikan oleh 𝑖𝑗

𝑳̃ = [√𝜆̂1𝐞̂ ⋮ √𝜆̂𝟏 2𝐞̂ ⋮ ⋯ ⋮ √𝜆̂𝟐 𝑚𝐞̂ ] (2.6) 𝐦 perkiraan varians tertentu disediakan oleh elemen diagonal dari matriks S−𝑳̃𝑳̃′, maka

Ψ̃ = [

Ψ̃𝟏 𝟎 ⋯ 𝟎

𝟎 Ψ̃𝟐 ⋯ 𝟎

⋮ 𝟎

⋮ 𝟎

⋱ ⋮

⋯ Ψ̃𝒑]

dengan Ψ̃𝒊 = 𝒔𝒊𝒊− ∑𝒎𝒋=𝟏𝓵̃𝒊𝒋𝟐 (2.7)

Komunalitas diperkirakan sebagai

ℎ̃𝑖2 = ℓ̃𝑖12 + ℓ̃𝑖22 + ⋯ + ℓ̃𝑖𝑚2 (2.8) Analisis faktor komponen utama dari matriks korelasi sampel diperoleh dengan memulai dengan R di tempat S (Wichern, 2007).

2.4 Analisis Komponen Utama Yang Robust

Untuk mendapatkan analisis komponen utama yang robust dapat dilakukan dengan menggantikan matriks varian-kovarian yang klasik dengan suatu estimator yang

(24)

15

robust. Estimator robust yang diinginkan adalah memiliki breakdown point (tingkat robust) yang tinggi.

2.5 Minimum Volume Ellipsoid (MVE)

Estimator Minimum Volume Ellipsoid (MVE) didasarkan pada ellipsoid volume terkecil yang mencakup h dari n pengamatan. MVE adalah estimator multivariat yang kuat dan penyebaran multivariasi yang affine equivariant dengan breakdown tinggi. MVE dapat dihitung dengan algoritma resampling. Biasnya yang rendah membuat MVE sangat berguna untuk pendeteksian outlier dalam data multivariat, sering kali melalui penggunaan jarak robust berbasis MVE.

Minimum Volume Ellipsoid (MVE), pertama kali diperkenalkan oleh Rousseeuw, adalah estimator robust pertama dengan breakdown tinggi yang umum digunakan. MVE menjadi populer karena ketahanannya yang tinggi terhadap outlier, yang membuat MVE menjadi alat yang diandalkan untuk pendeteksian outlier.

2.5.1 Algoritma MVE

Misalkan diberikan data hasil n pengamatan dengan p variabel acak sebagai berikut:

Pengamatan: X1 X2Xp

1 X11 X12X1p

2 X21 X22X2p

3 X31 X32X3p

4 X41 X42X4p

⋮ ⋮ ⋮ ⋱ ⋮

n Xn1 Xn2 Xnp

Dari data dengan n pengamatan ini, akan terdapat subsampel sebanyak ( 𝑛

𝑝 + 1) yang memuat (𝑝 + 1) pengamatan.

(25)

16

Untuk mendapatkan ellipsoid dengan volume minimum, dilakukan langkah- langkah sebagai berikut:

1. Dipilih himpunan bagian yang memuat (𝑝 + 1) pengamatan. Selanjutnya untuk setiap himpunan bagian berukuran (𝑝 + 1) tersebut, sebutlah himpunan indeks 𝐽 = {𝑖1, … , 𝑖𝑝+1} ⊂ {1, … , 𝑛} .

2. Menentukan rata-rata (mean) sampel dengan rumus 𝑥̅𝐽 = 1

𝑝+1𝑝+1𝑗=1𝑥𝑖𝐽 sehingga diperoleh pusat ellips 𝑇𝐽 = (𝑥̅1, 𝑥̅2, 𝑥̅3) dimana:

𝑥̅1 =𝑥11+ 𝑥21+ 𝑥31+ ⋯ + 𝑥(𝑝+1)1 𝑝 + 1

𝑥̅2 =𝑥12+ 𝑥22+ 𝑥32+ ⋯ + 𝑥(𝑝+1)2 𝑝 + 1

𝑥̅3 =𝑥13+ 𝑥23+ 𝑥33+ ⋯ + 𝑥(𝑝+1)3 𝑝 + 1

Selanjutnya ditentukan matriks kovarian dari sampel dengan rumus 𝑆𝐽 =1

𝑝∑(𝑥𝑖𝐽

𝑝+1

𝑗=1

− 𝑥̅𝐽)(𝑥𝑖𝐽− 𝑥̅𝐽)𝑡 yang secara rinci bisa dinyatakan dalam bentuk matriks:

𝑆𝐽 = 𝑆 = [

𝑆12 𝑆12 ⋯ 𝑆1𝑝 𝑆21 𝑆22 ⋯ 𝑆2𝑝

⋮ 𝑆𝑛1

⋮ 𝑆𝑛2

⋱ ⋮

⋯ 𝑆𝑝2] dimana

𝑠𝑖𝑗 = 1

𝑛 − 1∑(𝑥𝑘𝑖

𝑛

𝑘=1

− 𝑥̅𝑖)(𝑥𝑘𝑗 − 𝑥̅𝐽)

Matriks kovarian 𝑆𝐽 ini pada umumnya nonsingular, dan memang harus nonsingular. Bila tidak, banyaknya pengamatan harus ditambah sampai pemilihan (𝑝 + 1) himpunan bagian dari sampel ini mengakibatkan 𝑆𝐽 nonsingular.

3. Selanjutnya dihitung jarak kuadrat:

𝐷𝐽2 = [(𝑥𝑖 − 𝑥̅𝐽)𝑡(𝑆𝐽)−1(𝑥𝑖 − 𝑥̅𝐽)]

ℎ:𝑛

(26)

17

dimana h : n menunjukkan jarak kuadrat terkecil ke-h di antara jarak kuadrat dari n pengamatan dalam 𝑋𝑛. Dengan menggunakan jarak kuadrat tersebut, dibuat faktor skala 𝐷𝐽2

𝑐2

⁄ dengan 𝑐 = √𝑋𝑝,𝛼2 . 𝐷𝐽

⁄𝑐 ini merupakan jari-jari ellips ke arah sumbu XJ.

4. Sebagai penentu yang sangat penting dalam MVE adalah volume ellipsoid yang proporsional dengan nilai

𝑉𝐽 = (𝐷𝐽

𝑐)𝑝det (𝑆𝐽)1/2

Setelah selesai langkah ke-4 dengan memperoleh nilai volume ellips untuk subsampel pertama, selanjutnya ulangi langkah 1 sampai 4 di atas untuk subsampel ke-2 berukuran sama yaitu (𝑝 + 1) sehingga diperoleh volume ellips ke-2. Proses terus diulang sampai sebanyak ( 𝑛

𝑝 + 1) subsampel. Selanjutnya, dipilih subsampel yang ellipsnya memiliki volume paling minimum. Dari ellips terpilih tersebut, berikutnya dihitung T(X) dan S(X) di mana

𝑇(𝑥) = 𝑇𝐽 𝑑𝑎𝑛 𝑆(𝑋) =𝑐2(𝑛, 𝑝) 𝑋𝑝,𝛼2 𝐷𝐽2 𝑆𝐽 dengan 𝑐2(𝑛, 𝑝) = [1 + 15

𝑛−𝑝]2 yang disebut dengan correction term.

Berdasarkan T(X) dan S(X) tersebut di atas, dihitung jarak robust dengan rumus 𝑅𝐷𝑖 = √(𝑥𝑖− 𝑇(𝑋))𝑆(𝑋)−1(𝑥𝑖− 𝑇(𝑋))𝑇

untuk setiap pengamatan i. Selanjutnya pencilan data ditentukan apabila 𝑅𝐷𝑖 >

√𝑋𝑝,𝛼2 .

(27)

18

BAB 3

HASIL DAN PEMBAHASAN

3.1 Pengumpulan Data

Data yang digunakan dalam penelitian ini merupakan contoh data stackloss Brownlee.

Tiga variabel berikut sesuai dengan pengukuran untuk faktor pengoksidasian amonia menjadi asam nitrat pada tanaman pada 21 hari berturut-turut.

X1 : aliran udara pada tanaman X2 : suhu air masuk pendingin X3 : konsentrasi asam

Variabel Y menunjukkan hilangnya amonia (stackloss).

Tabel 3.1 Stackloss Data

X1 X2 X3 Y

80 27 89 42

80 27 88 37

75 25 90 37

62 24 87 28

62 22 87 18

62 23 87 18

62 24 93 19

62 24 93 20

58 23 87 15

58 18 80 14

58 18 89 14

58 17 88 13

58 18 82 11

58 19 93 12

(28)

19

50 18 89 8

50 18 86 7

50 19 72 8

50 19 79 8

50 20 80 9

56 20 82 15

70 20 91 15

3.2 Analisis Faktor dengan Metode MVE

Analisis faktor yang akan dilakukan pada data tersebut pertama menggunakan metode MVE untuk subsampel pertama. Subsampel yang diambil harus memuat (p+1) pengamatan, yaitu

[

80 27 89

80 27 88

75 62

25 24

90 87 ]

Kemudian, dari subsampel yang diambil, dihitung mean sampel dengan rumus

𝑥̅𝐽 = 1

𝑝 + 1∑ 𝑥𝑖𝐽

𝑝+1

𝑗=1

sehingga diperoleh 𝑥̅1 = 74,25; 𝑥̅2 = 25,75; 𝑥̅3 = 88,5. Matriks varian-kovarian sampel dihitung dengan rumus:

𝑆𝐽 = 1

𝑝∑(𝑥𝑖𝐽

𝑝+1

𝑗=1

− 𝑥̅𝐽)(𝑥𝑖𝐽− 𝑥̅𝐽)𝑡

Untuk subsampel pertama diperoleh matriks varian-kovarian robust:

(29)

20

𝑆 = [

108,375 17,625 9,75 17,625 3,375 0,75 9,750 0,750 2,5

]

Ada 5.985 subsampel dari 4 pengamatan yang diambil dari 21 pengamatan, maka perhitungan selanjutnya dilakukan dengan software SAS sehingga dihasilkan matriks varian-kovarian robust dari data sebagai berikut:

𝑆 = [

23,470588235 7,5735294118 16,102941176 7,5735294118 6,3161764706 5,3676470588 16,102941176 5,3676470588 32,389705882

]

Eigenvalue dari matriks varian-kovarian robust tersebut adalah:

𝜆̂1 46,597431018 𝜆̂2 12,155938483 𝜆̂3 3,423101087

Eigenvector dari matriks varian-kovarian robust tersebut adalah:

[

0,3819 0,6990 0,6046

−0,9233 0,3177 0,2158

−0,0412 −0,6406 0,7688 ]

Maka matriks faktor loading yang diperkirakan {ℓ̃} diberikan oleh 𝑖𝑗 𝑳̃ = [√𝜆̂1𝐞̂ ⋮ √𝜆̂𝟏 2𝐞̂ ⋮ ⋯ ⋮ √𝜆̂𝟐 𝑚𝐞̂ ] 𝐦

̃ = (11 6,826)(0,3819) ̃ = 2,6069 11

̃ = (12 6,826)(0,6990) ̃ = 4,7715 12 ̃ = (13 6,826)(0,6046)

̃ = 4,1271 13

(30)

21

̃ = (21 3,486)(−0,9233) ̃ = −3,2191 21 ̃ = (22 3,486)(0,3177)

̃ = 1,1076 22 ̃ = (23 3,486)(0,2158)

̃ = 0,7524 23

̃ = (31 1,8501)(−0,0412) ̃ = −0,07622 31 ̃ = (32 1,8501)(−0,6406)

̃ = −1,1852 32 ̃ = (33 1,8501)(0,7688)

̃ = 1,4224 32

3.3 Analisis Faktor Klasik

Setelah menganalisis data dengan metode MVE, data akan dianalisis dengan analisis faktor klasik menggunakan seluruh data sekaligus, yaitu

[

80 27 89

80 27 88

75 62 62 62 62 62 58 58 58 58 58 58 50 50 50 50 50 56 70

25 24 22 23 24 24 23 18 18 17 18 19 18 18 19 19 20 20 20

90 87 87 87 93 93 87 80 89 88 82 93 89 86 72 79 80 82 91]

(31)

22

Kemudian, dari data tersebut, dihitung mean dengan rumus

𝑥̅𝐽 = 1

𝑝 + 1∑ 𝑥𝑖𝐽

𝑝+1

𝑗=1

sehingga diperoleh 𝑥̅1 = 60,429; 𝑥̅2 = 21,095; 𝑥̅3 = 86,286. Matriks varian-kovarian dihitung dengan rumus:

𝑆𝐽 = 1

𝑝∑(𝑥𝑖𝐽

𝑝+1

𝑗=1

− 𝑥̅𝐽)(𝑥𝑖𝐽− 𝑥̅𝐽)𝑡

Sehingga diperoleh matriks varian-kovarian dari data adalah:

𝑆 = [

840,571 226,571 245,714 226,571 99,905 66,214 245,714 66,214 287,143

]

Eigenvalue dari matriks varian-kovarian robust tersebut adalah:

𝜆̂1 36,0472 𝜆̂2 195,8116 𝜆̂3 995,7602

Eigenvector dari matriks varian-kovarian robust tersebut adalah:

[

0,2756 0,3207 0,9062

−0,9611 0,1079 0,2542

−0,0163 −0,9410 0,3380 ]

Maka matriks faktor loading yang diperkirakan {ℓ̃} diberikan oleh 𝑖𝑗 𝑳̃ = [√𝜆̂1𝐞̂ ⋮ √𝜆̂𝟏 2𝐞̂ ⋮ ⋯ ⋮ √𝜆̂𝟐 𝑚𝐞̂ ] 𝐦

̃ = (11 6,0039)(0,2756) ̃ = 1,6546 11 ̃ = (12 6,0039)(0,3207)

(32)

23

̃ = 1,925 12 ̃ = (13 6,0039)(0,9062)

̃ = 5,4407 13 ̃ = (21 13,993)(−0,9611)

̃ = 13,4489 21

̃ = (22 13,993)(0,1079) ̃ = 1,5098 22 ̃ = (23 13,993)(0,2542)

̃ = 3,557 23

̃ = (31 31,555)(−0,0163) ̃ = −0,5143 31 ̃ = (32 31,555)(−0,9410)

̃ = −29,6938 32 ̃ = (33 31,555)(0,3380)

̃ = 10,6658 32

3.4 Estimated Factor Loading

Hasil analisis faktor menggunakan Analisis Komponen Utama dengan metode Minimum Volume Ellipsoid (MVE) dan metode klasik pada contoh data stackloss Brownlee adalah sebagai berikut:

Variabel

Estimated factor loading

̃ = √𝜆̂𝑖𝑗 𝑖𝐞̂𝐢𝐣

Robust Klasik

𝐹1 𝐹2 𝐹3 𝐹1 𝐹2 𝐹3

X1 : aliran udara pada tanaman

2,6069 -3,2191 -0,0762 1,6546 13,4489 -0,5143

(33)

24

X2 : suhu air masuk pendingin

4,7715 1,1076 -1,1852 1,925 1,5098 -29,6938

X3 : konsentrasi

asam 4,1271 0,7524 1,4224 5,4407 3,557 10,6658

Eigenvalues 46,5974 12,1559 3,4231 36,0472 195,8116 995,7602

(34)

BAB 4

KESIMPULAN DAN SARAN

4.1 Kesimpulan

Dari hasil analisis dan pembahasan maka diperoleh kesimpulan bahwa faktor loading yang dihasilkan dari setiap variabel dengan estimasi robust dan estimasi klasik memiliki perbedaan, yaitu dengan estimasi robust faktor loading-faktor loading yang dihasilkan memiliki nilai yang tidak jauh berbeda. Seperti pada variabel X1 faktor loading-nya adalah 2,6069; -3,2191; dan -0,0762. Sedangkan dengan estimasi biasa (klasik) faktor loading-faktor loading yang dihasilkan memiliki perbedaan nilai yang cukup jauh. Seperti pada variabel X1 faktor loading-nya adalah 1,6546; 13,4489; dan - 0,5143. Begitupula pada variabel X2 dan X3.

4.2 Saran

Dari penelitian ini penulis menyarankan sebagai berikut:

1. Analisis faktor robust pada penelitian ini hanya menggunakan metode MVE sehingga memungkinkan penelitian selanjutnya untuk menggunakan estimator robust yang lain.

2. Analisis faktor robust pada penelitian ini menggunakan Analisis Komponen Utama sehingga memungkinkan penelitian selanjutnya untuk menggunakan metode yang lain.

(35)

26

DAFTAR PUSTAKA

Aelst Van, Rousseeuw Peter. 2009. Minimum Volume Ellipsoid. 1:71-82.

Anton, H. & Rorres, C. 2004. Aljabar Linear Elementer. Edisi 8. (diterjemahkan oleh :Indriasari, R., dan Harmein, I). Jakarta: Erlangga.

Hair, Joseph F. 1998. Multivariate Data Analysis. New Jersey: Prentice-Hall, Inc.

Johnson, R. A and D. W. Wichern. 1982. Applied Multivariate Statistical Analysis. New Jersey: Prentice-Hall, Inc.

Mattjik, A.A & Sumertajaya, I.M. 2011. Sidik Peubah Ganda Dengan Menggunakan SAS. Bogor: IPB Press.

Parmikanti Kankan, Irianingsih I., Joebaedi K, Rusyaman. 2016. Menentukan Pusat Ellips Pada Metode MVE Menggunakan Jarak Robust. Prosiding Seminar Nasional MIPA 2016.

Sharma, Subhash. 1996. Applied Multivariate Techniques. Canada: John Wiley &

Sons, Inc.

Sujatmiko, Irwan., Linuwih, Susanti., A.W., Dwi Atmono. 2005. Analisis Komponen Utama Dengan Menggunakan Matriks Varian Kovarian Yang Robust. Jurnal Matematika Vol. 8, No. 2.

Supranto, J. 2004. Analisis Multivariat Arti dan Interpretasi. Jakarta: PT Rineka Cipta Jakarta.

(36)

27

LAMPIRAN

/* X1 X2 X3 Y Stackloss data */

aa = { 1 80 27 89 42, 1 80 27 88 37, 1 75 25 90 37, 1 62 24 87 28, 1 62 22 87 18, 1 62 23 87 18, 1 62 24 93 19, 1 62 24 93 20, 1 58 23 87 15, 1 58 18 80 14, 1 58 18 89 14, 1 58 17 88 13, 1 58 18 82 11, 1 58 19 93 12, 1 50 18 89 8, 1 50 18 86 7, 1 50 19 72 8, 1 50 19 79 8, 1 50 20 80 9, 1 56 20 82 15, 1 70 20 91 15 };

a = aa[, 2:4];

optn = j(8, 1, .);

optn[1] = 2; /* ipri */

optn[2] = 1; /* pcov: print COV */

optn[3] = 1; /* pcor: print CORR */

optn[5] = -1; /* nrep: use all subsets */

call mve(sc, xmve, dist, optn, a);

(37)

28

(38)

29

(39)

30

Gambar

Tabel 3.1 Stackloss Data

Referensi

Dokumen terkait

Implementasi program skrining IMS dengan VCT di LP Wanita Klas II A Kota Malang merupakan rangkaian pelaksanaan yang dilaksanakan petugas kesehatan baik dari poliklinik Lapas

Aineistona on käytetty RKTL:n kalan ulkomaankauppatilastoja. Tilastoissa esitetään ihmisravinnoksi ja muuhun käyttöön tarkoitetun kalan ja kalavalmisteiden ulkomaan- kaupan määrä

Berdasarkan hasil evaiuasi terhadap hasil belajar siswa terlihat bahwa sudah mencapai indikator keberhasilan klasikal minimal (KKM) 75%, yaitu sebesar 100% dari jumlah

Akibat perkawinan terhadap harta kekayaan bersama yang diperoleh suami dan isteri selama perkawinan adalah milik bersama. Suami dan isteri selaku pemilik yang sah

Demikian pula dalam melihat resolusi konflik, korporasi melihat resolusi sebagai penyelesaian masalah atas “gangguan keamanan dan tekanan” (politik-ekonomi), sementara

Terkadang proses kredit atau leasing yang dipilih pihak lessee mengalihkan kendaraan yang menjadi objek perjanjian, maka pihak leasing akan memberikan surat

Wakil Sekretaris Jenderal 2 ( Regulasi &amp; antar lembaga ).. Badan Teknis, Regulasi dan Hubungan Kelembagaan Luar Negeri. Badan Regulasi dan Bantuan Hukum f. Pengurus Pusat

Pada sub bab ini akan dijelaskan mengenai bahan baku, bahan tambahan, bahan penolong, standar mutu bahan baku dan produk jadi, uraian proses produksi, mesin dan peralatan