• Tidak ada hasil yang ditemukan

5. Pengaturan dan Pemeliharaan Air

4.5. Metode Pengolahan dan Analisis Data

4.5.1. Analisis Faktor – Faktor yang Mempengaruhi Fungsi Produksi

4.5.1.1. Uji Kriteria Ekonometrika

1. Jika k=1 maka R2 sama dengan R2 terkoreksi.

2. Jika k>1 maka R2 ≥ R2

terkoreksi. 3. R2 terkoreksi dapat bernilai negatif.

R2 terkoreksi mempunyai karakteristik yang diinginkan sebagai ukuran

goodness of fit dari pada R2. Jika peubah baru ditambahkan, R2 selalu naik, tapi R2

terkoreksi dapat naik atau turun. Penggunaan R2 terkoreksi menghindari dorongan

peneliti untuk memasukkan sebanyak mungkin peubah bebas tanpa pertimbangan yang logis.

2. Uji t (Pengujian untuk masing-masing parameter)

Pengujian ini bertujuan untuk mengetahui variabel bebas yang berpengaruh nyata terhadap produksi pembesaran lele dumbo.

Hipotesis :

H0 : bi = 0

H1: bi ≠ 0

Uji statistik yang digunakan adalah uji t :

t-hitung = −0

……… (9)

t tabel = t α/β (n-k)

Kriteria uji :

t-hitung > t-tabel (α), maka tolak H0, artinya Xi berpengaruh nyata terhadap produksi pembesaran lele dumbo.

t-hitung < t-tabel(α), maka terima H0, artinya Xi tidak berpengaruh nyata terhadap produksi pembesaran lele dumbo.

4.5.1.1. Uji Kriteria Ekonometrika

Menganalisa hubungan antara faktor-faktor produksi dan produksi digunakan analisis regresi dengan Ordinary Least Square (OLS). Asumsi-asumsi

43 yang digunakan dalam metode kuadrat terkecil biasa (OLS) antara lain (Gujarati, 2002) adalah:

1. E(ui | Xi) = 0 untuk tiap i, yang berarti rata-rata hitung dari simpangan

(deviasi) yang berhubungan dengan setiap Xi tertentu sama dengan nol.

2. Cov (ui, uj) = 0 ij, yang berarti tidak ada autokorelasi atau tidak ada korelasi (hubungan) antara kesalahan pengganggu ui dan uj.

3. Var (ui | Xi) = �2 untuk tiap i, yang berarti setiap error mempunyai varian yang sama atau penyebaran yang sama (homoskedastisitas).

4. Cov (ui, Xi) = 0, yang berarti tidak ada korelasi antara kesalahan pengganggu

dengan setiap variabel yang menjelaskan (Xi).

5. N (0; �2

), yang berarti kesalahan pengganggu mengikuti distribusi normal dengan rata-rata nol dan varian �2

.

6. Tidak ada multikolinearitas, yang berarti tidak ada hubungan linear yang nyata antara variabel-variabel yang menjelaskan.

Untuk memenuhi asumsi dalam analisis regresi agar hasil analisis tidak bias atau BLUE (Best Linear Unbiased Estimate), maka dilakukan juga uji multikolinearitas, normalitas, dan heteroskedastisitas.

1. Multikolinearitas

Untuk mengetahui adanya multikolienaritas yaitu dengan menghitung

Variance Inflation Factor (VIF). VIF merupakan suatu cara mendeteksi

multikolinearitas dengan melihat sejauh mana sebuah variabel penjelas dapat diterangkan oleh semua variabel penjelas lainnya di dalam persamaan regresi. VIF adalah suatu estimasi berapa besar multikolinearitas meningkatkan varian pada

44 suatu koefisien estimasi sebuah variabel penjelas. Menghitung VIF untuk koefisien b1 adalah sebagai berikut:

VIF (Xi) = 1

(1− 2 ) ……….. (10) dimana, R2i = koefisien determinasi dari model regresi antara satu variabel bebas

dengan variabel bebas lainnya, jika VIF (Xi) > 10, maka dapat disimpulkan bahwa

model dugaan ada multikolinearitas.

Salah satu cara yang digunakan untuk mengatasi multikolinearitas adalah dengan menggunakan metode analisis komponen utama. Analisis komponen utama (Gasperz, 1995) dalam Ulpah (2006) pada dasarnya mentransformasi

peubah-peubah bebas yang berkorelasi menjadi peubah-peubah baru yang orthogonal dan tidak berkorelasi. Analisis ini bertujuan untuk menyederhanakan peubah-peubah yang diamati dengan cara mereduksi dimensinya. Hal ini dilakukan dengan menghilangkan korelasi di antara peubah melalui transformasi peubah asal ke peubah baru (komponen utama) yang tidak berkorelasi.

Dengan menggunakan konsep aljabar linear tentang diagonalisasi matriks,

matriks korelasi R (atau matriks ragam peragam ∑) dengan dimensi pxp, simetrik

dan non singular, dapat direduksi menjadi matriks diagonal D dengan pengali awal dan pengali akhir suatu matriks orthogonal V. Atau dapat dituliskan sebagai:

฀V R V = D ……….(11)

λ1 ≥ λ2 ≥ … ≥ λp ≥ 0 adalah akarciri-akarciri dari matriks R yang merupakan unsur-unsur diagonal matriks D, sedangkan kolom-kolom matriks V, v1, v2, …, vp

adalah vektorciri-vektorciri R. Adapun λ1, λ2, … ,λp dapat diperoleh melalui persamaan berikut:

45 dengan I adalah matriks identitas. Adapun vektorciri-vektorciri v1, v2, …, vp dapat diperoleh melalui persamaan berikut:

| R - λ I | vj = 0, dimana vj = (v1j, v2j, …, vpj) ………. (13) Bila peubah yang diamati mempunyai satuan pengukuran berbeda, perlu dibakukan. Dalam hal ini komponen utama diturunkan dari matriks korelasi R.

Matriks peragam ∑ digunakan apabila semua peubah yang diamati, diukur dalam satuan yang sama. Misalkan x1, x2, …, xp adalah peubah acakberdimensi p yang mengikuti sebaran normal ganda dengan vektor nilai tengah µ dan matriks

peragam ∑ serta matriks korelasi R, dapat ditulis dalam = (x฀bentuk vektor X 1, x2, …, xp). p peubah asal tadi dapat diturunkan p buah komponen utama untuk menerangkan komponen total sistem, dan seringkali keragaman total itu dapat diterangkan secara memuaskan oleh sejumlah kecil komponen utama, misal k buah komponen dimana k<p.

Peubah bebas pada regresi komponen utama merupakan kombinasi linear dari peubah asal Z (Z adalah hasil pembakuan dari peubah X), yang disebut sebagai komponen utama. Komponen utama ke-j dapat dinyatakan dalam bentuk

persamaan berikut:

Wj = v1j Z1 + v2j Z2+ … + vpj Zp ……… (14) dimana Wj saling orthogonal sesamanya. Komponen ini menjelaskan bagian

terbesar dari keragaman yang dikandung oleh gugusan data yang telah dibakukan. Komponen-komponen W yang lain menjelaskan proporsi keragaman yang semakin lama semakin kecil sampai semua keragaman datanya terjelaskan. Biasanya tidak semua W digunakan, sebagian ahli menganjurkan agar memilih

46 komponen utama yang akar cirinya lebih besar dari satu, keragaman data yang dapat diterangkan oleh komponen utama tersebut kecil sekali.

Adapun pembakuan yang dimaksud adalah dengan mengurangkan setiap peubah bebas asal Xj dengan rata-rata dan dibagi simpangan baku, dinotasikan:

=

………... (15)

Misalkan suatu persamaan regresi dinyatakan dalam bentuk sebagai berikut:

Y = X + ε

Jika suatu matriks pengamatan X yang telah dibakukan dilambangkan dengan Z sehingga Z (bentuk korelasi) dan V฀diperoleh akar ciri (λ) dan vektor ciri (V)

dari Z V = I karena V orthogonal, persamaan regresi asal dapat dituliskan sebagai฀ berikut: Y = X + ε Y = 0 + ε฀1 + ZVV Y = 01 + Wα + ε dengan ฀W = ZV dan α = V W = Z V ……… (16) ZV฀Z ฀(ZV) = V ฀W = (ZV) ฀W ……… (17) Persamaan (17) akan menghasilkan diagonal (λ1, λ2, … ,λp) yang setara

dengan Var(Wi) = λi dan Cov(Wi-1, Wi) = 0. Hal ini menunjukkan bahwa komponen utama tidak saling berkorelasi dan komponen utama ke-i memiliki keragaman sama dengan akarciri ke-i. Sedangkan ragam koefisien regresi dari m

47

� = ∗2 2

�=1

dimana i = 1, β, …, p; g = 1, β, …, m ……… (18)

Sedangkan ig adalah koefisien pembobot komponen utama (vektor ciri), λg

adalah akar ciri. Serta s*2 adalah:

s*

2

=

=

2

( − )2 ………... (19)

Tahapan-tahapan yang dilakukan dalam analisis regresi komponen utama

adalah:

1. Membakukan peubah bebas asal yaitu X menjadi Z. 2. Mencari akar ciri dan vektor ciri dari matriks R.

3. Menentukan persamaan komponen utama dari vektor ciri.

4. Meregresikan peubah respon Y terhadap skor komponen utama W. 5. Transformasi balik.

2. Normalitas

Salah satu pengujian yang dilakukan dalam persamaan regresi untuk menguji apakah nilai-nilai dari Y berdistribusi normal pada tiap nilai dari X adalah uji normalitas (Gujarati, 2002). Pengujian normalitas dapat dilakukan dengan uji Jarque-Bera (JB). Uji JB mengukur perbedaan antara Skewness

(kemenjuluran) dan Kurtosis (keruncingan) data dari sebaran normal, serta

memasukkan ukuran keragaman. Hipotesis yang digunakan :

H0 : Error term menyebar normal

H1 : Error term tidak menyebar normal

48 JB = 6 2 + 1 4 3 2 ... (20) Dimana : S = Kemenjuluran K = Keruncingan

k = Banyaknya koefisien penduga N = Banyaknya data pengamatan Kaidah pengujian :

Jika JB < χ22

maka tolak H0

JB > χ22

maka terima H0

Jika dilakukan perhitungan dengan komputer maka dapat dilihat nilai probabilitas pada output perhitungannya. Apabila nilai probabilitasnya lebih kecil

dari α maka artinya tolak H0. Sebaliknya jika nilai probabilitas lebih besar dari α

maka artinya terima H0.

3. Heteroskedastisitas

Heteroskedastisitas adalah kondisi tidak terpenuhinya asumsi dasar metode pendugaan metode kuadrat terkecil, yaitu homoskedastisitas yang mensyaratkan bahwa penyebaran dari varians adalah sama atau ragam galat konstan dalam setiap pengamatan (Gujarati, 2002). Jadi jika ragam galat untuk tiap pengamatan tidak sama, maka disebut heteroskedastisitas. Adanya heteroskedastisitas menyebabkan dugaan ragam menjadi underestimate (statistik uji-t menjadi

overestimate) dan selang kepercayaan bagi parameter koefisien menjadi tidak

benar. Untuk mendeteksi adanya heteroskedastisitas dapat dilakukan dengan uji

White Heteroscedasticity Test, sebagai berikut :

Hipotesis yang digunakan :

H0 : tidak ada heteroskedastisitas