• Tidak ada hasil yang ditemukan

IV. METODE PENELITIAN

4.3. Metode Analisis Data

4.3.2. Pengujian Hipotesis

1. Pengujian asumsi OLS (Ordinary Least Square)

Pemilihan model tersebut antara lain didasarkan pada asumsi OLS. Asumsi pertama dari model regresi adalah suatu model dikatakan baik jika memenuhi asumsi normalitas. Normalitas menunjukkan bahwa residu atau sisa diasumsikan mengikuti distribusi normal. Uji ini digunakan untuk mengetahui apakah residual dalam model menyebar normal. Untuk mengetahuinya dilakukan uji Kolmogorov- Smirnov (KS) dengan menggunakan α sebesar 0,05. Jika nilai KS < KS1-α atau

jika nilai statistik Kolmogorov-Smirnov dikonversi ke dalam p-value maka daerah penolakannya adalah p-value hitung > p-value1-α.

Satu asumsi penting dari model regresi linier adalah bahwa gangguan (disturbunsi) yang muncul dalam fungsi regresi populasi adalah homoskedastik, yaitu semua gangguan tersebut mempunyai varian yang tetap (Setiawan, Kusrini DE.2010). Pelanggaran dari asumsi ini adalah heteroskedastisitas. Salah satu cara untuk mendeteksi adanya heteroskedastisitas adalah dengan White Heteroskedasticity Test.

Selain itu suatu fungsi dikatakan baik apabila telah memenuhi asumsi OLS yang lain, yaitu tidak terdapat gejala autokorelasi. Autokorelasi dapat didefinisikan sebagai korelasi antara anggota serangkaian observasi yang diurutkan menurut waktu seperti dalam data time series atau ruang seperti dalam data cross-sectional (Gujarati, 1997). Salah satu metode yang dapat digunakan

34 untuk menguji gejala autokorelasi tersebut adalah dengan menggunakan Uji Durbin-Watson yang dapat diperoleh dari pengolahan data dengan menggunakan program Minitab 14. Nilai statistik hitung Durbin Watson akan dibandingkan dengan batas atas dan batas bawah. Kaidah keputusannya adalah sebagai berikut:

• Jika d < dlow maka terdapat autokorelasi positif

• Jika d > (4- dlow) maka terdapat autokorelasi negatif

• Jika dlow < d < dup atau (4-dup) < d < (4-dlow) maka tidak dapat disimpulkan

• Jika dup < d < (4-dup) berarti tidak terdapat autokorelasi

Asumsi OLS lain yang harus terpenuhi adalah bahwa tidak terdapat gejala multikolinearitas di dalam fungsi. Multikolinier variabel independent adalah kondisi dimana terdapat hubungan linier diantara variabel independent. Ada beragam penyebab multikolinier, diantaranya disebabkan adanya kecendrungan variabel-variabel yang bergerak secara bersamaan. Adanya multikolinier menyebabkan ragam variabel menjadi sangat besar, sehingga koefisien regresi dugaan tidak stabil dan berimplikasi pada besar dan arah koefisien variabel menjadi tidak valid untuk diinterpretasi. Adanya multikolinier dapat dilihat pada nilah Variance Inflation Factor (VIF) >10. Jika terjadi masalah multikolinier maka harus diperbaiki terlebih dahulu dengan menambah observasi, mengeluarkan variabel independent yang berkolerasi kuat. Selain itu, multikolinieritas bisa juga diatasi dengan menggunakan analisis komponen utama/ Principal Component Analisys (PCA).

Analisis regresi komponen utama merupakan suatu analisis kombinasi antara analisis regresi dengan analisis komponen utama. Analisis regresi komponen utama ditetapkan bila dalam pembentukan model pendugaan peubah bebas yang digunakan banyak dan terdapat hubungan yang erat antar peubah bebasnya. Untuk teknis penghitungannya dapat dilihat pada Lampiran 9.

Prosedur PCA pada dasarnya adalah bertujuan untuk menyederhanakan variabel yang diamati dengan cara menyusutkan (mereduksi) dimensinya. Hal ini dilakukan dengan cara menghilangkan korelasi diantara variabel bebas melalui transformasi variabel bebas asal ke variabel baru yang tidak berkorelasi sama sekali atau yang biasa disebut dengan principal component. Setelah beberapa komponen hasil PCA yang bebas multikolinearitas diperoleh, maka komponen-

35 komponen tersebut menjadi variabel bebas baru yang akan diregresikan atau dianalisa pengaruhnya terhadap variabel tak bebas (Y) dengan menggunakan analisis regresi.

Tahapan prosedur penyelesaian PCA yang diringkas dari Nurfitriani, 2011; Putra, 2007; Endartrianti, 2011 yaitu: tahap awal yang dilakukan pada regresi komponen utama yaitu jika matriks variabel asal dilambangkan X(nxm), satuan variabel asal tidak sama, maka variabel asal perlu ditransformasikan menjadi vektor baku Z(nxm) yang dirumuskan sebagai berikut:

Dimana: Zij = unsur matriks Z baris ke-i dan kolom ke-j Xij = unsur matriks X baris ke- i dan kolom ke-j Xj = rataan parameter Xj

Sj = simpangan baku parameter Xj

Selanjutnya matriks baku ini ditransformasikan menjadi matriks skor komponen utama (SK). Peubah bebas pada regresi komponen utama merupakan kombinasi linier dari peubah asal Z (Z adalah hasil pembakuan dari peubah X), yang disebut sebagai komponen utama. Komponen utama ke- j dapat dinyatakan dalam bentuk persamaan berikut:

Wj = a1jZ1 + a2jZ2 + … + apjZp ………..……4.1 dimana W merupakan komponen utama hasil reduksi dan aj merupakan koefisien. Di antara Wj saling orthogonal (bebas satu sama lainnya). Komponen ini menjelaskan bagian terbesar dari keragaman yang dikandung oleh gugusan data yang telah dibakukan. Komponen-komponen W yang lain menjelaskan proposi keragaman yang semakin lama semakin kecil sampai semua keragaman datanya terjelaskan. Biasanya tidak semua W digunakan, sebagian ahli menganjurkan agar memilih komponen utama yang akar cirinya lebih dari satu, keragaman data yang dapat diterangkan oleh komponen utama tersebut kecil sekali.

Selanjutnya komponen utama (Wj) yang terpilih diregresikan dengan dengan Y. Persamaan regresi yang di dapat kemudian kemudian di tranformasi balik ke peubah Z, dapat diperoleh:

36 Y = c0 + c1Z1 + c2Z2 + … +cpZp ……….………..4.2 Kemudian ditransformasi lagi ke peubah asli yaitu peubah X.

Sehingga,

Y = b0 + b1X1 + b2X2 + …+ bpXp ……….…………..4.3 2. Pengujian terhadap parameter model (Uji F)

Tujuan pengujian ini adalah untuk mengetahui apakah model penduga yang diajukan sudah tepat untuk menduga parameter dan fungsi produksi.

Hipotesis:

H0 : b1 = b2 = ... = b6 = 0 H1 : Setidaknya ada satu bi ≠ 0 Uji statistik yang digunakan adalah uji F

Dimana:

R2 = Koefisien determinasi k = Jumlah parameter

n = Jumlah pengamatan (contoh) Kriteria Uji:

F-hitung > F-Tabel (k-1,n-k)  Tolak H0 F-hitung < F-Tabel (k-1,n-k)  Terima H0

Jika H0 ditolak berarti paling sedikit ada satu peubah bebas (X) yang digunakan berpengaruh sighifikan terhadap peubah tak bebas. Apabila H0 ditolak, maka garis regresi linier berganda yang bersangkutan dapat digunakan untuk memperkirakan/meramalkan peubah tak bebas (Y). Sebaliknya jika H0 diterima berarti tidak ada peubah bebas yang digunakan yang berpengaruh signifikan

37 terhadap peubah tak bebas. Apabila H0 diterima maka garis linier regresi linier berganda yang bersangkutan tidak dapat digunakan untuk memperkirakan/ meramalkan Y.

Untuk melihat sejauh mana variasi peubah tak bebas (Y) dijelaskan oleh peubah bebas (Xi) dapat dilihat dari besarnya nilai koefisien determinasi (R2). Koefisien determinasi dapat dirumuskan sebagai berikut:

Dimana: SST = Jumlah kuadrat total SSE = Jumlah kuadrat galat/eror SSR = Jumlah kuadrat regresi

Nilai R2 bergerak antara nol sampai dengan satu atau dalam notasi

matematis ditulis sebagai 0 ≤ R2 ≤1. Jika R2

sama dengan satu berarti bahwa sumbangan peubah bebas secara bersama-sama terhadap variasi peubah tak bebas adalah seratus persen. Hal ini berarti bahwa seluruh variasi pada peubah tak bebas dijelaskan oleh model.

3. Pengujian parameter variabel (Uji t)

Tujuan pengujian ini adalah untuk mengetahui apakah setiap peubah bebas berpengaruh nyata terhadap peubah tak bebas.

Hipotesa :

H0 : bi = 0

H1 : bi > 0 ; i = 1,2,3,…..,5 Uji statistik yang digunakan adalah uji-t:

Dimana: bi = Koefisien regresi ke-i yang diduga

Sbi = Standar deviasi koefisien regresi ke-i yang diduga Kriteria uji:

38 t-hitung > t-tabel (α/2, n-k)  Tolak H0

Jika H0 ditolak, artinya peubah Xi berpengaruh signifikan terhadap peubah tak bebas Y. Sebaliknya, jika H0 diterima maka peubah bebas Xi tidak berpengaruh nyata terhadap peubah tak bebas Y.

Dokumen terkait