METODE PENELITIAN
3.3 Metode Pengolahan dan Analisis Data
3.3.1 Analisis Regresi Linear Berganda
a. Angka 1 menunjukkan data setelah berlakunya kebijakan cara
pembayaran barang dan cara penyerahan barang dalam kegiatan
ekspor.
b. Angka 0 menunjukkan data belum diberlakukan kebijakan cara
pembayaran barang dan cara penyerahan barang dalam kegiatan
ekspor.
3.3.1 Analisis Regresi Linear Berganda
Metode analisis data pada penelitian ini menggunakan analisis linear
berganda, yaitu hubungan antara depeden variabel dengan lebih dari satu
independen variabel (Supriyadi, 2014 : 66). Pada penelitian ini variabel dependen
adalah volume ekspor manggis, sedangkan untuk variabel independen diantaranya
nilai tukar riil Rupiah terhadap Dollar Amerika, produksi manggis nasional, harga
domestik dan kebijakan pemerintah PP No. 55 tahun 2008 sebagai variabel
dummy.
Bentuk persamaan regresi linear berganda pada penelitian ini yaitu :
Yvol= b0 – b1 HD + b2 K + b3 Pro – b4 d + e
Keterangan :
Yvol = Volume Ekspor Manggis Indonesia (Kg)
b0 = Kontanta
b1, b2, b3, b4 = koefisien
39
K = Kurs (Rp/US $)
Pro = Produksi Manggis Indonesia (Kg)
d = Dummy Kebijakan Pengenaan Bea Keluar Barang
Ekspor
e = error
Dengan hipotesis, bahwa b1, b4 berpengaruh negatif dan b2, b3 berpengaruh positif.
Model estimasi yang digunakan dalam persamaan regresi berganda ini yaitu OLS (Ordinary Least Square), dalam Novansi (2006 : 27) menyatakan bahwa model OLS didasarkan pada beberapa asumsi-asumsi yaitu :
1. Nilai rata-rata penganggu sama dengan nol, yaitu E (ei ) = 0, untuk I = 1, 2, 3,…,n.
2. Varian (ei ) = E (ei ) = alpha kuadrat, sama untuk penganggu (asumsi homoskedastisitas).
3. Tidak ada autokorelasi antara penganggu berarti kovarian ( ei , e f ) = 0, i ≠ j.
4. Variabel bebas X1, X2, X3, …, Xk konstan dalam sampling yang terulang dan bebas terhadap penganggu, E (Xi, ei ) = 0.
5. Tidak ada multikolinearitas yang sempurna diantara variabel bebas X. 6. Ei = N (0; alpha kuadrat), artinya penganggu mengikuti distribusi normal
dengan rata-rata nol dan varian alpha kuadrat.
Sarwono (2013 : 11), mengemukakan bahwa syarat-syarat penggunaan
analisis regresi linier berganda adalah sebagai berikut :
a. Data harus metrik (kuantitatif/numerik), sebaikanya berskala interval.
b. Variabel bebas terdiri atas lebih dari dua variabel.
40
d. Hubungan antarvariabel bersifat linear, artinya semua variabel bebas
memengaruhi variabel tergantung. Pengertian ini secara teknis disebut
bersifat rekursif. Maksudnya, pengaruh bersifat searah, yaitu dari
variabel-variabel bebas (variabel-variabel X) ke variabel-variabel tergantung (variabel-variabel Y) dan tidak
boleh sebaliknya, atau tidak boleh ada pengaruh secara timbal balik
(reciprocal) antara variabel bebas dan tergantung.
e. Tidak boleh terjadi multikolonearitas. Artinya, sesama variabel bebas tidak
boleh berkorelasi terlalu tinggi, misalnya 0,9 atau terlalu rendah, misalnya
0,01.
f. Tidak boleh terjadi autokorelasi. Autokorelasi akan terjadi jika angka
Durbin dan Watson < 1 atau >3 dengan skala 1-4.
g. Jika ingin menguji keselarasan model (goodness of fit), gunakan simpangan
baku kesalahan. Untuk kriterianya digunakan dengan melihat angka
standard error of estimate (SSE) yang dibandingkan dengan nilai
simpangan baku (standard deviation). Jika angka SSE < simpangan baku,
model dianggap selaras.
h. Kelayakan model regresi diukur dengan menggunakan nilai signifikansi.
Model regresi layak dan dapat digunakan jika angka signifikansi lebih
kecil dari 0,05 (dengan presisi 5%) atau 0,01 (dengan presisi 1%).
i. Model regresi dinyatakan layak jika angka signifikansi pada ANOVA <
0,05.
j. Koefisien regresi harus sigifikan. Pengujian dilakukan dengan Uji T.
41
k. Keselarasan model regresi dapat diterangkan dengan menggunakan nilai r2.
Semakin besar nilai tersebut, semakin baik modelnya. Jika nilai mendekati
1 model regresi semakin baik. Nilai r2 mempunyai karakteristik, yaitu
selalu positif dan nilai r2 maksimal sebesar 1. Nilai r2 sebesar 1 akan
mempunyai arti kesesuain yang sempurna. Maksudnya, seluruh variasi
dalam variabel Y dapat diterangkan oleh model regresi. Sebaliknya, jika r2
sama dengan 0, maka tidak ada hubungan linear antara X dan Y.
l. Data harus berdistribusi normal.
Ghozali (2011 : 85) dalam Pebriani (2016 : 50) mengatakan bahwa
untuk mengetahui pengaruh perubahan variabel independen terhadap
variabel dependen baik secara parsial maupun simultan, maka digunakan
regresi liniear berganda (Multiple Regresstion) dan alpha yang digunakan
adalah 5%. Sebelum dilakukan pengujian dengan regresi berganda
variabel-variabel penelitian diuji dengan asumsi klasik atau biasa dikenal
dengan uji BLUE (Best Liniear Unbiased Estimate), yaitu data
terdistribusi normal (uji normalitas) tidak terjadi heteroskedastisitas dan
tidak terjadi multikolinieritas serta tidak terjadi autokolerasi.
a. Uji Autokorelasi
Uji Autokorelasi merupakan uji yang mengambarkan korelasi antara error i dengan error j untuk i tak sama j. Pengujian Autokorelasi salah
satunya dapat dilakukan dengan menghitung nilai DW (Uji Durbin
42
penganalisis dengan aplikasi SPSS. Uji Autokorelasi juga dapat dilakukan
dengan metode Brisch-Godfrey atau LM (Lagrange Multiplier) test.
Pada pengujian autokorelasi menggunakan durbin watson,
pengambilan keputusan dapat dilihat dari tabel berikut ini :
Tabel 5. Pengambilan Keputusan Uji Durbin-Watson
Jika nilai dw Keputusan
0 < dw < dL Ada autokorelasi positif
dL ≤ dw ≤ dU Daerah ragu-ragu
dU < dw < 4-dU Tidak autokorelasi
4-dU ≤ dw ≤ 4-dL Daerah ragu-ragu
4-dL < dw < 4 Ada autokorelasi negatif Sumber : Widarjono (2009 : 146 ) dalam Pebriani (54 : 2017)
Selain menggunakan tabel di atas, salah satu pengujian autokorelasi
dengan menghitung nilai dW yang mendekati 2, nilai dW mendekati 2
menyatakan bahwa tidak terjadi autokorelasi (Supriyadi, 2014:72).
b. Uji Heteroskedastisitas
Laili (2014 : 17) menyebutkan bahwa heteroskedastisitas terjadi jika semua residual atau error mempunyai varian yang tidak konstan atau
berubah-ubah. Ghozali (2006 : 125) dalam Pebriani (2017 : 53),
menyatakan bahwa model regresi yang baik adalah yang
homoskedastisitas atau tidak terjadi heteroskedastistas. Untuk mengetahui
Heteroskedastisitas dapat dilakukan dengan uji Korelasi Rank Spearman,
uji Glejer, melihat scatterplot dan Uji Park pada sofware SPSS. Menurut
43
heteroskedastisitas dapat dilakukan dengan metode Glejser. Metode ini
melakukan regresi nilai absolut residual dengan variabel independennya.
Sunyoto (2010 : 101) dalam Rosita (2016 : 55), homoskedastisitas
terjadi jika pada scatterplot titik-titik hasil pengolahan data antara ZPRED
dan SRESID menyebar di bawah maupun di atas titik origin (angka 0)
pada sumbu Y dan tidak mempunyai pola teratur. Sedangkan
heteroskedastisitas terjadi jika pada scatterplot titik-titiknya mempunyai
pola teratur baik menyempit, melebar, maupun bergelombang.
c. Uji Multikolinearitas
Uji Multikolinearity menurut Ghozali (2006 : 95-96) dalam Pebriani (2017 : 52) memiliki tujuan untuk menguji adanya korelasi antar variabel
bebas (variabel independen). Model regresi yang baik seharusnya tidak
terjadi korelasi di antara variabel independen.
Cara umum untuk mendeteksi adanya multikolinieritas adalah dengan
melihat adanya nilai R2 yang tinggi dalam model tetapi tingkat signifikan
yang sangat kecil dari hasil regresi tersebut dan cenderung banyak yang
tidak signifikan. Pengujian dengan menggunakan menghitung nilai VIF
untuk semua variabel independen beberapa buku yang mengatakan VIF <
5 atau VIF < 10 menyatakan tidak ada multikolinearity (Supriyadi, 2014 :
83).
d. Uji Normalitas
Salah satu asumsi yang harus dibuktikan atau diuji adalah menguji kenormalan residual atau data yang akan diolah (Supriyadi, 2014 : 84).
44
Ada tiga cara untuk mengetahui kenormalan residual atau data dengan
SPPS yaitu sebagai berikut:
a) Metode Grafik
Pengujian normalitas dengan menggunakan analisis grafik
merupakan metode termudah. Salah satunya dengan melihat
Normal Q-Q Plot pada output SPSS, pertama-tama dilakukan
plotting data antara expected cumm dengan observed cumn, jika
hasil plotting data menyebar sekitar garis lurus maka dikatakan
data residual menyebar normal (Supriyadi, 2014:84).
Analisis grafik juga dilakukan dengan menggunakan
histogram dengan menggambarkan variabel dependen sebagai
sumbu vertikal sedangkan nilai residual terstandarisasi
digambarkan sebagai sumbu horisontal. Jika Histogram
Standardized Regression Residual membentuk kurva seperti
lonceng maka nilai residual tersebut dinyatakan normal (Ghozali,
2009 : 34 ) dalam Susilawati (2017 : 46-47).
b) Metode Pengujian Kolmogorov Smirnov
Pada metode ini, syarat yang menyatakan bahwa data normal
jika probability atau p > 0.05 pada uji normalitas kolmogorov
smirnov.
c) Uji Jarque Bare (JB).
Uji normalitas juga dapat dilakukan dengan statistik Jarque
45
nilai Prob. JB hitung lebih besar dari 0.05 maka dapat disimpulkan
bahwa residual terdistribusi normal dan sebaliknya apabila nilai
prob JB lebih kecil dari tingkat alpha yang ditentukan maka
distribusi data tidak normal.