• Tidak ada hasil yang ditemukan

METODE PENELITIAN

3.3 Metode Pengolahan dan Analisis Data

3.3.1 Analisis Regresi Linear Berganda

a. Angka 1 menunjukkan data setelah berlakunya kebijakan cara

pembayaran barang dan cara penyerahan barang dalam kegiatan

ekspor.

b. Angka 0 menunjukkan data belum diberlakukan kebijakan cara

pembayaran barang dan cara penyerahan barang dalam kegiatan

ekspor.

3.3.1 Analisis Regresi Linear Berganda

Metode analisis data pada penelitian ini menggunakan analisis linear

berganda, yaitu hubungan antara depeden variabel dengan lebih dari satu

independen variabel (Supriyadi, 2014 : 66). Pada penelitian ini variabel dependen

adalah volume ekspor manggis, sedangkan untuk variabel independen diantaranya

nilai tukar riil Rupiah terhadap Dollar Amerika, produksi manggis nasional, harga

domestik dan kebijakan pemerintah PP No. 55 tahun 2008 sebagai variabel

dummy.

Bentuk persamaan regresi linear berganda pada penelitian ini yaitu :

Yvol= b0 – b1 HD + b2 K + b3 Pro – b4 d + e

Keterangan :

Yvol = Volume Ekspor Manggis Indonesia (Kg)

b0 = Kontanta

b1, b2, b3, b4 = koefisien

39

K = Kurs (Rp/US $)

Pro = Produksi Manggis Indonesia (Kg)

d = Dummy Kebijakan Pengenaan Bea Keluar Barang

Ekspor

e = error

Dengan hipotesis, bahwa b1, b4 berpengaruh negatif dan b2, b3 berpengaruh positif.

Model estimasi yang digunakan dalam persamaan regresi berganda ini yaitu OLS (Ordinary Least Square), dalam Novansi (2006 : 27) menyatakan bahwa model OLS didasarkan pada beberapa asumsi-asumsi yaitu :

1. Nilai rata-rata penganggu sama dengan nol, yaitu E (ei ) = 0, untuk I = 1, 2, 3,…,n.

2. Varian (ei ) = E (ei ) = alpha kuadrat, sama untuk penganggu (asumsi homoskedastisitas).

3. Tidak ada autokorelasi antara penganggu berarti kovarian ( ei , e f ) = 0, i ≠ j.

4. Variabel bebas X1, X2, X3, …, Xk konstan dalam sampling yang terulang dan bebas terhadap penganggu, E (Xi, ei ) = 0.

5. Tidak ada multikolinearitas yang sempurna diantara variabel bebas X. 6. Ei = N (0; alpha kuadrat), artinya penganggu mengikuti distribusi normal

dengan rata-rata nol dan varian alpha kuadrat.

Sarwono (2013 : 11), mengemukakan bahwa syarat-syarat penggunaan

analisis regresi linier berganda adalah sebagai berikut :

a. Data harus metrik (kuantitatif/numerik), sebaikanya berskala interval.

b. Variabel bebas terdiri atas lebih dari dua variabel.

40

d. Hubungan antarvariabel bersifat linear, artinya semua variabel bebas

memengaruhi variabel tergantung. Pengertian ini secara teknis disebut

bersifat rekursif. Maksudnya, pengaruh bersifat searah, yaitu dari

variabel-variabel bebas (variabel-variabel X) ke variabel-variabel tergantung (variabel-variabel Y) dan tidak

boleh sebaliknya, atau tidak boleh ada pengaruh secara timbal balik

(reciprocal) antara variabel bebas dan tergantung.

e. Tidak boleh terjadi multikolonearitas. Artinya, sesama variabel bebas tidak

boleh berkorelasi terlalu tinggi, misalnya 0,9 atau terlalu rendah, misalnya

0,01.

f. Tidak boleh terjadi autokorelasi. Autokorelasi akan terjadi jika angka

Durbin dan Watson < 1 atau >3 dengan skala 1-4.

g. Jika ingin menguji keselarasan model (goodness of fit), gunakan simpangan

baku kesalahan. Untuk kriterianya digunakan dengan melihat angka

standard error of estimate (SSE) yang dibandingkan dengan nilai

simpangan baku (standard deviation). Jika angka SSE < simpangan baku,

model dianggap selaras.

h. Kelayakan model regresi diukur dengan menggunakan nilai signifikansi.

Model regresi layak dan dapat digunakan jika angka signifikansi lebih

kecil dari 0,05 (dengan presisi 5%) atau 0,01 (dengan presisi 1%).

i. Model regresi dinyatakan layak jika angka signifikansi pada ANOVA <

0,05.

j. Koefisien regresi harus sigifikan. Pengujian dilakukan dengan Uji T.

41

k. Keselarasan model regresi dapat diterangkan dengan menggunakan nilai r2.

Semakin besar nilai tersebut, semakin baik modelnya. Jika nilai mendekati

1 model regresi semakin baik. Nilai r2 mempunyai karakteristik, yaitu

selalu positif dan nilai r2 maksimal sebesar 1. Nilai r2 sebesar 1 akan

mempunyai arti kesesuain yang sempurna. Maksudnya, seluruh variasi

dalam variabel Y dapat diterangkan oleh model regresi. Sebaliknya, jika r2

sama dengan 0, maka tidak ada hubungan linear antara X dan Y.

l. Data harus berdistribusi normal.

Ghozali (2011 : 85) dalam Pebriani (2016 : 50) mengatakan bahwa

untuk mengetahui pengaruh perubahan variabel independen terhadap

variabel dependen baik secara parsial maupun simultan, maka digunakan

regresi liniear berganda (Multiple Regresstion) dan alpha yang digunakan

adalah 5%. Sebelum dilakukan pengujian dengan regresi berganda

variabel-variabel penelitian diuji dengan asumsi klasik atau biasa dikenal

dengan uji BLUE (Best Liniear Unbiased Estimate), yaitu data

terdistribusi normal (uji normalitas) tidak terjadi heteroskedastisitas dan

tidak terjadi multikolinieritas serta tidak terjadi autokolerasi.

a. Uji Autokorelasi

Uji Autokorelasi merupakan uji yang mengambarkan korelasi antara error i dengan error j untuk i tak sama j. Pengujian Autokorelasi salah

satunya dapat dilakukan dengan menghitung nilai DW (Uji Durbin

42

penganalisis dengan aplikasi SPSS. Uji Autokorelasi juga dapat dilakukan

dengan metode Brisch-Godfrey atau LM (Lagrange Multiplier) test.

Pada pengujian autokorelasi menggunakan durbin watson,

pengambilan keputusan dapat dilihat dari tabel berikut ini :

Tabel 5. Pengambilan Keputusan Uji Durbin-Watson

Jika nilai dw Keputusan

0 < dw < dL Ada autokorelasi positif

dL ≤ dw ≤ dU Daerah ragu-ragu

dU < dw < 4-dU Tidak autokorelasi

4-dU ≤ dw ≤ 4-dL Daerah ragu-ragu

4-dL < dw < 4 Ada autokorelasi negatif Sumber : Widarjono (2009 : 146 ) dalam Pebriani (54 : 2017)

Selain menggunakan tabel di atas, salah satu pengujian autokorelasi

dengan menghitung nilai dW yang mendekati 2, nilai dW mendekati 2

menyatakan bahwa tidak terjadi autokorelasi (Supriyadi, 2014:72).

b. Uji Heteroskedastisitas

Laili (2014 : 17) menyebutkan bahwa heteroskedastisitas terjadi jika semua residual atau error mempunyai varian yang tidak konstan atau

berubah-ubah. Ghozali (2006 : 125) dalam Pebriani (2017 : 53),

menyatakan bahwa model regresi yang baik adalah yang

homoskedastisitas atau tidak terjadi heteroskedastistas. Untuk mengetahui

Heteroskedastisitas dapat dilakukan dengan uji Korelasi Rank Spearman,

uji Glejer, melihat scatterplot dan Uji Park pada sofware SPSS. Menurut

43

heteroskedastisitas dapat dilakukan dengan metode Glejser. Metode ini

melakukan regresi nilai absolut residual dengan variabel independennya.

Sunyoto (2010 : 101) dalam Rosita (2016 : 55), homoskedastisitas

terjadi jika pada scatterplot titik-titik hasil pengolahan data antara ZPRED

dan SRESID menyebar di bawah maupun di atas titik origin (angka 0)

pada sumbu Y dan tidak mempunyai pola teratur. Sedangkan

heteroskedastisitas terjadi jika pada scatterplot titik-titiknya mempunyai

pola teratur baik menyempit, melebar, maupun bergelombang.

c. Uji Multikolinearitas

Uji Multikolinearity menurut Ghozali (2006 : 95-96) dalam Pebriani (2017 : 52) memiliki tujuan untuk menguji adanya korelasi antar variabel

bebas (variabel independen). Model regresi yang baik seharusnya tidak

terjadi korelasi di antara variabel independen.

Cara umum untuk mendeteksi adanya multikolinieritas adalah dengan

melihat adanya nilai R2 yang tinggi dalam model tetapi tingkat signifikan

yang sangat kecil dari hasil regresi tersebut dan cenderung banyak yang

tidak signifikan. Pengujian dengan menggunakan menghitung nilai VIF

untuk semua variabel independen beberapa buku yang mengatakan VIF <

5 atau VIF < 10 menyatakan tidak ada multikolinearity (Supriyadi, 2014 :

83).

d. Uji Normalitas

Salah satu asumsi yang harus dibuktikan atau diuji adalah menguji kenormalan residual atau data yang akan diolah (Supriyadi, 2014 : 84).

44

Ada tiga cara untuk mengetahui kenormalan residual atau data dengan

SPPS yaitu sebagai berikut:

a) Metode Grafik

Pengujian normalitas dengan menggunakan analisis grafik

merupakan metode termudah. Salah satunya dengan melihat

Normal Q-Q Plot pada output SPSS, pertama-tama dilakukan

plotting data antara expected cumm dengan observed cumn, jika

hasil plotting data menyebar sekitar garis lurus maka dikatakan

data residual menyebar normal (Supriyadi, 2014:84).

Analisis grafik juga dilakukan dengan menggunakan

histogram dengan menggambarkan variabel dependen sebagai

sumbu vertikal sedangkan nilai residual terstandarisasi

digambarkan sebagai sumbu horisontal. Jika Histogram

Standardized Regression Residual membentuk kurva seperti

lonceng maka nilai residual tersebut dinyatakan normal (Ghozali,

2009 : 34 ) dalam Susilawati (2017 : 46-47).

b) Metode Pengujian Kolmogorov Smirnov

Pada metode ini, syarat yang menyatakan bahwa data normal

jika probability atau p > 0.05 pada uji normalitas kolmogorov

smirnov.

c) Uji Jarque Bare (JB).

Uji normalitas juga dapat dilakukan dengan statistik Jarque

45

nilai Prob. JB hitung lebih besar dari 0.05 maka dapat disimpulkan

bahwa residual terdistribusi normal dan sebaliknya apabila nilai

prob JB lebih kecil dari tingkat alpha yang ditentukan maka

distribusi data tidak normal.

Dokumen terkait