• Tidak ada hasil yang ditemukan

3.3 Analisis Data

3.3.5 Pengaruh harga terhadap jumlah kunjungan kapal

Untuk menghitung besaran pengaruh harga terhadap jumlah kunjungan kapal, maka harus dilakukan uji dengan metode uji regresi. Adapun pembangunan model dasar dinyatakan dalam bentuk persamaan matematik sebagai berikut:

e x b x b x b x b y 1 12 23 3... n n  Keterangan :

y = Jumlah kunjungan kapal perikanan

α = Konstanta

x1 ... xn = Variabel bebas (harga komoditas perikanan) yang mempengaruhi jumlah kunjungan kapal.

b1 ... bn = Besaran pengaruh variabel bebas e = Error

Pengujian yang akan dilakukan dalam pembangunan model adalah uji normalitas, uji homogenitas, uji heterokedasitas, uji autokorelasi, uji multikolinearitas dan uji korelasi. Berbagai uji tersebut diperlukan guna mendapatkan suatu persamaan yang baik (best fit). Pengujian dilakukan dengan tingkat signikansi  5% atau 0,05 dan 10% atau 0,01. Hasil berbagai uji tersebut merupakan representatif dari hubungan antara harga komoditas perikanan yang menjadi variabel bebas terhadap jumlah kunjungan kapal perikanan tangkap di PPN Brondong.

a) Uji Normalitas

Uji normalitas data dimaksudkan untuk memperlihatkan bahwa data sampel berasal dari populasi yang berdistribusi normal. Ghozali (2006) mendiskripsikan bahwa uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal. Ada beberapa teknik yang dapat digunakan untuk menguji normalitas data, antara lain:

1. Analisis grafik. Metode ini merupakan salah satu cara termudah untuk melakukan uji normalitas. Adapun caranya adalah dengan melihat normal probality plot yang membandingkan distribusi komulatif dan distribusi normal. Distribusi normal akan membentuk satu garis lurus diagonal, dan ploting data residual akan dibandingkan dengan garis diagonal. Jika distribusi data residual normal, maka garis yang menggambarkan data sesungguhnya akan mengikuti garis diagonal. 2. Analisis statistik. Analisis ini sebaiknya digunakan untuk melengkapi

hasil analisis grafik. Adapun uji statistik yang sering digunakan antara lain :

a) Dengan kertas peluang normal b) Dengan uji chi-kuadrat, uji Liliefors c) Teknik Kolmogorov-Smirnov

Pada penelitian kali ini, teknik uji normalitas yang digunakan adalah dengan menggunakan dengan menggunakan metode analisis grafik dan Teknik Kolmogorov-Smirnov. Konsep dasar dari uji normalitas Kolmogorov Smirnov adalah dengan membandingkan distribusi data (yang akan diuji normalitasnya) dengan distribusi normal baku. Distribusi normal baku adalah data yang telah ditransformasikan ke dalam bentuk Z-Score dan diasumsikan normal. Dengan kata lain, uji Kolmogorov Smirnov adalah uji beda antara data yang diuji normalitasnya dengan data normal baku.

Hipotesis yang diuji adalah:

Ho : Sampel berasal dari populasi yang berdistribusi normal H1 : Sampel tidak berasal dari populasi yang berdistribusi normal

Dengan demikian, normalitas dipenuhi jika hasil uji tidak signifikan untuk suatu taraf signifikansi () tertentu (biasanya =0,05 atau =0,01). Sebaliknya, jika hasil uji signifikan maka normalitas data tidak terpenuhi. Cara mengetahui signifikan atau tidak signifikan hasil uji normalitas adalah dengan memperhatikan bilangan pada kolom signifikansi (Sig.) Untuk menetapkan kenormalan, kriteria yang berlaku adalah sebagai berikut.

1) Tetapkan taraf signifikansi uji misalnya =0,05

21

3) Jika signifikansi yang diperoleh > , maka sampel berasal dari populasi yang berdistribusi normal.

4) Jika signifikansi yang diperoleh < , maka sampel bukan berasal dari populasi yang berdistribusi normal.

Apabila hasil uji menunjukkan data tidak normal maka dapat dilakukan beberapa alternatif menanganan masalah ketidaknormalan data sebagai berikut:

1) Lakukan pemotongan data, mungkin ada data yang out liers (berada jauh dari rata-rata) misalnya sangat tinggi nilainya atau sangat rendah. 2) Perbesar sampel, jika sampel besar sekali maka data akan mendekati

normal (asymptoticallynormal).

3) Lakukan transformasi data, misalnya dilogaritmakan. Dengan transformasi logaritma maka data yang tidak normal akan membaik distribusinya karena rentangan data akan mendekati rata-ratanya. b) Uji Homogenitas

Uji homogenitas dimaksudkan untuk memperlihatkan bahwa dua atau lebih kelompok data sampel berasal dari populasi yang memiliki variansi yang sama. Pada analisis regresi, persyaratan analisis yang dibutuhkan adalah bahwa galat regresi untuk setiap pengelompokan berdasarkan variabel terikatnya memiliki variansi yang sama.

Interpretasi hasil tabel Test of Homogenity of Variance dilakukan dengan memilih salah satu statistik, yaitu statistik yang didasarkan pada rata-rata (Based on Mean). Hipotesis yang diuji adalah:

Ho : Variansi pada tiap kelompok sama (homogen)

H1 : Variansi pada tiap kelompok tidak sama (tidak homogen)

Dengan demikian, kehomogenan dipenuhi jika hasil uji tidak signifikan untuk suatu taraf signifikansi () tertentu (Biasanya = 0,05 atau 0,01). Sebaliknya, jika hasil uji signifikan maka kenormalan tidak dipenuhi. Sama seperti untuk uji normalitas. Pada kolom Sig. terdapat bilangan yang menunjukkan taraf signifikansi yang diperoleh. Untuk menetapkan homogenitas digunakan pedoman sebagai berikut.

1) Tetapkan taraf signifikansi uji, misalnya = 0,05 2) Bandingkan p dengan taraf signifikansi yang diperoleh

3) Jika signifikansi yang diperoleh > , maka variansi setiap sampel sama (homogen)

4) Jika signifikansi yang diperoleh < , maka variansi setiap sampel tidak sama (tidak homogen)

c) Uji Multikolinearitas

Uji Multikolinearitas bertujuan untuk mengetahui ada tidaknya hubungan (korelasi) yang signifikan antar variabel bebas (independen) (Ghozali, 2006). Model regresi yang baik seharusnya tidak terdapat hubungan yang cukup tinggi (signifikan) antar variabel bebas karena hal ini menandakan ada aspek yang sama diukur pada variabel bebas. Jika hal ini terjadi, maka variabel bebas tersebut tidak layak digunakan untuk menentukan kontribusi secara bersama-sama terhadap variabel terikat (dependen).

Gejala multikolinearitas di dalam model regresi dapat dideteksi melalui beberapa hal, diantaranya (Ghozali, 2006):

1. Nilai R2 yang dihasilkan oleh suatu estimasi model regresi sangat tinggi tetapi secara individual variabel – variabel independen banyak yang tidak signifikan mempengaruhi variabel dependen.

2. Menganalisis matrik korelasi variabel – variabel independen. Jika antar variabel independen ada korelasi cukup tinggi (umumnya di atas 0,90), maka hal ini merupakan indikasi adanya multikolinearitas.

3. Nilai tolerance dan VIF (variance inflation factor). Kedua nilai ini menunjukkan besaran variabel independen yang dijelaskan oleh variabel independen lainnya. Nilai tolerance yang umum dipakai untuk menunjukkan gejala multikolinearitas adalah bebih kecil dari 0,10

(tolerance ≤ 0,10) atau VIF lebih besar dari 10 (VIF ≥ 10). Namun, Iriawan dan Astuti (2006) menyebutkan bahwa jika nilai VIF lebih dari 5 (lima) maka model regresi dapat disimpulkan terjadi gejala multikolinieritas.

23

Dalam penelitian ini, uji multikolinearitas dilakukan dengan melihat nilai VIF. Adapun Perumusan hipotesa untuk uji multikolinearitas adalah :

1) H0 : tidak ada multikolinearitas 2) H1 : terjadi multikolinearitas

Ada beberapa metode yang dapat digunakan untuk mengatasi masalah multikolinieritas pada suatu model regresi:

1) Mentransformasikan variable-variabel

Yakni mentransformasikan variable-variabel dalam suatu model regresi menjadi bentuk yang disebut first difference. Hal ini dilakukan dengan mengurangkan variable pada periode sebelumnya dari variable pada periode yang sedang berjalan.

2) Mendapatkan lebih banyak data / memperbesar sample. Dengan bertambahnya sample maka standard errors cenderung turun yang akan memungkinkan kita dapat menaksir koefisien regresi secara lebih tepat. 3) Menghilangkan salah satu variabel independen yang memiliki korelasi

tinggi, dan membuat variabel baru yang merupakan gabungan dari variabel yang saling berkorelasi tinggi dan menggunakan variabel baru sebagai pengganti.

4) Beberapa ahli statistik menggunakan analisis kompunen utama (principal component analysis) sebagai salah satu solusi yang dapat digunakan untuk mengatasi masalah multikolinieritas. Melalui penggunaan analisis komponen utama ini akan dihasilkan variabel-variabel baru yang merupakan kombinasi linier dari variabel-variabel bebas asal dan antarvariabel baru ini bersifat saling bebas. Variabel-variabel yang baru ini disebut komponen utama, dan selanjutnya diregresikan dengan variabel tak bebas.

d) Uji Heteroskedastisitas

Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians dari residual satu pengamatan ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah di mana terdapat kesamaan

varians dari residual satu pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas.

Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot

dan atau uji statistik. Metode scatter plot diperoleh dengan cara memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model yang baik (homoskedastisitas) didapatkan jika tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Selain tidak ada pola yang jelas, titik – titik yang ada (hasil plotting) juga harus menyebar di atas dan di bawah angka 0 (nol) pada sumbu Y. Uji statistik yang dapat digunakan adalah uji Glejser, uji Park atau uji White, namun dalam penelitian ini metode yang digunakan adalah hanya metode

scatter plot dan uji statistik yang digunakan adalah uji Glejser. uji Glejser dilakukan dengan cara meregresikan nilai absolut residual terhadap variabel independen (Gujarati, 2003)

Beberapa alternatif solusi jika model menyalahi asumsi homoskedastisitas adalah dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data bernilai positif. Selain itu, dapat juga dilakukan dengan membagi semua variabel dengan variabel yang mengalami gangguan heteroskedastisitas.

e) Uji Autokorelasi

Uji autokorelasi digunakan untuk menunjukkan adanya korelasi antara

error dengan error periode sebelumnya. Pada asumsi klasik, hal ini tidak boleh terjadi. Uji autokorelasi dalam penelitian ini dilakukan dengan menggunakan metode Durbin–Watson. Batasan nilai yang digunakan adalah sebagai berikut (Santoso, 2010) :

1) Angka D-W di bawah -2 berarti ada autokorelasi positif.

2) Angka D-W di antara -2 sampai +2, berarti tidak ada autokorelasi. 3) Angka D-W di atas +2 berarti ada autokorelasi negatif.

25

Jika pada suatu pengujian model terdapat Autokorelasi, maka bisa diatasi dengan berbagai cara, antara lain: (1) Melakukan transformasi data; (2) Menambah data observasi.

f) Uji Korelasi

Analisis korelasi berfungsi untuk menyatakan derajat keeratan hubungan dan arah hubungan antara variabel bebas dengan variabel terikatnya. Semakin tinggi nilai korelasi, semakin tinggi derajat keeratan hubungan kedua variabel tersebut. Nilai korelasi memiliki rentang antara 0 sampai 1 atau 0 sampai -1.

Tanda positif dan negatif menunjukkan arah hubungan. Tanda positif menunjukkan hubungan searah. Jika 1 variabel naik, variabel yang lain naik. Tanda negatif menunjukkan hubungan berlawanan. Jika 1 variabel naik, variabel yang lain akan turun. Dalam penelitian ini, analisis korelasional yang digunakan adalah analisis korelasi Pearson. Uji korelasi berfungsi untuk menyatakan derajat keeratan hubungan dan arah hubungan antara 2 variabel.

4 GAMBARAN UMUM LOKASI PENELITIAN

Dokumen terkait