• Tidak ada hasil yang ditemukan

METODE PENELITIAN

3.5 Metode Analisis

3.5.5 Uji Model Asumsi Klasik

Analisis regresi adalah suatu metode yang digunakan untuk menganalisis hubungan antar variable. Hubungan ini dapat diformulasikan dalam bentuk persamaan variable dependen (Y) dengan beberapa variable independen

(X1,X2,….Xn). Dalam penelitian ini digunakan model regresi yang dapat digunakan untuk mencapai penyimpangan atau erro yang minimum yaitu metode kuadrat terkecil (Ordinary Least Square=OLS). Untuk membuat regresi linier ada beberapa asumsi-asumsi yang harus dipenuhi agar taksiaran parameter tersebut BLUE (Best Linear Unbiased Estimator) (Gujarati, 1999), yaitu:

a. Nilai rata-rata untuk kesalahan pengganggu sama dengan nol atau E(ui)=0 b. Tidak ada autokorelasi antara error ui dan uj atau covarian (ui,uj)=0 c. Keragaman dari u konstan (homoskedastis) atau varian (uj)=ò2

d. Untuk pengujian hipotesis, nilai error harus berdistribusi normal denga nilai sama dengan nol dan keragaman dari u konstan (homoskedastis)

e. Tidak ada hubungan linier (kolinieritas) antara variable bebas. 3.5.5.1 Koefisein Determinasi (R2)

Koefisiensi Determinasi digunakan untuk mengetahui seberapa baik garis regresi sample sesuai dengan datanya (Gujarati, 2010:94). Nilai dari koefisien determinsai adalah antara nol dan satu. Nilai R2 yang kecil berarti kemapuan variabel-variabel independen dalam menjelaskan variasi variabel-variabel dependen amat terbatas sedangkan nilai yang mendekati satu berarti variabel-variabel independen memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variasivariabel dependen. Secara umum koefiseinsi determinasi untuk data silang (cross section) relatif lebih rendah karena adanya variasi yang besar antara masing-masing pengamatan, sedangkan untuk data runtut waktu (time series) biasanya mempunyai nilai koefisiensi determinasi yang tinggi (Imam Ghozali, 2009:15).

3.5.5.2 Uji Parsial (Uji t)

Uji statistik t pada dasarnya menunjukkan seberapa jauh pengaruh satu variabel independen terhadap variabel dependen dengan menganggap variabel independen lainnnya konstan. Jika asumsis normalitas eror yaitu � ~ ( ,�2) terpenuhi, maka dapat menggunakan uji t untuk menguji koefisiensi parsial dari regresi. Adapun uji t adalah sebagi berikut

= 1

( 1)

Diman β1 adalah koefisien parameter dan se(β1) adalah standard eror koefisien parameter. Jika nilai hitung t> nilai t tabel tα(n-k), maka H0 ditolak yang berarti X1 berpengaruh terhadap Y. α adalah tingkat signifikansi dan (n-k) derajad bebas yaitu jumlah n observasi dikurangi jumlah variabel independen dalam model. Sedangkan coefident-interval dapat dihitung dengan rumus sebagai berikut (Imam Ghozali ,2009:17);

1−2 1 1≤ 1 + /2 ( 1) 3.5.5.3 Uji Serempak (Uji F)

Uji statistic F pada dasarnya menunjukkan apakah semua variabel independen yang dimasukan dalam mdel mempunyai pengaruh simultan secara bersama-sama terhadap variabel dependen. Terdapat hubungan yang erat antara koefisensi (R2) dan liai F test. Secara matematis nilai F dapat juga dinyatakan dalam rumus seperti dibawah ini:

=

2/( −1) (1− 2)/( − )

Berdasarkan rumus ini dapat disimpulkan jika R2=0, maka F juga sama dengan nol. Semakin besar nilai R2, maka semakin besar pula nilai F. namun demikian jika R2=1, maka F menjadi tak terhingga. Jadi dapat disimpulkan uji F statistik yang mengukur signifikansi secara keseluruhan dari garis regresi dapat juga digunakan untuk menguji signifikansi dari R2. Dengan kata lain pengujian F statistic sama dengan pengujian terhadap nilai R2 sama dengan nol (Imam Ghozali, 2009:16,17).

3.5.5.4 Uji Normalitas

Uji normalitas digunakan untuk menguji dalam model regresi terdapat variable dependen dan variable independen antar keduanya mempunyai distribusi normal atau tidak. Model yang baik yaitu memiliki distribusi data normal.

Untuk melihat penyebaran titik (data) pada sumbu diagonal dari grafik dan dengan melihat histogram dari residualnya. Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal atau grafik histogramnya maka data menunjukkan pola distribusi normal, sehingga model regresi memenuhi asumsi normalitas. Selain itu normalitas dapat di uji dengan menggunakan uji Koloromov-Smirnov.

a. Jika nilai dari probabiltas lebih dari 0,05(p-value> 0,005) maka data tersebut berdistribusi normal.

b. Jika nilai dari probabilitas kurang dari 0,005(p-value< 0,005) maka data tersebut tidak berdistribusi normal.

3.5.5.5 Autokolerasi

Autokol merupakan gejala adanya kolerasi antara serangkaian observasi yang di urutkan menurut deret waktu(time series) (Gujarati, 1993). Uji autokolerasi bertujuan menguji apakah dalam suatu model regresi linear ada kolerasi antara

kesalahan “pengganggu” pada periode t dengan kesalahan pada periode

t-1(sebelumnya). Jika terdapat kolerasi, maka dinamakan ada masalah autokolerasi. Dapat pula dikatakan bahwa suatu model dikatakan baik apabila telah memenuhi asumsi tidak terdapat gejalan autokolerasi. Pada data silang waktu (cross section) masalah autokolerasi jarang terjadi karena “gangguan” pada observasi yang berbeda berasal dari individu/kelompok yang berbeda.

Dalam menditeksi ada tidaknya gejala autokolerasi digunakan uji Durbin-Watson (DW). Uji ini hanya digunakan untuk autokorelasi tingkat satu(first orede correlation) dan mensyaratkan adanya intercept (konstanta) dalam model regresi dan tidak ada varibael lag di antara variabel bebas. Hipotesis yang diuji adalah:

H0: tidak ada autokolerasi (p=0)

Tabel 3.2

Tabel Keputusan Durbin Watson

Hipotesis Nol Keputusan Jika Tidak ada autokolerasi positif

Tidak ada autokolerasi positif Tidak ada autokolerasi negative Tidak ada autokolerasi negative Tidak ada autokolerasi positif atau negatif

Tolak No decision Tolak No decision Tidak ditolak 0<d<dL dL≤d≤dU 4-dL<d<4 4-dU≤d≤4-dL dU<d<4-DU Ket: dU: Durbin Watson upper, dL:Durbin Watson lower

a. Bila nilai DW terlatak antara batas atas atau upper bound (dU) dan (4-dU), maka koefisein autokolerasi sama dengan nol, berarti tidak ada autokoleras. b. Bila nilai DW lebih rendah daripada batas bawah atau lower bound (dL), maka

koefisien autokolerasi lebih besar daripada nol, berarti ada autokolerasi positif.

c. Bila nilai DW lebih besar daripada (4-dL), maka koefisiensi autokolerasi lebih kecil daripada nol, berarti ada autokolerasi negative

d. Bila nilai DW terletak antara (4-dU) dan (4-DL), maka hasilnya tidak dapat disimpulkan.

3.5.5.6 Uji Heteroskedastisitas

Suatu fungsi dikatakan baik apabila memenuhi asumsi homoskedastisitas (tidak terjadi heterokedastisitas) atau memiliki ragam error yang sama. Tujuan

menguji ini adalah dalam model regresi terjadi ketidaksamaan variance dan residual suatu pengamatan ke pengamatan yang lain. Jika variance dari residual suatu pengamatan ke pengamatan tetap. Maka di sebut homoskedastisita dan jika berbeda disebut heteroskedastisitas. Heteroskedastisitas tidak merusak ketakbiasan dan konsistensi dari penaksir OLS, tetapi penaksir tadi tidak lagi efisien baik dalam sampel kecil maupun besar (Gujarati, 2009). Masalah heteroskedastisitas umumnya terjadi pada data silang (cross section) daripada data runtut waktu(time series). Hereteroskedastisitas tidak merusak property dari estimasi ordinary leas square (OLS) yaitu tetap tidak biased (unbiased) dan konsisten estimator, tetapi estimator ini tidak lagi memiliki minimum variance dan efisiensi sehingga tidak lagi BLUE (Best Linear Unbiased Estimato).Cara menditeksi ada tidaknya heterokedastisitas adalah dengan menggunakan uji Park. Uji ini memformalkan metode grafik plots dengan menyatakan bahwa variance � 2 merupakan fungsi dari variabel-variabel independen Xi yang dinyatakan dalam persamaan berikut:

2 = �2

Persamaan ini dijadikan linear dalam bentuk persamaan logaritma natural sehingga menjadi:

ln�2 = ln�2+ ln +

Oleh karena variance �2 umumnya tidak diketahaui, maka dapat ditaksir menggunakan residual �2 sebagai proksi, sehingga persamaan menjadi:

2 = + +

Jika nilai β signifikan secara statistic, maka mengindikasikan terjadi heterokedatisitas dan jika β tidak signifikan maka model regresi homoskedastisitas.

3.5.5.7 Uji Multikolinearitas

Multikolinearitas adalah adanya hubungan linear yang sempurna di antara beberapa atau semua variable penjelas dalam model regresi (Gujarati, 2010). Dalam penetapan suatu model seringkali terdapat kesulitan untuk memisahkan pengaruh antara dua atau lebih variable bebas dengan variable terikat. Uji multikolerasi dilakukan dengan melihat koefisien korelasi antar variable bebas yang terdapat pada matriks korelasi. Jika terdapat koefisien korelasi yang lebih besar dari (0.8) maka terdapat gejala multikolonearitas.

Untuk melihat adanya indikasi multikolinearitas dilakukan tahap-tahap sebagai berikut;

a. Tolerance dan Variance Inflation Factor (VIF). Kedua ukuran ini menunjukkan setiap variabel independen manakah yang dijelaskan oleh variabel independen lainnya. Dalam pengertian sederhana setiap variabel independen menjadi variabel dependen dan diregres terhadap variabel lainnya. Tolerance mengukur variabilitas variabel independen terpilih yang tidak dijelaskan oleh variabel independen lainnya. Jadi tolerance yang rendah sama dengan nilai VIF tinggi (karena VIF=1/tolerance). Nilai cutoff yang umum

dipakai untuk menunjukkan adanya multikolienaritas adalah tolerance<0,10 atau sama dengan VIF>10.

b. Adanya pair-wise correlation yang tinggi antar variabel independen. Jika pair-wise atau zero order correlation antar dua variabel independen tinggi(>0,80) maka multikolienaritas merupakan masalah serius. Hal ini dapat dilihat pada matriks korelasi antar variabel

Dokumen terkait