• Tidak ada hasil yang ditemukan

BAB II TINJAUAN PUSTAKA

C. Teknik Analisis

1. Uji Asumsi Klasik

Model regresi yang baik adalah model regresi yang menghasilkan estimasi linier tidak bias (Best Linear Unbias Estimator/BLUE). Kondisi ini akan terjadi jika dipenuhi beberapa asumsi, yang disebut dengan asumsi klasik. Asumsi klasik selengkapnya adalah sebagai berikut :

a. Uji Normalitas

Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak. Model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. Jadi uji normalitas

bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya bukan pada masing-masing variabel penelitian.

Uji normalitas diantaranya dilakukan dengan uji Kolmogorov- Smirnov. Tidak ada metode yang paling baik atau paling tepat, tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan persepsi diantara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.

Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi Kolmogorov-Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data

outliers atau menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.

b. Uji Multikolinieritas

Menurut Singgih Santoso (2010:206), Multikolinieritasmengandung arti bahwa antar variabel independen yang terdapat dalam model memiliki hubungan yang sempurna atau mendekati sempurna (koefisien korelasinya tinggi atau bahkan 1). Konsekuensi yang sangat penting bagi model regresi yang mengandung multikolinieritas adalah bahwa kesalahan standar estimasi akan cenderung meningkat dengan bertambahnya variabel independen, tingkat signifikansi yang digunakan untuk menolak hipotesis nol (H0) akan semakin besar dan probabilitas

menerima hipotesis yang salah akan semakin besar. Akibatnya model regresi yang diperoleh tidak valid untuk menaksir nilai variabel independen. Menganalisa matriks korelasi yang cukup tinggi (umumnya diatas 90% maka hal ini diindikasikan adanya multikolinieritas. Dilihat dari nilai tolerance dan Variance Inflation Factor (VIF). Model regresi yang bebas multikolinieritas mempunyai nilai tolerance yang mendekati 1 dan di atas 0,10 dan untuk nilai VIF di sekitar angka 1. Diagnosis sederhana terhadap adanya multikolinieritas di dalam model regresi adalah sebagai berikut :

1) Melalui nilai t hitung dan R

2

(R square). Jika R square tinggi sedangkan sebagian besar atau bahkan seluruh koefisien regresi tidak signifikan (nilai t hitung sangat rendah), maka kemungkinan terdapat multikolinieritas dalam model tersebut.

2) Menentukan koefisien antara variabel independen yang satu dengan variabel independen yang lain. Jika antara dua variabel independen memiliki korelasi yang spesifik, misalnya koefisien korelasi yang tinggi antara variabel independen atau tanda koefisien korelasi variabel independen berbeda dengan tanda koefisien regresinya, maka di dalam model regresi tersebut terdapat multikolinieritas. 3) Membuat persamaan regresi antar variabel independen. Jika

koefisien regresinya signifikan, maka dalam model terdapat multikolinieritas.

Menghilangkan adanya multikolinieritas pada suatu model regresi terdapat bermacam-macam cara. Cara yang paling mudah adalah menghilangkan salah satu atau beberapa variabel yang mempunyai korelasi tinggi dari model regresi. Jika ini dilakukan berarti melakukan kesalahan spesifik, karena mengeluarkan variabel independen dari model regresi yang secara teoritis variabel tersebut dapat mempengaruhi variabel dependen. Cara lain yang dapat dilakukan adalah dengan menambah data, cara ini akan bermanfaat jika dapat dipastikan bahwa adanya multikolinieritas dalam model disebabkan oleh kesalahan sampel. Disamping kedua cara tersebut, terdapat cara yang sering digunakan, yaitu dengan mentransformasi variabel.

c. Uji Heteroskedastisitas

Menurut Singgih Santoso (2010:207), Uji heteroskedastisitas bertujuan untuk menguji apakah model regresi terjadi ketidaksamaan varian dari residual satu pengamatan ke pengamatan yang lain. Jika varian dari residual pengamatan satu ke pengamatan berikutnya tetap, maka disebut homoskedastisitas dan jika berbeda disebut heteroskedastisitas. Model regresi yang baik adalah yang homoskedastisitas dan tidak terjadi heteroskedastisitas. Untuk mendeteksi ada atau tidaknya heteroskedastisitas adalah dengan cara melihat Garafik Plot antara nilai prediksi variabel terikat (dependen) dengan residualnya. Deteksi ada atau tidaknya heteroskedastisitas dilakukan dengan melihat ada tidaknya pola tertentu pada grafik

scatterplot antara SRESID dan ZPRED dimana sumbu X adalah Y yang telah diprediksi dan sumbu X adalah residual (Y prediksi - Y sesungguhnya) yang telah di-studentize. Dasar analisis yaitu :

Jika ada pola tertentu, seperti titik-titik yang ada membentuk suatu pola tertentu yang teratur (bergelombang, melebar kemudian meyempit) maka mengindikasikan telah terjadi heteroskedastisitas. Jika tidak ada pola yang jelas, serta titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas.

d. Uji Autokorelasi

Autokolerasi bertujuan untuk mengetahui apakah dalam sebuah model regresi linier ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada periode t-i (sebelumnya). Tentu saja model regresi yang baik adalah regresi bebas dari autokolerasi. Gujarati (2007:112)

Sejalan dengan keterangan lainnya yang mengatakan bahwa uji autokolerasi dilakukan untuk mengetahui apakah ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan periode t

sebelumnya pada model regresi linier yang dipergunakan. Nisfiannor (2009:92) Tabel 3.1 Uji Durbin-Watson Ada autokorelasi positif Tidak dapat diputuskan Tidak ada autokorelasi Tidak dapat diputuskan Ada autokorelasi negatif 0 dL dU 2 4-dU 4-dL 4 1,10 1,54 2,46 2,90

Apabila D-W berada diantara 1,54 hingga 2,46 maka model tersebut tidak terdapat autokolerasi. Sebaliknya, jika D-W tidak berada diantara 1,54 hingga 2,46 maka model tersebut terdapat autokolerasi. Winarno (2009:5.27)

2. Uji Hipotesis a. Uji t

Uji t biasanya menunjukan seberapa jauh pengaruh satu variabel bebas secara individual dalam menerangkan variabel terikat. Untuk menguji hipotesis tersebut digunakan statistik t yang dihitung dengan cara sebagai berikut :

Dimana b adalah nilai parameter dan Sb adalah standar error dari b.

Standar error dari masing-masing parameter dihitung dari akar varian masing-masing. Untuk mengetahui kebenaran hipotesis digunakan kriteria bila t hitung > t tabel maka H0 ditolak dan Ha diterima, artinya

ada pengaruh antara variabel bebas dengan variabel terikat dengan derajat keyakinan yang digunakan sebesar α = 1%, α = 5% danα = 10% begitu pula sebaliknya bila t hitung < t tabel maka menerima H0 dan

menolak Ha artinya tidak ada pengaruh antara variabel bebas terhadap

variabel terikat.

b. Uji Adj R2 (Adjusted R Square)

Uji ini digunakan untuk mengukur kedekatan hubungan dari model yang dipakai. Koefisien determinasi (R2) merupakan angka yang menunjukkan besarnya kemampuan varian atau penyebaran dari variabel-variabel independen yang menerangkan variabel dependen atau

b t =

angka yang menunjukkan seberapa besar variasi variabel dependen dipengaruhi oleh variabel-variabel independen. Besarnya koefisien determinasi berkisar antara 0 sampai dengan 1 atau 0 R2 1, yang berarti variasi dari variabel bebas semakin dapat menjelaskan variasi dari variabel tidak bebas bila angkanya semakin mendekati 1. Pada penelitian ini juga akan digunakan koefisien determinasi yang telah disesuaikan dengan jumlah variabel dan jumlah observasinya (adjusted R2 atau dilambangkan dengan adj R2), karena lebih menggambarkan kemampuan yang sebenarnya dari variabel independen untuk menjelaskan variabel dependen.

Dokumen terkait