• Tidak ada hasil yang ditemukan

BAB III METODE PENELITIAN

3.7 Metode Analisis Data

3.7.1 Pengujian Asumsi Klasik

Menurut Ghozali (2005:123) asumsi klasik yang harus dipenuhi adalah:

a) berdistribusi normal,

b) non-multikolinearitas, artinya antara variabel independen dalam model regresi tidak memiliki korelasi atau hubungan secara sempurna atau mendekati sempurna,

c) non-autokorelasi, artinya kesalahan pengganggu dalam model regresi tidak saling berkorelasi,

d) homoskedastisitas, artinya variance variabel independen dari satu pengamatan ke pengamatan lain adalah konstan atau sama.

Untuk menentukan ketepatan model, perlu dilakukan pengujian atas beberapa asumsi klasik dari ordinary least squares (OLS) yaitu uji normalitas, multikolinearitas, heteroskedastisitas dan autokorelasi yang secara rinci dapat dijelaskan sebagai berikut :

3.7.1.1 Uji Normalitas Data

Uji normalitas data bertujuan untuk menguji apakah dalam sebuah model regresi, variabel pengganggu atau residual mempunyai distribusi normal atau tidak. Pengujian ini diperlukan karena untuk melakukan uji t dan uji f mengasumsikan bahwa nilai residual mengikuti distribusi normal (Erlina, 2008). Menurut Ghozali (2005) ada dua cara yang digunakan untuk mendeteksi apakah residual berdistribusi normal atau tidak yakni analisis statistik dan analisis grafik.

a) Analisis statistik

Uji statistik sederhana yang sering digunakan untuk menguji asumsi normalitas adalah uji normalitas Kolmogorov Smirnov (K-S). Uji statistik sederhana lainnya yang dapat dilakukan adalah dengan melihat nilai kurtosis dan nilai Z-Skewness. Pedoman pengambilan keputusan tentang suatu data apakah mendekati atau merupakan distribusi normal berdasarkan uji

Kolmogorov-Smirnov dapat dilihat dari:

1. Nilai sig. atau signifikan atau probabilitas < 0,05, maka distribusi data adalah tidak normal.

2. Nilai sig. atau signifikan atau probabilitas > 0,05, maka distribusi data adalah normal.

b) Analisis grafik

Untuk mendeteksinya dapat digunakan analisis grafik yaitu melihat grafik histogram yang membandingkan data observasi dengan distribusi yang mendekati distribusi normal. Analisis grafik yang lebih handal

untuk menguji normalitas data adalah dengan melihat normal probability plot. Normal probability plot adalah membandingkan distribusi kumulatif data yang sesungguhnya dengan distribusi kumulatif dari distribusi normal (hypothetical distribution) dengan memperhatikan penyebaran data (titik) pada Normal P- Plot of Regression Standardized dari variabel terikat dimana:

• Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal, maka model regresi memenuhi asumsi normalitas.

• Jika data menyebar jauh dari garis diagonal atau tidak mengikuti arah garis diagonal, maka model regresi tidak memenuhi asumsi normalitas.

Distribusi yang melanggar asumsi normalitas dapat dijadikan menjadi bentuk normal dengan beberapa cara sebagai berikut:

1. Transformasi data

Transformasi data dapat dilakukan dengan logaritma natural (ln), log 10, maupun akar kuadrat.

2. Trimming

Trimming adalah memangkas (membuang) observasi yang bersifat

outlier.

3. Winzorising

Winzorising mengubah nilai – nilai outliers menjadi nilai – nilai minimum atau maksimum yang diizinkan supaya distribusi menjadi normal.

3.7.1.2 Uji Multikolinearitas

Uji multikolinearitas dilakukan untuk melihat korelasi di antara variabel independennya. Jika terjadi korelasi sempurna diantara sesama variabel bebas, maka konsekuensinya adalah:

a. Koefisien – koefisien regresi menjadi tidak dapat ditaksir,

b. Nilai standard error setiap koefisien regresi menjadi tak terhingga. Untuk melihat ada atau tidaknya multikolinieritas dalam model

regresi dilihat dari nilai tolerance dan lawannya Variance Inflation Factor

(VIF). Batasan yang umum dipakai untuk menunjukkan adanya

mutikolineritas adalah nilai Tolerence < 0,10 atau VIF > 10, dengan dasar pengambilan keputusan sebagai berikut :

• Jika nilai tolerance > 0,1 dan nilai VIF < 10, maka tidak terjadi masalah multikolinearitas, artinya model regresi tersebut baik.

• Jika nilai tolerance > dari 0,1 dan nilai VIF > 10, maka terjadi masalah multikolinearitas, artinya model regresi tersebut tidak baik.

Cara yang dapat dilakukan untuk mengatasi masalah multikolinearitas adalah:

1) Mengeluarkan satu atau lebih variabel independen yang mempunyai korelasi tinggi dari model regresi dan identifikasikan variabel independen lainnya untuk membantu prediksi,

2) Menggabungkan data cross section dan time series (pooling data), 3) Menambah data penelitian.

Jika terjadi korelasi sempurna diantara sesama variabel bebas, maka konsekuensinya adalah:

a. Koefisien – koefisien regresi menjadi tidak dapat ditaksir,

b. Nilai standard error setiap koefisien regresi menjadi tak terhingga.

3.7.1.3 Uji Heteroskedastisitas

Pengujian Heterokedastisitas sebuah model regresi dilakukan dengan tujuan untuk menguji apakah suatu regresi tersebut terjadi ketidaksamaan varians dari residual satu pengamatan ke pengamatan lainnya. Jika ditemukan variansnya sama berarti terjadi homoskedastisitas, dan jika berbeda berarti heteroskesdatisitas (Erlina, 2008:106).

Ada atau tidaknya heteroskedastisitas dapat dideteksi adalah dengan melihat grafik scatterplot antara variabel dependen antara SRESID dan ZPRED. Menurut Ghozali (2005:95) dasar analisis untuk pengujian ini antara lain:

a. Jika ada pola tertentu, seperti titik- titik yang ada membentuk pola tertentu yang teratur (seperti bergelombang, melebar kemudian menyempit) maka mengindikasikan terjadi heteroskedastisitas.

b. Jika tidak ada pola yang jelas, serta titik menyebar diatas dan dibawah angka 0 pada sumbu Y, berarti tidak terjadi heteroskedastisitas.

Tindakan perbaikan yang dapat dilakukan jika terjadi heteroskedastisitas adalah sebagai berikut:

1. Transformasi logaritma

2. Transformasi dalam bentuk model regresi dengan membagi model regresi dengan salah satu variabel independen yang digunakan dalam model tersebut,

3.7.1.4 Uji Autokorelasi

Uji ini dilakukan untuk melihat apakah terdapat kesalahan pengganggu pada periode berjalan (periode t) dengan kesalahan pada periode sebelumnya (periode t-1). Autokorelasi dapat muncul karena observasi yang dilakukan berurutan sepanjang waktu berkaitan satu sama lainnya.

Untuk melakukan uji autokorelasi dapat dilakukan dengan tes Durbin-Watson. Ada tidaknya autokorelasi dapat dilihat dengan ketentuan sebagai berikut :

1) angka D-W di bawah dl (0 < d < dl)berarti ada autokorelasi positif, 2) angka D-W di antara du dengan 4-du (du < d < 4–du), berarti tidak

ada autokorelasi,

3) angka D-W di antara 4-dl dengan 4 (4–dl < d < 4) berarti ada autokorelasi negatif.

4) angka D-W di antara dl dan du (dl ≤ d ≤ du ) atau berada di antara 4-du dan 4-dl (4–4-du ≤ d ≤ 4–dl), maka tidak ada kesimpulan.

Langkah yang dapat dilakukan untuk mengatasi terjadinya autokorelasi adalah:

1) Melakukan transformasi data,

2) Mengubah model regresi menjadi bentuk persamaan beda umum (generalized difference equation),

3) Memasukkan variabel Lag atas variabel terikat menjadi salah satu variabel bebas sehingga data observasi berkurang (menjadi satu), 4) Menambah data observasi.

Dokumen terkait