• Tidak ada hasil yang ditemukan

Dari barus menu pilih Analyze, lalu pilih submenu Summarize

Pemeriksaan Asumsi

2. Dari barus menu pilih Analyze, lalu pilih submenu Summarize

Dari serangkian pilihan dalam Summarize, sesuai dengan kasus pilih Explore.

Uji Rank Korelasi Spearman

Uji Kolmogorov- Smirnov dan Uji Shapiro-Wilks

• Variable(s) atau variabel yang akan dimasukkan. Dalam hal ini, variabel yang akan dianalisis adalah variabel sisaan yang diperoleh dari analisis regresi yang telah disimpan dengan nama res_1 (variabel sisaan yang tidak dibakukan), maka klik variabel res_1 kemudian klik sehingga variabel itu berpindah ke Variable(s).

• Untuk mengisi Label Cases by, pilih variabel Tahun.

3. Untuk keperluan pengujian pilih Plot.

4. Pilih Normality plots with tests untuk mendapatkan uji Kolmogorov- Smirnov dan uji Shapiro-Wilks. Untuk kesederhanaan keluaran, pilhan Boxplots dan Descriptive diabaikan.

Lakukan juga terhadap variabel sisaan vang dibakukan (variabel zre_1), kemudian bandingkan dengan hasil sebelumnya.

Pemeriksan asumsi yang berkenaan dengan linearitas, homoskedastisitas, dan normalitas dilakukan dengan dua cara yaitu melalui grafis dan statistik uji formal.

Oleh karena itu, pembahasan mengenai output yang dihasilkan oleh SPSS akan diberikan secara terpisah.

A N A L I S I S

Pemeriksaan Asumsi Secara

Grafis

Normalitas. Pemeriksaan asumsi normalitas secara grafis dapat dilihat melalui plot peluang normal dari sisaan yang dibakukan (Normal Probability Plot). Tap-tiap observasi dalam plot probabilitas normal diplotkan dengan kuantil dari distribusi nomal baku (yaitu nilai harapan skor- z), nilai-nilai dari data observasi diplot pada sumbu horizontal dan nilai harapan di bawah normalitas pada sumbu vertikal.

Perlu dicatat bahwa untuk tiap-tiap ukuran sampel, akan ada sejumlah nilai harapan. Untuk sampel berukuran 4, maka nilai harapannya adalah -1.03, -0.30, 0.30, dan 1.03; untuk sampel berukuran 20, nilai harapannya adalah –1.87, –1.41, –1.13, …, 1.13, 1.41, dan 1.87; dan seterusnya. Titik-titik pada garis yang diatur dalam plot merupakan pasangan skor normal harapan (sumbu vertikal) dengan skor z yang bersesuaian pada sumbu horizontal. Jika data berasal dari distribusi nomal maka yang diplotkan harus berada disekitar garis lurus. Dari hasil plot tersebut terlihat bahwa titik-titik data berada di sekitar garis lurus, sehingga secara tentaif kita dapat mengatakan bahwa data tersebut berdistribusi normal. Untuk lebih meyakinkan hasil yang diberikan plot peluang di atas, dapat dilakukan pengujian statistik formal.

Homoskedastisitas. Pemeriksaan asumsi homoskedastisitas secara grafis dapat dilakukan dengan cara memplotkan antara nilai dugaan yang dibakukan (regression standardized predicted value) dengan nilai sisaan yang dibakukan (regression standardized residual). Tiap-tiap nilai dugaan yang dibakukan diplotkan pada sumbu horizontal, sedangkan nilai sisaan yang dibakukan diplot pada sumbu vertical. Apabila pencaran plot itu menunjukkan suatu pola tertentu (tidak-acak), maka hal ini merupakan suatu indikasi bahwa varians dalam sisaan tidak homogen (heteroskedastisitas). Sebaliknya, apabila pola pencaran plot tersebut bersifat acak, maka dapat dikatakan bahwa asumsi homoskedastisitas terpenuhi. Dari keluaran yang diberikan oleh SPSS, pencaran plotnya tidak menunjukkan pola tertentu (acak), sehingga kita dapat katakan bahwa tidak terdapat masalah heteroskedastistitas dalam data (dalam hal ini varians dari sisaannya adalah homogen).

Linearitas. Untuk melihat hubungan yang linear antara variabel tak bebas Y dengan variabel bebas X secara grafis, SPSS menyediakan fasilitas yang disebut dengan partial regression plots. Partial regression plots adalah plot dari sisaan (residu) dimana kebergantungan linear dari variabel tak bebas Y pada semua variabel bebas X (kecuali variabel bebas Xi) dengan variabel bebas Xi yang bergantung linear pada variabel bebas lainnya yang telah dikeluarkan dari model. Apabila Xi yang dimasukkan ke dalam model regresi mempunyai hubungan yang linear, maka partial regression plot harus menunjukkan hubungan yang linear melalui titik original. Dari output yang diberikan oleh SPSS, dapat kita lihat bahwa partial regression plot, baik plot antara variabel bebas Y (PCE_Y) dengan variabel bebas X1 (PD1_X1) maupun plot antara variabel bebas Y (PCE_Y) dengan variabel bebas X1 menunjukkan adanya hubungan yang linear

Hipotesis Uji Kenormalan H0: Data menyebar normal H1: Data tidak menyebar normal

Tests of Normality. Statistik uji formal untuk menguji normalitas dalam SPSS dapat dilakukan melalui uji Kolmogorov-Smirnov dan uji Shapiro-Wilks. Hasil- hasil pengujian tersebut sesuai dengan pemeriksaan secara grafis. Kedua pengujiantersebutsangatkuat untuk menerima asumsi normalitas terhadap sisaan, masing-masing ditunjukkan oleh nilai Sig. yang lebih besar daripada 0.05 (Nilai Sig. untuk uji Kolmogorov-Smirnov adalah 0.200 dan nilai Sig. untuk uji Shapiro- Wilks adalah 0.524). Untuk menjawab apakah data, dalam hal ini sisaannya, berdistribusi normal atau tidak, maka kita perlu lebih mengetahui tentang bagaimana distribusinya bisa jauh dari distribusi normal. Oleh karena itu, biasanya para peneliti lebih memilih untuk mempelajarinya melalui grafis (SPSS Inc., 1997).

Homoskedastisitas. Gujarati (1978) menggunakan uji rank korelasi Spearman untuk memeriksa asumsi homoskedastisitas, yang didefinisikan sebagai:

dimana di = perbedaan dalam rank yang ditepatkan untuk dua karakteristik vang berbeda dari individual atau fenomena ke-i dan N = banyaknya individual atau fenomena yang diranking. Koefisien korelasi ini dapat digunakan untuk memeriksa heteroskedastisitas Statistik Uji

Formal

dengan menggunakanmodel 𝑌𝑖 = 𝛽0+ 𝛽1𝑋1+ ℇ𝑖, diambil harga mutlaknya, kemudian buat ranking dari |ei| dan Xi sesuai dengan urutan yang meingkat atau menurun. Dengam mengasumsikan bahwa koefisien korelasi populasi 𝜌𝑠, adalah nol dan N > 8, maka signifikansi dari 𝑟𝑠 yang disampel dapat diuji dengan statistik uji sebagai berikut:

dengan derajat bebas db = N - 2. Jika nilai t yang dihitung melebihi nilai t kritis atau jika nilai Sig. < 0.05 atau 0.10, maka kita bisa menerima hipotesis adanya heteroskedastisitas.

Jika model regresinya melibatkan lebih dari satu variable bebas, maka rs dapat dihitung antara |ei| dengan tiap-tiap X secara terpisah. Sebagai tambahan dari pengujian heteroskedastisitas, SPSS menyediakan fasilitas untuk pemeriksaan asumsi ini melalui Statistik uji Levene. Tetapi statistik uji ini hanya bisa digunakan pada data yang mempunyai taraf faktor tertentu, seperti dalam suatu rancangan percobaan (experimental design).

Untuk dapat menggunakan statistik uji Levene ini pada SPSS dapat ditampilkan dalam submenu Summarize (dari menu Analyze), kemudian pilih Explore. Apabila kita memberikan suatu variabel tertentu sebagai Factor List, maka SPSS tidak dapat menghitung statistik uji Levene. Oleh karena itu, kta harus menentukan terlebih dahulu variabel apa yang akan djadikan sebagai Factor List. Cara lain adalah dengan menggunakan pengujian homogenitas-varians Bartlett.

Berdasarkan output yang diberikan oleh SPSS untuk kasus di atas, diketahui bahwa korelasi rank Spearman antara | ei | dengan variabel X1 (PDI_X1) maupun dengan X2 (waktu) diperoleh sebesar 0.511 dengan nilai Sig, sebesar 0.052. Oleh karena nilai Sig. itu lebih besar daripada 0.05, maka dapat kita simpulkan bahwa tidak ada bukti adanya hubungan linier antara variabel yang penjelas dan nilai mutlak dari residu, yang menyarankan bahwa

tidak terdapat heteroskedastisitas. Tetapi, apabila kita mengambil taraf signifikansi sebesar 10%, maka muncul masalah heteroskedastisitas dalam data. Oleh karena itu, untuk kasus data di atas kita perlu berhati-hati dalam menentukan taraf signifikansi yang diperlukan. Hal ini tentu saja memerlukan kajian lebih jauh mengenai karakteristik data yang sedang diamati.

Otokorelasi

Dalam analisis regresi diasumsikan bahwa masing-masing nilai dugaan Y adalah independen atau saling bebas. Artinya bahwa nilai dugaan itu tidak berhubungan dengan nilai dugaan lainnya. Kita dapat dengan baik mengidentifikasikan munculnya ketidakbebasan itu dengan cara memplot sisaan dengan setiap variabel sekuensial, seperti variabel waktu atau musiman. Apabila sisaan itu saling bebas, maka pola yang terbentuk dari plot itu adalah acak. Sedangkan pelanggaran asumsi ini atau muncul masalah otokorelasi dapat diidentifikasi dengan adanya pola yang konsisten dalam sisaan. Cara lain untuk memeriksa adalanya kasus otokorelasi ini adalah dengan menggunakan statistik uji Durbin-Watson (Statistik DW). Ada beberapa cara untuk menangani masalah otokorelasi ini, diantara yaitu: membuat pembedaan pertama dalam model deret waktu atau menggunakan variabel indikator. Konsekuensi dari adanya otokorelasi adalah:

1. Penaksir kuadrat terkecil yang diperoleh masih tak bias, tetapi tidak lagi bervarians minimum, sehingga selang kepercayaannya yang dibuat menjadi lebih lebar dan pengujian keberartian menjadi kurang kuat.

2. Pengujian keberartian melalui statistik uji t dan F menjadi tidak sah.

3. Akan diperoleh suatu taksiran varians sisaan yang terlalu rendah (underestimated).

4. Penaksir kuadrat terkecil yang diperoleh menjadi sensitif terhadap adanya fluktuasi dalam penyampelan data.

Contoh 2

Tabel berikut ini memberikan data mengenai tingkat pekerja yang ke luar dari pekerjaan per 100 karyawan dalam sektor produksi dan tingkat pengangguran dalam sektor produksi di Amerika Serikat untuk periode 1960-1972. Catatan: istilah ke luar dari pekerjaan berkenaan dengan orang yang meninggalkan pekerjaannya secara suka rela.

No. Tahun Tingkat ke luar dari perkerjaan per 100

karyawan (Y)

Tingkat pengangguran dalam persen (X)

1 1960 1.3 6.2

2 1961 1.2 7.8

3 1962 1.4 5.8

4 1963 1.4 5.7

5 1964 1.5 5.0

6 1965 1.9 4.0

7 1966 2.6 3.2

8 1967 2.3 3.6

9 1968 2.5 3.3

10 1969 2.7 3.3

11 1970 2.1 5.6

12 1971 1.8 6.8

13 1972 2.2 5.6

Sumber: Gujarati, D.(1978). Ekonometrika Dasar. Bandung. Erlangga.

Diasumsikan bahwa tingkat ke luar pekerjaan Y berhubungan secara linear dengan tingkat pengangguran X dalam bentuk 𝑌𝑖 = 𝛽0+ 𝛽1𝑋1+ ℇ𝑖. Peneliti ingin memeriksa apakah asumsi non-otokorelasi untuk data di atas terpenuhi atau tidak.

Seperti yang sudah disebutkan sebelumnya, pemeriksaan asumsi non-otokorelasi dalam data dapat diperiksa secara grafis, yaitu dengan membentuk plot antara variabel waktu dengan sisaannya. Sedangkan uji statistik formalnya dapat dilakukan melalui statistik uji Durbin-Watson (DW).

Oleh karena pemeriksaan asumsi otokorelasi ini didasarkan pada nilai sisaannya (residu), maka terlebih dahulu kita perlu membentuk model regresi untuk memperoleh sisaan tersebut Sisaan itu kemudian harus disimpan sebagai suatu variabel baru. Kemudian, lakukan pengujian asumsi otokorelasi melalui statistik uji Durbin-Watson.

1. Dari baris menu pilih Analyze, kemudian pilih submenu Regression. Dari serangkaian pilihan Regression yang ada, sesuai dengan kasus pilih Linear.

Dependent: Y

Independent(s): X

Case Labels: Tahun

Methods: Enter

2. Simpan sisaan (residu), baik yang dibakukan (standardized) maupun yang tidak dibakukan (unstandardized), serta nilai dugaan Y, juga untuk yang dibakukan (standardized) maupun yang tidak dibakukan (unstandardized). Untuk itu, dari kotak dialog Linear Regression, pilih Save.

3. Pilih tombol Statistics. Pilihan ini berkenaan dengan perhitungan statistik regresi yang akan digunakan. Untuk keperluan pemeriksaan asumsi otokorelasi melalui statistik uji Durbin-Watson, pada bagian Residuals, klik Durbin-Watson. Untuk penyederhaan output, bagian yang lain tidak perlu dipilih kecuali yang sudah ada dalam SPSS.

Pemeriksaan asumsi otokorelasi secara grafis dapat dilakukan dengan memplotkan antara variabel tahun dengan nilai sisaan yang tidak dibakukan (unstandardized), dengan langkah- langkah sebagai berikut:

1. Dari baris menu pilih Graphs, kemudian pilih sub menu Scatters....

2. Oleh karena hanya ada satu plot yang akan dibentuk maka pilih Simple.

3. Klik Define untuk mendefinisikan variabel apa saja yang akan diplotkan.

Jadikan variabel res_1 sebagai sumbu Y (Y axis) dan variabel tahun sebagai sumbu X (X axis).

OLAH DATA

Asumsi non-otokorelasi dapat dilakukan secara grafis dengan jalan memplotkan antara sisaan dengan variabel waktu, yang hasilnya seperti ditunjukkan dalam output atas. Dan output tersebut sangat jelas bahwa sisaannya adalah non random. Sampai dengan tahun 1964 (kecuali 1961) sisaan meningkat semakin negatif, sedangkan mulai tahun 1966 (kecuali 1967) sisaan tadi meningkat dengan positif. Jadi terdapat otokorelasi positif diantara sisaan. Untuk lebih meyakinkan kesimpulan ini, kita dapat memplotkan antara ei dengan et-1

Output itu juga menunjukkan pola yang hampir siklis dalam ei Hal ini menyarankan bahwa variabel siklis dengan tingkat keluarnya karyawan harus dimasukkan ke dalam model.

Misalnya, tingkat masuk karyawan (banyaknya karyawan yang diterima sebagai pegawai baru per seratus karyawan), yang merupakan suatu indikator dari permintaan untuk tenaga kerja, mungkin dimasukkan ke dalam model karena dengan anggapan hal-hal yang tetap sama, semakin tinggi tingkat penerimaan karyawan, semakin tinggi tingkat keluamya karyawan.

Metoda grafik dapat dilengkapi dengan metoda analitik yang memberikan suatu statistik uji untuk menunjukkan apakah pola non-random yang diamati dalam ei yang ditaksır secara statistik itu siginifikan. Metoda vang paling terkenal dari metoda ini adalah statistik d dari Durbin-Watson, yang ditunjukkan dalam persamaan berikut:

A N A L I S I S

Dari rumus di atas, jelas bahwa jika 𝜌̂ = 0, maka d = 2, yaitu jika tidak ada korelası seri d diharapkan sekitar 2. Oleh karena itu sebagai aturan praktis, jika d ternyata 2 dalam penerapan, orang bisa mengasumsikan bahwa tidak ada otokorelasi, baik positif ataupun negatif. Jika 𝜌̂ = +1 menunjukan korelasi positif sempurna dalam sisaan, maka d = 0. Oleh karena itu semakin d ke 0, maka semakin besar bukti adanya korelasi seri positif. Jika 𝜌̂ = -1, yaitu terdapat korelasi negatif sempurna diantara sisaan yang berurutan, maka d = 4.

Jadi, semakin dekat d ke 4, maka semakin besar bukti adanya korelasi seri yang negatif.

Berikut akan diberikan kriteria uji untuk menguji hipotesis non-otokorelasi, baik positif maupun negatif, sebagai berikut:

Jika H0 adalah bahwa tidak ada korelasi seri positif, maka:

Coefficients. Dari output mengenai koefisien regresi, maka dapat kita tentukan bahwa model regresi yang diperoleh adalah:

Konstanta sebesar 3.336 menyatakan bahwa jika tingkat pengangguran itu nol persen, maka tingkat keluar pekerjaan per 100 karyawan adalah 3.336. Sedangkan koefisien regresi sebesar -0.286 menyatakan bahwa untuk setiap penambahan 1% tingkat pengangguran maka akan mengurangi tingkat keluarnya pekerja per 100 karyawan sebesar -0.286. Untuk keberartian dari masing-masing koefisien regresi memberikan hasil kedua koefisien regresi itu signifikan (Sig. 0.000 dan 0.001, dengan nilai t untuk masing-masing koefisien adalah 10.167 dan -4.551.

Model Summary. Output yang ditunjukkan dalam model summary memberikan hasil bahwa koefiesien determinasi (R square) sebesar 0.653, dengan taksiran galat bakunya sebesar 0.322. Sedangkan statistik Durbin-Watson, d, diperoleh harga sebesar 0.532. Untuk membuat kesimpulan apakah harga d = 0.532 dapat menolak hipotesis atau tidak, maka kita perlu bantuan nilai-nilai kritis d untuk taraf kepercayaan tertentu (misalnya α = 0.05 atau α = 0.10). Dari daftra table yang memuat nilai kritis d ini, untuk N = 15 dan α = 0.05, diperoleh dL = 0.95 dan dU = 1.54. Jika hipotesis nol adalah bahwa tidak ada korelasi seri positif (bisa ditentukan melalui pemeriksaan secara grafis), maka dapat kita lihat bahwa nilai d yang ditaksir lebih kecil dari dL kritis, sehingga disarankan untuk menolak H0. Multikolinearitas.

Kolinieritas merupakan suatu konsep yang menyatakan hubungan antara dua buah variabel bebas (kolinearitas) atau lebih dari dua variabel bebas (multikolinearitas). Dua buah variabel bebas dikatakan mempunyai kolinearitas lengkap apabila koefisien korelasinya berharga 1 dan kolinearitas kurang lengkap apabila koefisien korelasinya berharga 0.

Multikolinearitas terjadi jika untuk setiap satu buah variabel bebas berkorelasi tinggi dengan sejumlah variabel bebas lainnya. Konsekuensi dari adanya masalah multikolinearitas dalam data adalah apabila ada kolinearitas sempurna diantara variabel X, koefisien regresinya tak tertentu dan galat bakunya tak terhingga. Jika kolinearitasnya tinggi tetapi tidak sempurna, maka penaksiran koefisien regresinya adalah mungkin, tetapi galat bakunya cenderung untuk menjadi besar. Akibatnya, nilai populasi dari koefisien tidak dapat ditaksir dengan tepat.

Ada beberapa cara untuk memeriksa adanya masalah multikolinearitas, diantaranya yaitu:

(1) penentuan matriks korelasi, (2) Variance Inflation Factors (VIF), dan (3) Analisis Eigensystem dari matriks XTX. Sedangkan untuk mengatasi masalah multikolinearitas ini dapat dilakukan melalui mengumpulkan data tambahan, memperbaiki kembali model regresinya, regresi Ridge, regresi komponen utama, dan analisis regresi akar laten.

Contoh 3

Klein dan Goldberger mencoba mencocokkan model regresi berikut ini terhadap ekonomi Amerika Serikat:

dimana Y = konsumsi, X1 = pendapatan upah, X2 = pendapatan non upah da non pertanian, dan X3 = pendapatan pertaniaan

Tahun Y X1 X2 X3 Tahun Y X1 X2 X3 1936 62.8 43.42 17.10 3.96 1946 95.7 76.73 28.26 9.76 1937 65.0 46.44 18.65 5.48 1947 98.3 75.91 27.91 9.31 1938 63.9 44.35 17.09 4.37 1948 100.3 77.62 32.30 9.85 1939 67.5 47.82 19.28 4.51 1949 103.2 78.01 31.39 7.21 1940 71.3 51.02 23.24 4.88 1950 108.9 83.57 35.61 7.39 1941 76.6 58.71 28.11 6.37 1951 108.5 90.59 37.58 7.98 1945 86.3 87.69 30.29 8.96 1952 111.4 95.47 34.17 7.42 Sumber: Gujarati, D. (1978). Ekonometrika Dasar. Bandung. Erlangga

Untuk membuktikan adanya dugaan bahwa adanya masalah multikolinearitas diantara variabel bebas di dalam model, maka lakukan pemeriksaan asumsi multikolinearitas ini dengan menggunakan matriks korelasi, VIF, dan analisis sistem eigen.

Untuk menyelesaikan kasus di atas, maka akan pemeriksaan kasus multikolinieritas dilakukan melalui fasilitas Linear Regression yang ada dalam SPSS.

Pengolahan data dengan tujuan memeriksa dugaan mengenai adanya kasus multikolinearitas dilakukan melalui matriks korelasi antar variabel bebas, tolerance dan variance inflation factors, serta analisis eigensystem (eigenvalue, condition index, dan variance proportions). Adapun langkah-langkah adalah:

1. Buka lembar kerja atau file yang sesuai dengan kasus di atas, atau jika sudah terbuka ikuti langkah berikutnya. Dari baris menu pilih menu Analyze, kemudian pilih submenu Regression.

2. Dari serangkaian pilihan Regression yang ada, sesuai dengan kasus pilih Linear.

Dependent: Y

Independent(s): X1, X2, dan X3

Case Labels: Tahun

Methods: Enter

3. Pilih tombol Statistics.... Pilihan ini berkenaan dengan perhitungan statistik regresi yang akan digunakan. Perhatikan default yang ada di SPSS adalah Estimates dan Model fit.

Regression Coefficient atau perlakuan koefisien regresi, pilih default atau Estimate.

• Klik pilihan Descriptive dan Collinearity Diagnostic pada kolom sebelah kanan, selain pilihan Model fit.

Residuals dikosongkan saja. Jika dipilih Outliers outside dan kemudian dipilih sebanyak 1 standar deviasi sebagai contoh, maka akan ditampilkan hasil regresi pada daerah yang melebihi satu standar deviasi.

4. Klik OK untuk mengakhiri prosedur analisis. Terlihat SPSS melakukan pekerjaan analisis dan akan terlihat output SPSS.

O L A H D A T A

Untuk memudahkan pemahaman terhadap output di atas, maka pembahasan di sini dilakukan bagian per bagian.

Descriptive. Pada bagian pertama merupakan deskripsi atau gambaran mengenai rata-rata (mean), simpangan baku (Std. Deviation), dan ukuran sampel (N) untuk masing-masing variabel Sebagai contoh, untuk variabel tak bebas Y diperolch rata- rata sebesar 87.121 dengan simpangan baku sebesar 18.653 untuk sampel berukurman 14. Demikian juga untuk variabel-variabel bebas lainnya dapat dideskripsikan seperti di atas.

Correlation. Variabel-variabel bebas X mempunyai korelasi yang kuat demean dengan konsumsi Y (0.942 untuk pendapatan upah, 0.943 untuk pendapatan non upah dan non pertanian, 0.769 untuk pendapatan pertanian). Tetapi sesuai dengan kasus multikolinearitas yang menjadi perhatian utama kita adalah korelası antar variabel bebas X. Output default dari SPSS menyangkut peluang atau Sig. Yang berhubungan dengan koefisien korelasi, tetapi peluang ini cocok digunakan untuk menguji korelasi tunggal, dan tidak untuk menentukan matriks korelasi untuk menguji keberartian statistiknya.

Walaupun demikian, hasil-hasil tersebut dapat dijadikan dasar untuk mendukung adanya dugaan mengenai ada tidaknya masalah multikolinearitas.

A N A L I S I S

Pendapatan upah (X1) muncul sebagai variabel yang mempunyai korelasi yang paling kuat dengan pendapatan non upah dan non pertanian (X2), yaitu sebesar 0.938. Demikian halnya korelasi antara kombinasi variabel lainnya juga relatif cukup tinggi, dimana korelasi antara pendapatan upah (X1) dengan pendapatan pertanian (X3) sebesar 0.811, serta korelasi antara pendapatan non upah dan non pertanian (X2) dengan pendapatan pertanian (X3) sebesar 0.743. Semua koefisien korelasi bertanda positif, yang artinya bahwa sebagaimana meningkatnya harga satu variabel, maka harga variabel lainnya juga akan meningkat. Hal ini memperkuat indikasi adanya masalah multikolinearitas dalam data Model Summary. Untuk model regresi berganda, R merupakan korelasi antara nilai observasi dengan nilai dugaan dari variabel tak bebas Y (dalam kasus ini adalah korelasi antara tingkat konsumsi dengan tingkat konsumsi yang diduga dari model. R2 adalah kuadrat dari koefisien korelasi.

Untuk model ini diperoleh R2 sebesar 0.917, yang artinya bahwa variabel-variabel pendapatan upah, pendapatan non upah dan non pertanian, serta pendapatan pertanian mampu menjelaskan hampir 92% keragaman dari tingkat konsumsi. Perlu diketahui bahwa, nilai R2 cenderung akan membesar setiap kali kita menambahkan variabel baru ke dalam model. Hal ini akan memberi kesan bahwa untuk model dengan variabel bebasnya lebih banyak merupakan model yang lebih baik, padahal kenyataannya belum tentu demikian. Untuk mengatasi hal ini, maka kita dapat menghitung R2 terkoreksi (Adjusted R Square). Dalam kasus ini diperoleh Adj-R2 sebesar 0.892

ANOVA. Statistik uji F yang diperoleh adalah sangat berarti, yang berarti bahwa pengujian simultan untuk masing-masing koefisien regresi adalah menolak hipotesis nol. Akan tetapi perlu dicatat bahwa walaupun peluang (Sig.) adalah sangat kecil (kurang dari 0.00005), hal ini tidak berarti bahwa masing-masing variabel bebas memberikan kontribusi yang berarti terhadap model.

Coefficients. Model dugaan yang diperoleh adalah:

Walaupun diperoleh R2 untuk ketiga variabel bebas itu sebesar 92%, akan tetapi kita harus mempertimbangkan bahwa model yang diperoleh merupakan model yang kurang bagus (poor model). Hal ini dimungkinkan karena statistik tuntuk masing-masing variabel bebas relatif cukup kecil (kurang dari +2 atau -2). Akibatnya, apabila kita ambil taraf kepercayaan sebesar 5% (untuk menguji keberartian masing-masing variabel bebas), maka tidak ada satupun variabel bebas kontribusi berarti terhadap model. Tetapi kalau kita ambil taraf kepercayaan sebesar 10%, maka variabel pendapatan non upah dan non pertanian (X2) dapat dipertimbangkan sebagai variabel yang kontribusinya terhadap model adalah berarti. Hal ini didukung pula dengan kecilnya nilai-nilai dari tolerance (pada kolom kedua terakhir).

Statistik kolinearitas Tolerance dan VIF ditampilkan di sini sebab pemeriksaan Collinearity dipilih pada kotak dialog Linear Regression. Apabila kita menduga adanya masalah kolinearitas, maka kita amati statistik tolerance. Hanya nilai-nilai dari variabel bebas yang digunakan untuk menghitung tolerance ini, sedangkan variabel tak bebas diabaikan. Untuk masing-masing variabel, diperoleh: tolerance = 1 − 𝑅𝑖2, dimana 𝑅𝑖2 adalah korelasi multipel kuadrat dari variabel tersebut dengan variabel bebas lainnya. Sebagai contoh, jika nama variabel bebasnya itu adalah A, B, dan C, maka SPSS akan menghitung R2 untuk tiga model, yaitu:

𝑅𝑖2 untuk variabel A yang diregresikan terhadap variabel B dan C, 𝑅𝑖2 untuk B yang diregresikan terhadap A dan C,

𝑅𝑖2 untuk C yang diregresikan terhadap A dan B,

dan menggunakan harga-harga ini pada perhitungan tolerance untuk tiap-tiap variabel.

Nilai toleransi ini akan berada diantara 0 dan 1. Jika nilainya kecil (mendekati 0), maka variabei itu merupakan kombinasi linear dari variabel bebas lainnya. Akibatnya adalah koefisien regresinya menjadi tidak stabil.

Toleransi untuk variabel pendapatan upah (X1) adalah 0.091, artinya R2 dengan dua variabel bebas lainnya adalah 0.909 (91% keragaman dalam pendapatan upah dijelaskan oleh variabel penjelas lainnya). Variabel-variabel bebas lainnya juga mempunyai toleransi yang relatif cukup kecil, yaitu masing-masing diberikan oleh 0.119 dan 0.340.

Dokumen terkait