UJI MULTIKOLINEARITAS
Multikolinearitas adalah sebuah situasi yang menunjukkan adanya korelasi atau hubungan kuat antara dua variabel bebas atau lebih dalam sebuah model regresi berganda. Model regresi yang dimaksud dalam hal ini antara lain: regresi linear, regresi logistik, regresi data panel dan cox regression.
Uji multikolinearitas digunakan untuk mengetahui ada atau tidaknya penyimpangan asumsi klasik multikolinearitas yaitu adanya hubungan linear antar variabel independen dalam model regresi.
Persyaratan yang harus terpenuhi dalam model regresi adalah tidak adanya multikolinearitas. Ada beberapa metode pengujian yang bisa digunakan diantaranya yaitu 1) dengan melihat nilai inflation factor (VIF) pada model regresi, 2) dengan membandingkan nilai koefisien determinasi individual (r2) dengan nilai determinasi secara serentak (R2), dan 3) dengan melihat nilai eigenvalue dan condition index. Pada pembahasan ini akan dilakukan uji multikolinearitas dengan melihat nilai inflation factor (VIF) pada model regresi dan membandingkan nilai koefisien determinasi individual (r2) dengan nilai determinasi secara serentak (R2).
Gejala multikolinearitas terjadi dalam sebuah model regresi berganda, koefisien beta dari sebuah variabel bebas atau variabel predictor dapat berubah secara dramatis apabila ada penambahan atau pengurangan variabel bebas di dalam model. Oleh karena itu, multikolinearitas tidak mengurangi kekuatan prediksi secara simultan, namun mempengaruhi nilai prediksi dari sebuah variabel bebas.
Nilai prediksi sebuah variabel bebas disini adalah koefisien beta. Oleh karena itu, sering kali kita bisa mendeteksi adanya multikolinearitas dengan adanya nilai standar error yang besar dari sebuah variabel bebas dalam model regresi. Berdasarkan penjelasan di atas, maka dapat disimpulkan bahwa, jika terjadi multikolinearitas, maka sebuah variabel yang berkorelasi kuat dengan variabel lainnya di dalam model, kekuatan prediksinya tidak handal dan tidak stabil. Dan pengertian multikolinearitas adalah sesungguhnya terletak pada ada atau tidak adanya korelasi antar variabel bebas.
Penyebab Multikolinearitas
Penyebab multikolinearitas adalah adanya korelasi atau hubungan yang kuat antara dua variabel bebas atau lebih, seperti yang sudah dijelaskan di atas. Namun penyebab lainnya yang dapat menyebabkan hal tersebut secara tidak langsung adalah, antara lain:
1. Penggunaan variabel dummy yang tidak akurat di dalam model regresi. Akan lebih beresiko terjadi multikolinearitas jika ada lebih dari 1 variabel dummy di dalam model.
2. Adanya perhitungan sebuah variabel bebas yang didasarkan pada variabel bebas lainnya di dalam model. Hal ini bisa dicontohkan sebagai berikut: dalam model regresi anda, ada variabel X1, X2 dan Perkalian antara X1 dan X2 (X1*X2). Dalam situasi tersebut bisa dipastikan, terdapat kolinearitas antara X1 dan X1*X2 serta kolinearitas antara X2 dengan X1*X2.
3. Adanya pengulangan variabel bebas di dalam model, misalkan: Y = Alpha + Beta1 X1 + Beta2 X1*5 + Beta3 X3 + e.
Dampak dari Multikolinearitas :
1. Koefisien Partial Regresi tidak terukur secara presisi. Oleh karena itu nilai standar errornya besar.
2. Perubahan kecil pada data dari sampel ke sampel akan menyebabkan perubahan drastis pada nilai koefisien regresi partial.
3. Perubahan pada satu variabel dapat menyebabkan perubahan besar pada nilai koefisien regresi parsial variabel lainnya.
4. Nilai Confidence Interval sangat lebar, sehingga akan menjadi sangat sulit untuk menolak hipotesis nol pada sebuah penelitian jika dalam penelitian tersebut terdapat multikolinearitas.
Cara mendeteksi adanya Multikolinearitas di dalam model regresi adalah dengan cara:
1. Melihat kekuatan korelasi antar variabel bebas. Jika ada korelasi antar variabel bebas > 0,8 dapat diindikasikan adanya multikolinearitas.
2. Melihat nilai standar error koefisien regresi parsial. Jika ada nilai standar error > 1, maka dapat diindikasikan adanya multikolinearitas.
3. Melihat rentang confidence interval. Jika rentang confidence interval sangat lebar, maka dapat diindikasikan adanya multikolinearitas.
4. Melihat nilai Condition Index dan eigenvalue. Jika nilai condition index > 30 dan nilai eigenvalue
< 0,001 dapat diindikasikan adanya multikolinearitas.
5. Melihat nilai Tolerance dan Variance Inflating Factor (VIF). Jika nilai Tolerance < 0,1 dan VIF >
10 dapat diindikasikan adanya multikolinearitas. Sebagian pakar menggunakan batasan Tolerance
< 0,2 dan VIF > 5 dalam menentukan adanya multikolinearitas. Para pakar juga lebih banyak menggunakan nilai Tolerance dan VIF dalam menentukan adanya Multikolinearitas di dalam model regresi linear berganda dibandingkan menggunakan parameter-parameter yang lainnya. Hal ini juga dalam prakteknya menggunakan SPSS, kita sudah disuguhkan dengan hasil yang instant, dimana kita bisa langsung lihat nilai keduanya di dalam output SPSS.
Cara mengatasi multikolinearitas adalah dengan cara:
1. Jika jumlah variabel banyak, maka kita dapat melakukan Analisis Faktor sebelum regresi. Setelah analisis faktor, variabel baru yang terbentuk kita gunakan sebagai variabel di dalam model regresi.
2. Dengan cara memilih salah satu diantara variabel bebas yang berkorelasi kuat. Oleh karena itu, sebelumnya anda harus mencari variabel yang nilai VIFnya tinggi dan nilai korelasinya dengan variabel bebas lainnya kuat.
3. Dengan cara melakukan operasi matematis antar variabel bebas yang berkorelasi kuat sehingga didapat variabel baru hasil operasi tersebut yang kemudian dimasukkan ke dalam model regresi sebagai perwakilan dari variabel yang menjadi sumber operasi matematis tersebut.
4. Melakukan standarisasi terhadap variabel yang menjadi penyebab inklusi perkalian antara variabel, dimana hasil perkalian setelah standarisasi tersebut yang dimasukkan ke dalam model bersama-sama dengan variabel yang sudah distandarisasi.
Pengujian ada tidaknya gejala multikolinearitas dilakukan dengan melihat nilai VIF (Variance Inflation Factor) dan Tolerance. Apabila nilai VIF berada dibawah 10,00 dan nilai Tolerance lebih dari 0,100, maka diambil kesimpulan bahwa model regresi tersebut tidak terdapat masalah
multikolinearitas.
a) Melihat nilai inflation factor (VIF) pada model regresi Contoh Kasus:
Sebagai contoh kasus kita mengambil contoh kasus pada uji normalitas pada pembahasan sebelumnya. Pada contoh kasus tersebut setelah dilakukan uji normalitas dan dinyatakan data berdistribusi normal, maka selanjutnya akan dilakukan pengujian multikolinearitas. Contoh kasus sebagai berikut:
Seorang mahasiswa bernama Bambang melakukan penelitian tentang faktor-faktor yang mempengaruhi harga saham pada perusahaan di BEJ. Data-data yang di dapat berupa data rasio dan ditabulasikan sebagai berikut:
Bambang dalam penelitiannya ingin mengetahui bagaimana hubungan antara rasio keuangan PER dan ROI terhadap harga saham. Dengan ini Bambang menganalisis dengan bantuan program SPSS dengan alat analisis regresi linear berganda.
Langkah-langkah pada program SPSS :
1. Kita menggunakan input data yang sama pada uji normalitas.
2. Klik Analyze - Regression - Linear
3. Klik variabel Harga Saham dan masukkan ke kotak Dependent, kemudian klik variabel PER dan ROI dan masukkan ke kotak Independent
4. Klik Statistics, kemudian klik Collinearity diagnostics. Klik Continue
5. Klik OK, pada output anda lihat tabel coefficients pada kolom collinearity statistics, hasil yang di dapat sebagai berikut:
Tabel. Hasil Uji Multikolinearitas
Dari hasil di atas dapat diketahui nilai variance inflation factor (VIF) kedua variabel yaitu PER dan ROI adalah 1,899 lebih kecil dari 10 dan Tolerance lebih dari 0,100, sehingga bisa disimpulkan bahwa antar variabel independen tidak terjadi persoalan multikolinearitas.
b) Dengan membandingkan nilai koefisien determinasi individual (r2) dengan nilai determinasi secara serentak (R2)
Dalam metode ini, cara yang ditempuh adalah dengan meregresikan setiap variabel independen dengan variabel independen lainnya, dengan tujuan untuk mengetahui nilai koefisien r2 untuk setiap variabel yang diregresikan. Selanjutnya nilai r2 tersebut dibandingkan dengan nilai koefisien determinasi R2. Kriteria pengujian yaitu jika r2 > R2 maka terjadi multikolinearitas dan jika r2 < R2 maka tidak terjadi multikolinearitas.
Contoh kasus:
Akan dilakukan analisis regresi untuk mengetahui pengaruh biaya produksi, distribusi, dan promosi terhadap tingkat penjualan. sebelumnya dilakukan uji asumsi klasik multikolinearitas, data sebagai berikut:
Langkah-langkah analisis pada SPSS sebagai berikut:
• Inputkan data di SPSS
• Untuk analisis data, klik menu Analyze >> Regression >> Linear
Langkah pertama meregresikan antar variabel independen, langkahnya masukkan variabel Biaya produksi ke kotak Dependent, kemudian masukkan variabel Biaya distribusi ke kotak
Independent(s).
• Klik tombol OK. Hasil pada output Model Summary sebagai berikut: (regresi variabel Biaya produksi dengan Biaya distribusi)
Langkah selanjutnya meregresikan variabel Biaya produksi dengan Biaya promosi, kemudian Biaya distribusi dengan Biaya promosi dengan langkah-langkah sama seperti langkah di atas. Hasil output seperti berikut:
Langkah selanjutnya mencari nilai koefisien determinasi (R2) yaitu dengan meregresikan Biaya produksi, Biaya distribusi, dan Biaya promosi terhadap Tingkat penjualan. Langkahnya yaitu klik Analyze >> Regression >> Linear. Masukkan variabel Tingkat penjualan ke kotak Dependent, kemudian masukkan variabel Biaya produksi, Biaya distribusi, dan Biaya Promosi ke kotak Independent(s).
• Klik tombol OK, maka hasil pada output Model Summary sebagai berikut:
Dari tabel di atas dapat diketahui bahwa nilai koefisien r2 yang diperoleh seluruhnya bernilai lebih kecil dari pada nilai koefisien determinasi (R2). Dengan demikian dapat disimpulkan bahwa tidak terjadi masalah multikolinearitas pada model regresi.
STUDY KASUS
Judul : Pengaruh Pentingnya Tinggi Badan dan Bakat Siswa terhadap Prestasi yang diperoleh dalam Mata Pelajaran Olah Raga di tingkat SMAN 10 Tumpang
Metode : Tolerance dan VIF untuk persamaan regresi pengaruh Tinggi Badan (𝑋1) dan Bakat Siswa (𝑋2) terhadap Prestasi Nilai Olah Raga (Y).
Data yang diperoleh :
No Tinggi Badan Bakat Siwa Prestasi
1 150 80 80
2 155 82 75
3 150 83 75
4 160 85 85
5 170 85 80
6 175 90 95
7 155 79 78
8 162 85 80
9 157 80 85
10 158 82 90
11 153 83 80
12 155 85 82
13 155 85 86
14 150 85 87
15 150 84 80
16 172 95 90
17 159 87 85
18 165 75 87
19 169 80 95
20 163 85 85
21 155 75 80
22 165 80 85
23 166 85 85
24 152 90 87
25 170 89 92
26 150 88 90
27 157 85 80
28 180 90 95
29 155 82 87
30 152 80 82
Dasar Pengambilan Keputusan :
• Melihat nilai Tolerance: Jika Nilai Tolerance ≥ 0,10 maka artinya TIDAK terjadi multikolinieritas
• Melihat nilai VIF : Jika Nilai VIF ≤ 10,00 maka artinya TIDAK terjadi multikolinieritas
Hasil Analisis :
Coefficientsa
Model
Unstandardized Coefficients
Standardized Coefficients
t Sig.
Collinearity Statistics
B Std. Error Beta Tolerance VIF
1 (Constant) 5.031 18.738 .268 .790
Tinggi Badan .347 .105 .521 3.293 .003 .864 1.157
Bakat .291 .197 .234 1.479 .151 .864 1.157
a. Dependent Variable: Prestasi