1.1 Model Regresi Linier
Metode regresi linier yang merupakan metode yang memodelkan hubungan antara variabel respon y dan variabel prediktor x x1, 2,...,xp. Model regresi linier untuk p variabel prediktor secara umum ditulis sebagai:
0 1 1 2 2 ... p p
y x  x   x 
Jika diambil sebanyak n pengamatan, maka model untuk pengamatan ke- i adalah:
 p
k
i ik k
i x
y
1
0  
 (1.1)
dengan i = 1, 2, ... , n ;0,1,...,padalah parameter model dan1,2,...,nadalah error yang diasumsikan identik, independen, dan berdistribusi Normal dengan mean nol dan varians konstan 2 atau (i ~IIDN0,2).
Pada model ini, hubungan antara variabel prediktor dan variabel respon dianggap konstan pada setiap lokasi pengamatan.
Jika dituliskan dalam notasi matriks maka persamaan (1.1) menjadi:
ε Xβ
y  dengan:
1 2
n
y y
y
  
 
  
 
y ,
11 12 1
21 22 2
1 2
1 1
1
p p
n n np
x x x
x x x
x x x
 
 
 
  
 
 
 
X ,
0 1
p
 
 
 
  
 
 
 
β ,
1 2
n
  
  
  
ε .
Sedangkan nilai estimasi untuk y dan ε adalah:
ˆ  ˆ
y Xβ dan ε y y y Xβˆ   ˆ ˆ.
1.1.1 Estimasi Parameter βModel Regresi Linier Estimator dari parameter model didapat dengan meminimumkan jumlah kuadrat error atau yang dikenal dengan Ordinary Least Square (OLS), yaitu:
   
2 1
ˆ ˆ
ˆ ˆ T
n T
ii    
 ε ε y Xβ y Xβ
ˆ ˆ ˆ
ˆ ˆT  T 2 T  T T ε ε y y y Xβ β X Xβ
Untuk menentukan nilai βˆ yang meminimumkan ε εˆ ˆT adalah dengan menurunkan ε εˆ ˆT terhadap βˆ dan kemudian disamadengankan nol, sehingga diperoleh:
ˆ ˆ 0 2 2 ˆ 0 ˆ
T
T T
    
ε ε y X X Xβ β
Sehingga diperoleh persamaan normal:
ˆ
T  T
X Xβ X y
Dan estimasi untuk βˆ adalah:
 
ˆ  T 1 T
β X X X y (1.2)
βˆ merupakan penaksir yang takbias untuk βˆ (Rencher, 2000).
1.1.2 Estimasi Parameter 2 Model Regresi Linier Metode least square tidak bisa menghasilkan fungsi y dan x yang dapat diminimumkan untuk mendapatkan penaksir 2. Oleh karena itu, penaksir
2didapat berdasarkan penaksir βˆ. Berdasarkan asumsi dan menurut persamaan (1.1) , maka nilai 2 akan sama untuk setiap yi, i = 1,2, ..., n.
    2
2 2
var i i i
T
i i
y E y E y
 E y
   
 
  x β
Penaksir 2 diperoleh dari rata-rata sampel sebagai berikut:
 2
2
1
1 ˆ
1
n
T
i i
i
s y
n p 
 
   x β (1.3)
Dengan SSEyTI H y  dan HX X X T 1XT.
s2 merupakan penaksir yang takbias untuk 2 jika matriks kovarian cov y 2I (Rencher, 2000).
1.1.3 Pengujian Hipotesis Model Regresi Linier Untuk menguji kesesuaian model regresi OLS digunakan analisis varian yang dibuat dengan cara menguraikan bentuk jumlah kuadrat total atau Sum Square Total (SST) menjadi dua komponen: Jumlah kuadrat regresi atau Sum Square Regression (SSR) dan Jumlah Kuadrat Error atau Sum Square Error (SSE).
Hipotesisnya adalah:
H0:12  p 0
H1:minimal ada satu i 0
Tabel 1.1 Analisis Varians Model Regresi Sumber
Variasi
Jumlah Kuadrat
Derajat Bebas
Rata-rata Kuadrat
F Hitung Regresi
Error
 1 
T
n
y H J y
 
T 
y I H y p
( 1)
n p
/ MSRSSR p
( 1)
MSE SSE
n p
  
F MSR
MSE
Total yTI1nJ y n1
Sumber : Draper dan Smith, 1992
J adalah matriks berukuran nxn dengan semua elemen bernilai 1.
Tolak H0 bila Fhitung F, ,p n p  1 atau p-value < .
Adapun pengujian secara parsial untuk mengetahui parameter mana saja yang signifikan terhadap model dilakukan dengan hipotesis:
0
0 : k  H 
0
1: k  H 
Statistik uji dalam pengujian parsial ini adalah ˆˆ
( )
k k
t se
 
(Gujarati,1992). se(ˆk)s gkk adalah standar error dari koefisien ˆk. Sedangkan gkk adalah elemen diagonal ke-k dari matriks X XT 1 dan s MSE.
Dibawah H0 t akan mengikuti distribusi t dengan derajat bebas n p 1 sehingga jika diberikan tingkat signifikansi sebesar  maka diambil keputusan tolak H0 jika ; 1
hit 2n p
t t   .
Sedangkan untuk mengukur besarnya variansi variabel respon yang dijelaskan oleh model regresi digunakan nilai koefisien determinasi R2 sebagai berikut:
 
 
2
1
1
1
T T
n
R SSE
  SST
  
     y I H y y I J y
1.1.4 Pengujian Asumsi Model Regresi Linier
Untuk menguji asumsi normal dari error digunakan uji Kolmogorof-Smirnov dengan hipotesis sebagai berikut :
H0 : Error mengikuti distribusi normal
H1 : Error tidak mengikuti distribusi normal Statistik uji dalam uji K-S ini adalah
Dmax F x0 i Sn x i , i1, 2, , .n
dengan F x0 i merupakan fungsi distribusi frekuensi kumulatif relatif dari distribusi teoritis di bawah H0, sedangkan Sn x i merupakan distribusi frekuensi kumulatif pengamatan sebanyak sampel. Kesimpulan diambil dengan menolak H0 jika p-value < α.
Salah satu uji yang digunakan untuk menguji independensi adalah uji Durbin-Watson (Draper dan Smith, 1992). Hipotesis dalam pengujian ini adalah:
H0 : Tidak ada serial autokorelasi baik positif maupun negatif
H1 : Ada serial autokorelasi baik positif maupun negatif
dengan statistik uji:
  
 n
i i n
i
i i
e e e d
1 2 2
2 1) (
Jika diberikan tingkat signifikansi sebesar α, maka keputusan yang diambil adalah dengan membandingkan antara nilai d pengujian dengan nilai
dU (nilai batas atas dari tabel Durbin-Watson) dan dL (nilai batas bawah dari tabel Durbin-Watson).
Selanjutnya aturan keputusannya adalah sebagai berikut:
dw < dL : H0 ditolak dw > (4-dL) : H0 ditolak
dU < dw < (4-dU) : H0 tidak ditolak
dL ≤ dw ≤ dU atau (4-dU) ≤ dw ≤(4-dL) :pengujian tidak dapat diambil keputusan.
Uji heteroskedastisitas dilakukan untuk mengetahui apakah dalam sebuah model regresi terjadi ketidaksamaan varian dari error satu pengamatan ke pengamatan lain. Salah satu uji yang digunakan adalah uji Glejser (Gujarati, 1992) dengan hipotesis sebagai berikut:
H0 : Tidak terjadi heteroskedastistitas H1 : Terjadi heteroskedastistitas
Uji ini dilakukan dengan meregresikan nilai absolute error dari model yang dibuat dengan semua
variabel prediktor x yang ada. Jika variabel prediktornya ternyata signifikan maka disimpulkan terjadi heteroskedastisitas, sebaliknya jika variabel prediktornya tidak signifikan maka terjadi homoskedastisitas.
Salah satu syarat yang harus dipenuhi dalam regresi dengan beberapa variabel prediktor adalah tidak adanya korelasi antara satu variabel prediktor dengan variabel prediktor yang lain. Adanya korelasi dalam model regresi menyebabkan taksiran parameter regresi yang dihasilkan akan memiliki error yang sangat besar. Pendeteksian adanya kasus kolinieritas menurut Hocking (1996) dapat dilihat melalui koefisien korelasi Pearson (rij). Jika koefisien korelasi Pearson (rij) antar variabel > 0,95 maka terdapat korelasi antar variabel tersebut. Untuk mendeteksi adanya kolinieritas juga dapat menggunakan Variance Inflation Factors (VIF) yang dinyatakan sebagai berikut :
2
1
j 1
j
VIF  R
dengan R2j adalah koefisien determinasi antara xj dengan variabel prediktor lainnya. VIFj yang lebih besar dari 10 menunjukan adanya kolinieritas antar variabel prediktor. Solusi untuk mengatasi adanya kasus tersebut adalah dengan mengeluarkan variabel prediktor yang tidak signifikan dan meregresikan kembali variabel-variabel prediktor yang signifikan.
Selain itu, pada regresi OLS (Ordinary Least Square) diasumsikan bahwa nilai estimasi parameter regresi akan tetap (konstan), artinya parameter regresi akan sama untuk setiap lokasi pengamatan (parameter global). Bila terjadi heterogenitas spasial pada parameter regresi, maka informasi yang tidak dapat ditangani oleh metode regresi OLS akan ditampung sebagai error. Bila kasus semacam itu terjadi, regresi OLS menjadi kurang mampu dalam menjelaskan fenomena data yang sebenarnya.
Regresi Robust
 Regresi robust merupakan metode regresi yang digunakan ketika distribusi dari sisaan tidak normal atau ada beberapa pencilan yang berpengaruh pada model.
 Metode ini merupakan alat penting untuk menganalisa data yang dipengaruhi oleh pencilan sehingga dihasilkan model yang kekar terhadap pencilan (Draper and Simth, 1992).
 Ketika peneliti menyusun model regresi dan melakukan uji asumsi sering ditemui bahwa asumsi regresi dilanggar, transformasi yang dilakukan tidak akan menghilangkan atau melemahkan pengaruh dari pencilan yang akhirnya prediksi menjadi bias.
 Dalam keadaan ini, regresi robust yang tahan terhadap pengaruh pencilan adalah metode yang terbaik.
 Regresi robust digunakan untuk mendeteksi pencilan dan memberikan hasil yang resisten terhadap adanya pencilan (Chen, 2002).
 Dalam regresi robust salah satu metode estimasi yang terkenal adalah estimasi M.
 Huruf M menunjukkan bahwa estimasi-M adalah estimasi ‘tipe maksimum likelihood’.
 Estimasi-M memenuhi sifat sebagai estimator tak bias dan memiliki variansi minimum dalam kumpulan estimator.
 Jadi estimator M memiliki variansi terkecil dibandingkan dengan variansi estimator yang lain.
Jika estimator pada estimasi-M adalah   nx1,...,xn
maka Enx1, ,xn. (1)
 Persamaan (1) menunjukkan bahwa estimator
 1,..., 
n x xn
  pada estimasi-M bersifat tak bias.
 Variansinya merupakan variansi terkecil dibandingkan dengan variansi estimator yang lain yaitu
 
2
2
ˆˆ '
i; Var
nE d l n f x d
 
 
 
 
  
    
 
 
(2)
dengan ˆˆ merupakan estimator alternatif yang linear dan tak bias bagi β.
 Estimasi M merupakan perluasan dari MLE dan merupakan estimasi yang robust .
 Prinsip estimasi M adalah meminimumkan fungsi Huber ( ), yang didefinisikan sebagai
2
2
jika
( ) 2 jika atau k
k k
k k k
 
    
   
 
   
dengan k = 1,5ˆ dan ˆ adalah estimasi standar deviasi σ dari sisa.
 Digunakan ˆ= 1,483 MAD untuk mengestimasi σ, dengan MAD (Median of Absolute Deviation) adalah median dari sisa absolut ei (Birkes dan Dodge, 1993: 87).
 Pada estimasi-M fungsi diminimumkan, dengan merupakan fungsi yang memenuhi:
∑ ( ) ∑ { } (3)
Jika menyatakan turunan terhadap , maka diperoleh persamaan ∑ ( ) (4)
dengan , dan , i =1, 2, ..., n.
 Untuk mendapatkan nilai estimasi-M, diperlukan suatu algoritma penghitungan.
 Berikut diberikan algoritma estimasi-M yang diacu dari Birkes dan Dodge (1993: 93).
1. Dipilih estimasi awal b0 dari metode kuadrat terkecil lalu
dihitung , sisa , dan = 1,483
MAD.
2. Dipotong agar mendapatkan nilai , yaitu:
= 1,5 jika > 1,5 = -1,5 jika < -1,5
3. Dihitung lalu dari nilai tersebut dicari nilai b0 menggunakan metode kuadrat terkecil. Proses iterasi berlanjut sampai diperoleh nilai b0 yang sama dengan iterasi sebelumnya.
0 0 0
0 1 1
ˆi i p ip
y b b x  b x ei0  yiyˆi0 ˆ
0
ei ei*
*
ei ˆ ei0 ˆ
*
ei ˆ ei0 ˆ
* ˆ0 *
i i i
y  y e yi*
Dari nilai b0 di atas, diperoleh regresi dengan estimasi-M.