BAB II
LANDASAN TEORI
2.1 Aljabar Matriks
2.1.1 Definisi
Matriks
Matriks adalah suatu kumpulan angka-angka yang juga sering disebut elemen-elemen yang disusun secara teratur menurut baris dan kolom sehingga berbentuk persegi panjang, dimana panjang dan lebarnya ditunjukkan oleh banyaknya kolom dan baris serta dibatasi tanda “[ ]” atau “( )”. Sebuah matriks dinotasikan dengan simbol huruf besar seperti A, X, atau Z dan sebagainya. Sebuah matriks A yang berukuran m baris dan n kolom dapat ditulis sebagai berikut :
Atau juga dapat ditulis :
Determinan Matriks
Determinan adalah semua hasil perkalian elementer yang bertanda dari suatu matriks A dan dinyatakan dengan det (A). Misalkan A = [ ] adalah matriks nxn. Fungsi determinan dari A ditulis dengan det (A) atau |A|. Secara matematiknya ditulis :
Dengan merupakan himpunan S = {1, 2, …, n}.
Teorema
Jika A = [ ] adalah matriks nxn yang mengandung sebaris bilangan nol, maka det(A) = 0.
Teorema
Jika A adalah matriks segitiga nxn, maka det(A) adalah hasil kali elemen – elemen pada diagonal utama, yaitu
Teorema
Jika A adalah sebarang matriks kuadrat, maka .
Invers Matriks
Misalkan A matriks nxn disebut non singular (invertible) jika terdapat matriks B maka AB = BA = I
Matriks B disebut invers dari A jika tidak terdapat matriks B maka matriks A disebut singular (non-invertible).
Adjoint matriks A adalah suatu matriks yang elemen-elemennya terdiri dari semua elemen-elemen kofaktor matriks A, dengan adalah kofaktor elemen-elemen
Sehingga dapat ditulis dalam bentuk matriks sebagai berikut :
dengan :
Sifat – sifat invers :
a. Jika A adalah matriks non singular, maka adalah non singular dan
b. Jika A dan B adalah matriks non singular, maka AB adalah non singular dan
2.2 Regresi Linier Berganda
Dalam menentukan nilai variabel tidak bebas (Y), perlu diperhatikan variabel – variabel bebas (X) yang mempengaruhinya terlebih dahulu, dengan demikian harus diketahui hubungan antara satu variabel tidak bebas (Dependent Variable) dengan beberapa variabel lain yang bebas (Independent Variable). Untuk meramalkan Y, apabila semua variabel bebas diketahui, maka dapat dipergunakan model persamaan regresi linier berganda sebagai berikut:
i ki k i
i
i X X X
X
Y 01 1 2 2 3 3 ... (2.1)
dimana:
Y = variabel tidak bebas
ki i
i X X
k
k = Jumlah variabel bebas pada observasi ke-i i = Banyak pengamatan
i
= Variabel kesalahan ke-i
Apabila dinyatakan dalam bentuk matriks
variabel bebas, akan diperoleh:
(2.2) atau
Salah satu metode estimasi parameter untuk regresi linier berganda adalah Ordinary Least Square (OLS). Konsep dari metode OLS adalah menaksir parameter
regresi dengan meminimumkan jumlah kuadrat dari error. Tujuan OLS adalah meminimumkan jumlah kuadrat error yaitu:
=
diminimumkan (Supranto, 2009: 241 -242), hal tersebut bisa diperoleh dengan melakukan turunan pertama terhadap(
), dengan aturan penurunan skalar berikut: Misalkan z dan w adalah vektor vektor berordo mx1, sehingga y =zTw adalah skalar,maka, w
Sehingga didapatkan hasil turunan jumlah kuadrat error sebagai berikut:
dan hasil estimasi parameter didapatkan dengan menyamakan hasil turunan jumlah kuadrat error dengan nol, sehingga pada saat hasil turunan jumlah kuadrat error disamakan dengan nol parameter menjadi ˆ, dan diperoleh:
ˆ = (XTX)1XTy (2.6)
Akan ditunjukan bahwa ˆadalah estimasi linier tak bias dari
E
X X
X y
Dengan mensubtitusi persamaan (2.2) ke dalam persamaan (2.5) didapat:
ˆ =(XTX)1XTy terendah, maka bisa diperlihatkan sebagai berikut:
Jelas terlihat bahwa variansi adalah anggota dari diagonal utama, sedangkan kovarian adalah unsur –unsur diluar diagonal utama. Kovariansi tersebut bisa dituliskan dalam notasi matriks sebagai berikut:
XTX
1XTX
XTX
1I2
XTX
1I2
12
XTX (2.9)
Apabila variansi error tidak diketahui, maka harus didapat taksirannya, dan untuk taksiran variansi error dilakukan dengan menaksir konstanta variansi error
)
ˆ
(2 sebagai berikut:
k n
n
i i
12
2
ˆ
(2.10)
dengan variansi taksiran ini diperoleh variansi parameter regresi sebagai berikut:
2
1ˆ
ˆ
X X
Var T (2.11)
Dalam regresi linier berganda, ada beberapa asumsi yang harus dipenuhi agar tahap estimasi yang diperoleh benar dan efektif, bila memenuhi teorema Gauss Markov sebagai berikut (Nachrowi, 2002:123):
1. Rata –rata (harapan) variabel bernilai nol atau E()=0
2. Tidak terdapat korelasi serial atau autokorelasi antar variabel error untuk setiap observasi atau Cov(i,j)=0 ; ij.
3. Memiliki error yang bersifat homoskedastisitas atau Var (i Xi)2.
4. Nilai variabel (X) tetap atau nilainya independen terhadap factor error () atau Cov(X,)=0
5. Model regresi dispesifikasi secara benar, dan
6. Tidak ada hubungan linier (kolinieritas) antar variabel –variabel bebas.
Istilah ini diciptakan oleh Ragner Frish, yang berarti ada hubungan linier yang sempurna atau eksak diantara variabel-variabel bebas dalam model regresi 2. Heteroskedastisitas
Salah satu asumsi dasar yang harus dipenuhi adalah varians error harus konstan (Var (i Xi)2), jika tidak konstan, maka terdapat unsur heteroskedastisitas. Data cross-section cenderung memuat unsur heteroskedastisitas karena pengamatan dilakukan pada individu yang berbeda pada saat yang sama.
3. Autokorelasi
Autokorelasi merupakan gangguan pada fungsi yang berupa korelasi diantara variabel error, ini berarti tidak terpenuhinya asumsi yang menyatakan bahwa nila-nilai variabel tidak berkorelasi.
2.3 Heteroskedastisitas
Salah satu asumsi yang harus dipenuhi agar model bersifat BLUE (Best Linear Unbiased Estimator) adalah harus terdapat variansi yang sama dari setiap error-nya
atau homoskedastisitas, secara simbolis 2 2
) (i
E , i=1,2,…,n apabila asumsi ini tidak terpenuhi maka yang terjadi adalah sebaliknya, yakni heteroskedastisitas. Heteroskedastisitas berarti variansi error berbeda dari suatu observasi ke observasi lainnya. Sehingga setiap observasi mempunyai reliabilitas yang berbeda.
Unsur heteroskedastisitas menyebabkan hasil dari t-test dan F-test menyesatkan, karena kedua uji tersebut menggunakan besaran variansi taksiran, lebih besarnya variansi taksiran dibanding variansi sebenarnya akan menyebabkan standar taksiran error juga lebih besar, sehingga interval kepercayaan sangat besar pula. (Nachrowi, 2002:133).
2.3.1 Teknik Mendeteksi Heteroskedastisitas
1. Melihat scatter plot (nilai prediksi dependen ZPRED dengan residual SRESID) Metode ini yaitu dengan cara melihat grafik scatterplot antara standardized predicted value (ZPRED) dengan studentized residual (SRESID). Ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan ZPRED dimana sumbu Y adalah Y yang telah diprediksi dan sumbu X adalah residual (Y prediksi – Y sesungguhnya).
Dasar pengambilan keputusan yaitu:
Jika ada pola tertentu, seperti titik –titik yang ada membentuk suatu pola tertentu yang teratur (bergelombang, melebar kemudian menyempit), maka terjadi heteroskedastisitas.
Jika tidak ada pola yang jelas, seperti titik –titik menyebar diatas dan dibawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas.
2. Uji Goldfeld – Quandt
Adapun langkah –langkah pada metode ini adalah sebagai berikut: a. Urutkan data X berdasarkan nilainya
b. Bagi data menjadi 2, satu bagian memiliki nilai yang tinggi, bagian lainnya memiliki nilai yang rendah, sisihkan data pada nilai tengah c. Lakukan regresi pada masing –masing data
d. Buatlah rasio RSS(Residual Sum Square =error sum if square) dari regresi kedua terhadap regresi pertama (
1 2 RSS RSS
), sehingga didapat
Fhitung = 1 2 RSS RSS
.
e. Lakukan uji Ftabel dengan menggunakan derajat kebebasan (degree of freedom) sebesar (n-d-2k)/2, dengan:
n = banyaknya observasi
d = banyaknya data atau nilai observasi yang hilang k =banyaknya parameter yang diperkirakan.
Pada Uji Goldfeld –Quant seandainya tidak ada data yang dibuang (d=0) tes masih berlaku tetapi kemampuan untuk mendeteksi adanya heteroskedastisitas agak berkurang.
3. Uji Park
Untuk pengujian heteroskedastisitas melalui pengujian hipotesis dapat dilakukan dengan uji park.R.E. Park pada tahun 1966 mengemukakan keyakinan bahwa terdapat suatu hubungan fungsional antara ragam galat, yang bersifat heteroskedastisitas dan variabel penjelas, X. Park merumuskan bentuk fungsional itu sebagai berikut:
Atau: ln
di mana adalah bentuk gangguan yang bersifat stokastik.
Karena pada umumnya tidak diketahui, park mengunakan sebagai variabel proxy, kemudian merumuskan model regesi sebagai berikut:
=
Berdasarkan uji park, kita melakukan pengujian hipotesis tentang parameter dalam model regresinya, apabila koefisien besifat nyata dalam statistik, maka menujukkan hetersokedastisitas dalam data, sebaliknya apabila uji terhadap koefisien bersifat tidak nyata secara statistik, maka menujukan bahwa asumsi homoskedastisitas dari model regresi dapat dipenuhi.
a. Terapkan ordinary least square estimation (0LSE) untuk menaksir model:
b. Menerapakan OLSE untuk menaksir ln dengan menggunakan ln .
4. Uji White
Dalam implementasinya, model ini relative lebih mudah dibandingkan dengan uji –uji lainnya. Perhatikan persamaan berikut:
i i
i x
x
Y 01 1 2 2
Berdasarkan regresi yang mempunyai tiga variabel bebas diatas, dapat dilakukan uji white dengan beberapa tahapan prosedur, yaitu:
a. Hasil estimasi dari model diatas akan menghasilkan nilai error, yaitu : ˆi2 b. Buat persamaan regresi:
i i i i
i i
i
i x x x x 5x1 x2 v
2 2 4 2 1 3 2 2 1 1 0 2
ˆ
Perhatikan model diatas, uji ini mengasumsikan bahwa varian error merupakan fungsi yang mempunyai hubungan dengan variabel bebas, kuadrat masing – masing variabel bebas, dan interaksi antar variabel bebas.
c. Dengan hipotesis:
H0 : Homoskedastisitas / tidak heteroskedastisitas H1 : Heteroskedastisitas.
Sampel berukuran n dan koefisien determinasi R2 yang didapat dari regresi akan mengikuti distribusi Chi- Square dengan derajat bebas jumlah variabel bebas atau jumlah koefisien regresi diluar intercept. Dengan demikian, formulasi Uji White adalah sebagai berikut :
2 nR ~ 2
2.4 Metode Weight Least Square (WLS)
Apabila variansi error (2) diketahui atau dapat diperkirakan, cara yang paling mudah untuk mengatasi adanya heteroskedastisitas adalah dengan metode kuadrat terkecil terboboti (Weighted Least Square) yang memberikan hasil bersifat BLUE. (Gujarati, 2010: 493).
Untuk menggambarkan metode ini, akan diberikan model sebagai berikut:
i ki k i
i i
i X X X X
Y 01 1 2 2 3 3 ...
Untuk mendapatkan taksiran variansi parameter regresi, diasumsikan untuk sementara bahwa variansi error sebenarnya (2) untuk setiap observasi diketahui, sehingga transformasi persamaan yang dihasilkan dari model regresi linier berganda adalah:
i i i i
X X
Y
1 2 ...
2 1 1 0
Transformasi ini dilakukan dengan membagi baik sisi kiri maupun sisi kanan regresi dengan akar variansi error ( ). Sekarang anggaplah
i i
v dan vi bisa disebut
faktor error yang ditransformasikan, apabila faktor error tersebut bersifat homoskedastisitas, maka bisa diketahui bahwa estimator OLS dari parameter-parameter pada persamaan tersebut bersifat BLUE. Untuk melihat bahwa faktor error (vi) homoskedastisitas bisa dengan cara berikut:
2 2 2
i
i
v
Sehingga
E(
22 2)
i
i E
v
vi2 12 E( i2)E