• Tidak ada hasil yang ditemukan

BAB II LANDASAN TEORI

N/A
N/A
Protected

Academic year: 2021

Membagikan "BAB II LANDASAN TEORI"

Copied!
13
0
0

Teks penuh

(1)

BAB II

LANDASAN TEORI

2.1 Aljabar Matriks

2.1.1 Definisi

Matriks

Matriks adalah suatu kumpulan angka-angka yang juga sering disebut elemen-elemen yang disusun secara teratur menurut baris dan kolom sehingga berbentuk persegi panjang, dimana panjang dan lebarnya ditunjukkan oleh banyaknya kolom dan baris serta dibatasi tanda “[ ]” atau “( )”. Sebuah matriks dinotasikan dengan simbol huruf besar seperti A, X, atau Z dan sebagainya. Sebuah matriks A yang berukuran m baris dan n kolom dapat ditulis sebagai berikut :

Atau juga dapat ditulis :

(2)

Determinan Matriks

Determinan adalah semua hasil perkalian elementer yang bertanda dari suatu matriks A dan dinyatakan dengan det (A). Misalkan A = [ ] adalah matriks nxn. Fungsi determinan dari A ditulis dengan det (A) atau |A|. Secara matematiknya ditulis :

Dengan merupakan himpunan S = {1, 2, …, n}.

Teorema

Jika A = [ ] adalah matriks nxn yang mengandung sebaris bilangan nol, maka det(A) = 0.

Teorema

Jika A adalah matriks segitiga nxn, maka det(A) adalah hasil kali elemen – elemen pada diagonal utama, yaitu

Teorema

Jika A adalah sebarang matriks kuadrat, maka .

Invers Matriks

Misalkan A matriks nxn disebut non singular (invertible) jika terdapat matriks B maka AB = BA = I

Matriks B disebut invers dari A jika tidak terdapat matriks B maka matriks A disebut singular (non-invertible).

(3)

Adjoint matriks A adalah suatu matriks yang elemen-elemennya terdiri dari semua elemen-elemen kofaktor matriks A, dengan adalah kofaktor elemen-elemen

Sehingga dapat ditulis dalam bentuk matriks sebagai berikut :

dengan :

Sifat – sifat invers :

a. Jika A adalah matriks non singular, maka adalah non singular dan

b. Jika A dan B adalah matriks non singular, maka AB adalah non singular dan

2.2 Regresi Linier Berganda

Dalam menentukan nilai variabel tidak bebas (Y), perlu diperhatikan variabel – variabel bebas (X) yang mempengaruhinya terlebih dahulu, dengan demikian harus diketahui hubungan antara satu variabel tidak bebas (Dependent Variable) dengan beberapa variabel lain yang bebas (Independent Variable). Untuk meramalkan Y, apabila semua variabel bebas diketahui, maka dapat dipergunakan model persamaan regresi linier berganda sebagai berikut:

i ki k i i i X X X X Y 01 1 2 2 3 3 ...  (2.1) dimana:

Y = variabel tidak bebas

ki i

i X X

(4)

k  

1, 2,..., = parameter koefisien regresi variabel bebas

0= intersep yaitu titik potong antara regresi dengan sumbu tegak y bila x= 0

k = Jumlah variabel bebas pada observasi ke-i i = Banyak pengamatan

i

 = Variabel kesalahan ke-i

Apabila dinyatakan dalam bentuk matriks

                                                                  n k kn n n n k k k n X X X X X X X X X X X X X X X X Y Y Y Y         ... ... ... 1 ... ... ... ... 1 ... 1 ... 1 ... 3 2 1 2 1 0 3 2 1 3 33 23 13 2 32 22 12 1 31 21 11 3 2 1

Dengan k < n yang berarti banyak observasi harus lebih banyak dari pada banyak variabel bebas, akan diperoleh:

(2.2) atau

Salah satu metode estimasi parameter untuk regresi linier berganda adalah Ordinary Least Square (OLS). Konsep dari metode OLS adalah menaksir parameter regresi dengan meminimumkan jumlah kuadrat dari error. Tujuan OLS adalah meminimumkan jumlah kuadrat error yaitu:

S =

n i i 1 2  = 22 2 2 1  ... n    

(5)

=

              2 2 2 2 1 2 2 2 2 1 ... ... n n       =

T

=

yX

 

T yX

=

yT (X )T

 

yX

=

yT TXT

 

yX

= yTyyTX TXTy TXTX

Karena yTX adalah scalar, maka matriks transpose –nya adalah

yTX

T TXTy (2.3)

Jadi

S = yTy2TXTyTXTX (2.4) Untuk mengestimasi parameter regresi (

) maka jumlah kuadrat error harus diminimumkan (Supranto, 2009: 241 -242), hal tersebut bisa diperoleh dengan melakukan turunan pertama terhadap(

), dengan aturan penurunan skalar berikut: Misalkan z dan w adalah vektor vektor berordo mx1, sehingga y =zTw adalah skalar,

maka, w dz dy , T wT dz dy , z dw dy ,dan T zT dw dy

Sehingga didapatkan hasil turunan jumlah kuadrat error sebagai berikut:   S = T T T T T X X X X y X ( ) 2 0     = 2XTyXTXXTX =2XTy2XTX (2.5)

dan hasil estimasi parameter  didapatkan dengan menyamakan hasil turunan jumlah kuadrat error dengan nol, sehingga pada saat hasil turunan jumlah kuadrat error disamakan dengan nol parameter  menjadi ˆ, dan diperoleh:

0 ˆ 2 2    XTy XTXy X X XT ˆ 2 T 2  

(6)

ˆ = X X X y

T

T 1

)

(  (2.6)

Akan ditunjukan bahwa ˆadalah estimasi linier tak bias dari 

 

E

X X

X y

Eˆ  T 1 T

XTX

1XTE

 

y

XTX

1XTX   

dari sini terbukti bahwa ˆ adalah estimasi linier tak bias dari  .

Dengan mensubtitusi persamaan (2.2) ke dalam persamaan (2.5) didapat: ˆ = XTX 1XTy ) ( 



  X X X XT ) 1 T (   T T T T X X X X X X X 1 1 ) ( ) (       T T X X X ) 1 (    (2.7)

Untuk dapat menunjukkan bahwa ˆ adalah penaksir OLS yang paling baik (Best Estimator) dalam arti taksiran variansi parameter (Var(ˆ)) adalah yang terendah, maka bisa diperlihatkan sebagai berikut:

 

 

 

   E E E T Cov ˆ ˆ ˆ ˆ ˆ                         ( ˆ ) ( ˆ ) ( ˆ ) ) ˆ ( ) ˆ ( ) ˆ ( 2 2 1 1 2 2 1 1 k k k k E E E E E E              

(7)

                              2 2 2 1 1 2 2 2 2 2 2 2 1 1 1 1 2 2 1 1 2 1 1 ) ˆ ( ) ˆ ( ) ˆ ( ) ˆ ( ) ˆ ( ) ˆ ( ) ˆ ( ) ˆ ( ) ˆ ( ) ˆ ( ) ˆ ( ) ˆ ( ) ˆ ( ) ˆ ( ) ˆ ( k k k k k k k k k k E E E E E E E E E E E E E E E                                                     ) ˆ ( ) ˆ , ˆ ( ) ˆ , ˆ ( ) ˆ , ˆ ( ) ˆ ( ) ˆ , ˆ ( ) ˆ , ˆ ( ) ˆ , ˆ ( ) ˆ ( 2 1 2 2 2 1 1 2 1 1 k k k k k Var Cov Cov Cov Var Cov Cov Cov Var                      

Jelas terlihat bahwa variansi adalah anggota dari diagonal utama, sedangkan kovarian adalah unsur –unsur diluar diagonal utama. Kovariansi tersebut bisa dituliskan dalam notasi matriks sebagai berikut:

 

 

 

   E E E T Covˆ ˆ ˆ ˆ ˆ

 

   T E ˆ  ˆ 

   TT TT T X X X X X X E  1    1  

    TT TT T X X X X X X E 1  1 

1 1

E XTX XT TX XTX

1

  

1  XTX XTET X XTX

1

 

1  XTX XTVX XTX (2.8)

Dengan V

 

 adalah matriks diagonal. Pada saat variansi error bersifat homoskedastisitas, maka bisa ditulis V

 

2I dengan asumsi tersebut persamaan menjadi:

 

ˆ

1 2

1

X X X IX X X

(8)

XTX

1XTX

XTX

1I 2   

XTX

1I 2  

1 2   XTX (2.9)

Apabila variansi error tidak diketahui, maka harus didapat taksirannya, dan untuk taksiran variansi error dilakukan dengan menaksir konstanta variansi error

) ˆ (2 sebagai berikut: k n n i i  

1 2 2 ˆ   (2.10)

dengan variansi taksiran ini diperoleh variansi parameter regresi sebagai berikut:

 

2

1

ˆ

ˆ 

X X

Var  T (2.11)

Dalam regresi linier berganda, ada beberapa asumsi yang harus dipenuhi agar tahap estimasi yang diperoleh benar dan efektif, bila memenuhi teorema Gauss Markov sebagai berikut (Nachrowi, 2002:123):

1. Rata –rata (harapan) variabel  bernilai nol atau E()=0

2. Tidak terdapat korelasi serial atau autokorelasi antar variabel error untuk setiap observasi atau Cov(i,j)=0 ; ij.

3. Memiliki error yang bersifat homoskedastisitas atau Var (i Xi)2.

4. Nilai variabel (X) tetap atau nilainya independen terhadap factor error () atau Cov(X,)=0

5. Model regresi dispesifikasi secara benar, dan

6. Tidak ada hubungan linier (kolinieritas) antar variabel –variabel bebas.

Ada beberapa penyimpangan asumsi dalam regresi linier berganda, yakni: 1. Multikolinieritas

(9)

Istilah ini diciptakan oleh Ragner Frish, yang berarti ada hubungan linier yang sempurna atau eksak diantara variabel-variabel bebas dalam model regresi 2. Heteroskedastisitas

Salah satu asumsi dasar yang harus dipenuhi adalah varians error harus konstan (Var (i Xi)2), jika tidak konstan, maka terdapat unsur heteroskedastisitas. Data cross-section cenderung memuat unsur heteroskedastisitas karena pengamatan dilakukan pada individu yang berbeda pada saat yang sama.

3. Autokorelasi

Autokorelasi merupakan gangguan pada fungsi yang berupa korelasi diantara variabel error, ini berarti tidak terpenuhinya asumsi yang menyatakan bahwa nila-nilai variabel tidak berkorelasi.

2.3 Heteroskedastisitas

Salah satu asumsi yang harus dipenuhi agar model bersifat BLUE (Best Linear Unbiased Estimator) adalah harus terdapat variansi yang sama dari setiap error-nya atau homoskedastisitas, secara simbolis E(i2)2, i=1,2,…,n apabila asumsi ini tidak terpenuhi maka yang terjadi adalah sebaliknya, yakni heteroskedastisitas. Heteroskedastisitas berarti variansi error berbeda dari suatu observasi ke observasi lainnya. Sehingga setiap observasi mempunyai reliabilitas yang berbeda.

Unsur heteroskedastisitas menyebabkan hasil dari t-test dan F-test menyesatkan, karena kedua uji tersebut menggunakan besaran variansi taksiran, lebih besarnya variansi taksiran dibanding variansi sebenarnya akan menyebabkan standar taksiran error juga lebih besar, sehingga interval kepercayaan sangat besar pula. (Nachrowi, 2002:133).

2.3.1 Teknik Mendeteksi Heteroskedastisitas

Metode pengujian yang bisa digunakan untuk menguji heteroskedastisitas adalah sebagai berikut:

(10)

1. Melihat scatter plot (nilai prediksi dependen ZPRED dengan residual SRESID) Metode ini yaitu dengan cara melihat grafik scatterplot antara standardized predicted value (ZPRED) dengan studentized residual (SRESID). Ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan ZPRED dimana sumbu Y adalah Y yang telah diprediksi dan sumbu X adalah residual (Y prediksi – Y sesungguhnya).

Dasar pengambilan keputusan yaitu:

 Jika ada pola tertentu, seperti titik –titik yang ada membentuk suatu pola tertentu yang teratur (bergelombang, melebar kemudian menyempit), maka terjadi heteroskedastisitas.

 Jika tidak ada pola yang jelas, seperti titik –titik menyebar diatas dan dibawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas.

2. Uji Goldfeld – Quandt

Adapun langkah –langkah pada metode ini adalah sebagai berikut: a. Urutkan data X berdasarkan nilainya

b. Bagi data menjadi 2, satu bagian memiliki nilai yang tinggi, bagian lainnya memiliki nilai yang rendah, sisihkan data pada nilai tengah c. Lakukan regresi pada masing –masing data

d. Buatlah rasio RSS(Residual Sum Square =error sum if square) dari regresi kedua terhadap regresi pertama (

1 2 RSS RSS ), sehingga didapat Fhitung = 1 2 RSS RSS .

e. Lakukan uji Ftabel dengan menggunakan derajat kebebasan (degree of

freedom) sebesar (n-d-2k)/2, dengan: n = banyaknya observasi

d = banyaknya data atau nilai observasi yang hilang k =banyaknya parameter yang diperkirakan.

Dan bila Fhitung ≥ Ftabel, maka ada heteroskedastisitas dalam hal lain

(11)

Pada Uji Goldfeld –Quant seandainya tidak ada data yang dibuang (d=0) tes masih berlaku tetapi kemampuan untuk mendeteksi adanya heteroskedastisitas agak berkurang.

3. Uji Park

Untuk pengujian heteroskedastisitas melalui pengujian hipotesis dapat dilakukan dengan uji park.R.E. Park pada tahun 1966 mengemukakan keyakinan bahwa terdapat suatu hubungan fungsional antara ragam galat, yang bersifat heteroskedastisitas dan variabel penjelas, X. Park merumuskan bentuk fungsional itu sebagai berikut:

Atau: ln

di mana adalah bentuk gangguan yang bersifat stokastik.

Karena pada umumnya tidak diketahui, park mengunakan sebagai variabel proxy, kemudian merumuskan model regesi sebagai berikut:

=

Berdasarkan uji park, kita melakukan pengujian hipotesis tentang parameter dalam model regresinya, apabila koefisien besifat nyata dalam statistik, maka menujukkan hetersokedastisitas dalam data, sebaliknya apabila uji terhadap koefisien bersifat tidak nyata secara statistik, maka menujukan bahwa asumsi homoskedastisitas dari model regresi dapat dipenuhi.

(12)

a. Terapkan ordinary least square estimation (0LSE) untuk menaksir model:

b. Menerapakan OLSE untuk menaksir ln dengan menggunakan ln .

4. Uji White

Dalam implementasinya, model ini relative lebih mudah dibandingkan dengan uji –uji lainnya. Perhatikan persamaan berikut:

i i

i x

x

Y 01 1 2 2 

Berdasarkan regresi yang mempunyai tiga variabel bebas diatas, dapat dilakukan uji white dengan beberapa tahapan prosedur, yaitu:

a. Hasil estimasi dari model diatas akan menghasilkan nilai error, yaitu : ˆi2 b. Buat persamaan regresi:

i i i i i i i i   xxxx  5x1 x2 v 2 2 4 2 1 3 2 2 1 1 0 2 ˆ       

Perhatikan model diatas, uji ini mengasumsikan bahwa varian error merupakan fungsi yang mempunyai hubungan dengan variabel bebas, kuadrat masing – masing variabel bebas, dan interaksi antar variabel bebas.

c. Dengan hipotesis:

H0 : Homoskedastisitas / tidak heteroskedastisitas

H1 : Heteroskedastisitas.

Sampel berukuran n dan koefisien determinasi R2 yang didapat dari regresi akan mengikuti distribusi Chi- Square dengan derajat bebas jumlah variabel bebas atau jumlah koefisien regresi diluar intercept. Dengan demikian, formulasi Uji White adalah sebagai berikut :

2 nR ~ 2

d. Kriteria uji white adalah jika nR2 > 2 tabel, maka tolak H0 . Sebaliknya jika

(13)

2.4 Metode Weight Least Square (WLS)

Apabila variansi error (2) diketahui atau dapat diperkirakan, cara yang paling mudah untuk mengatasi adanya heteroskedastisitas adalah dengan metode kuadrat terkecil terboboti (Weighted Least Square) yang memberikan hasil bersifat BLUE. (Gujarati, 2010: 493).

Untuk menggambarkan metode ini, akan diberikan model sebagai berikut:

i ki k i i i i X X X X Y 01 1 2 2 3 3 ... 

Untuk mendapatkan taksiran variansi parameter regresi, diasumsikan untuk sementara bahwa variansi error sebenarnya (2) untuk setiap observasi diketahui, sehingga transformasi persamaan yang dihasilkan dari model regresi linier berganda adalah:

             i i i i X X Y      1 2 ... 2 1 1 0

Transformasi ini dilakukan dengan membagi baik sisi kiri maupun sisi kanan regresi dengan akar variansi error ( ). Sekarang anggaplah

 i i

v dan vi bisa disebut

faktor error yang ditransformasikan, apabila faktor error tersebut bersifat homoskedastisitas, maka bisa diketahui bahwa estimator OLS dari parameter-parameter pada persamaan tersebut bersifat BLUE. Untuk melihat bahwa faktor error (vi) homoskedastisitas bisa dengan cara berikut:

2 2 2   i i v  Sehingga E(        22 2 )   i i E v

 

vi2 12 E( i2) E        

Referensi

Dokumen terkait

Pembelajaran Pendidikan Agama Islam di Sekolah Dasar akan berhasil jika ada kerjasama yang baik dari semua pihak, khususnya antara guru di sekolah dan orangtua di rumah.. Oleh

(9b) Pajak Masukan atas perolehan Barang Kena Pajak dan/atau Jasa Kena Pajak, impor Barang Kena Pajak, serta pemanfaatan Barang Kena Pajak Tidak Berwujud dan/atau pemanfaatan

Dalam rangka mewujudkan pelayanan kesehatan yang berkualitas demi peningkatan kualitas kesehatan penduduk Indonesia, dibutuhkan upaya nyata dalam memperbaiki

Sedangkan biaya tenaga kerja yang tidak dapat secara fisik ditelusur ke produk, disebut dengan biaya tenaga kerja tidak langsung dan diperlukam sebagai bagian dari

Dalam proses pembelajaran akuntansi pada materi ajar laporan keuangan di kelas siswa harus bisa berkata jujur kepada guru saat ia kurang memahami pelajaran yang

1) Siswa kurang memahami bacaan dari awal. 2) Dengan membaca cepat, siswa tidak bisa menemukan makna bacaan secara mendalam karena proses membaca dilakukan dengan

Buku Kas Umum harus diisi tiap transaksi (segera setelah transaksi tersebut terjadi dan tidak menunggu terkumpul satu minggu/bulan) dan transaksi yang dicatat

(4) Sunt keputusan Gubemur Kepala Daerah di maksud ayat (1) pasal ini, dikirimkan kepada Dewan Perwakilan Rakyat Daerah Tingkat I Propinsi Jawa Tengah selambat-lambatnya pada