• Tidak ada hasil yang ditemukan

Pendeteksian dan perbaikan heteroskedastisitas dalam regresi linier menggunakan metode Weighted Least Squares (WLS) dan transformasi variabel.

N/A
N/A
Protected

Academic year: 2017

Membagikan "Pendeteksian dan perbaikan heteroskedastisitas dalam regresi linier menggunakan metode Weighted Least Squares (WLS) dan transformasi variabel."

Copied!
128
0
0

Teks penuh

(1)

PENDETEKSIAN DAN PERBAIKAN HETEROSKEDASTISITAS DALAM REGRESI LINIER MENGGUNAKAN METODE WEIGHTED LEAST

SQUARES (WLS) DAN TRANSFORMASI VARIABEL

SKRIPSI

Diajukan untuk Memenuhi Salah Satu Syarat Memperoleh Gelar Sarjana Pendidikan Program Studi Pendidikan Matematika

Oleh:

Yeremia Wedaring Asmoro NIM: 091414062

PROGRAM STUDI PENDIDIKAN MATEMATIKA

JURUSAN PENDIDIKAN MATEMATIKA DAN ILMU PENGETAHUAN ALAM

FAKULTAS KEGURUAN DAN ILMU PENDIDIKAN

UNIVERSITAS SANATA DHARMA

YOGYAKARTA

(2)

ABSTRAK

Yeremia Wedaring Asmoro. 2013. Pendeteksian dan Perbaikan Heteroskedastisitas pada Regresi Linier Menggunakan Metode Weighted Least Squares (WLS) dan Transformasi Variabel. Skripsi. Program Studi

Pendidikan Matematika, Jurusan Pendidikan Matematika dan Ilmu Pengetahuan Alam, Fakultas Keguruan dan Ilmu Pendidikan, Universitas Sanata Dharma Yogyakarta.

Salah satu asumsi penting yang harus terpenuhi jika ingin mendapatkan penaksir koefisien regresi yang Best Linear Unbiased Estmator (BLUE) adalah homoskedastisitas. Jika asumsi homoskedastisitas tidak terpenuhi, maka terjadi pelanggaran asumsi yang disebut heteroskedastisitas.

Konsekuensi adanya heteroskedastisitas antara lain, penaksir tetap linier dan tidak bias. Namun heteroskedastisitas dapat menyebabkan penaksir tidak mempunyai varian yang minimum sehingga penaksir tidak lagi BLUE. Akibat dari varians tidak lagi minimum yaitu menyebabkan perhitungan standard error metode OLS (Ordinary Least Squares) menjadi tidak bisa dipercaya kebenarannya. Sehingga interval estimasi maupun uji hipotesis yang didasarkan pada distribusi t maupun uji F tidak bisa lagi dipercaya untuk evaluasi hasil regresi.

Keberadaan heteroskedastisitas dapat dideteksi menggunakan metode grafis dan uji Rank Spearman. Heteroskedastisitas dapat diperbaiki menggunakan metode WLS (Weighted Least Squares) dan transformasi variabel sehingga penaksir dapat bersifat BLUE (Best Linear Unbiased Estimator).

(3)

ABSTRACT

Yeremia Wedaring Asmoro. 2013. Detecting and Improving the Heteroskedasticity of Linear Regression by using Weighted Least Squares (WLS) and Transformation Variable Methods. A Thesis. Mathematic

Education Study Program, Departement of Mathematic Education Study Program and Science, Faculty Of Teachers Training And Education, Sanata Dharma University Yogyakarta.

One of the important assumption which have to be hold to estimate the regression coefficient which is Best Linier Unbiased Estimator (BLUE) is homoskedasticity. If the assumption of homoskedasticity is not hold, it will violate the assumption, which is called heteroskedasticity.

The consequences of heteroskedasticity are; the estimator is still linear and unbiased. Nevertheless, heteroskedasticity can cause the estimator does not have minimum variance so the estimator is no longer BLUE. It implies the standart error counted by OLS (Ordinary Least Squares) method cannot be trusted. So the interval estimation or hypothesis test based on t distribution or F test cannot be trusted to evaluate the regression result.

The existance of heteroskedasticity can be detected by using graphic method and Rank Spearman test. Heteroskedasticity can be improved by using WLS (Weighted Least Squares) and transformation variable methods. Finally,the estimate is BLUE.

(4)

i SKRIPSI

Diajukan untuk Memenuhi Salah Satu Syarat Memperoleh Gelar Sarjana Pendidikan Program Studi Pendidikan Matematika

Oleh:

Yeremia Wedaring Asmoro NIM: 091414062

PROGRAM STUDI PENDIDIKAN MATEMATIKA

JURUSAN PENDIDIKAN MATEMATIKA DAN ILMU PENGETAHUAN ALAM

FAKULTAS KEGURUAN DAN ILMU PENDIDIKAN

UNIVERSITAS SANATA DHARMA

YOGYAKARTA

(5)
(6)
(7)

iv

Tulisan ini dipersembahkan untuk mereka yang ku cintai

Teruntuk:

TUHAN YESUS KRISTUS yang selalu ada saat penulis membutuhkan pertolongan-Nya

Bapak , Bunda, kakak dan adik tercinta yang selalu dan tak pernah lelah memberi motivasi dan keceriaan selama penulisan skripsi ini

Sahabat-sahabatku tercinta yang tak pernah lelah memberi semangat dan motivasi serta kesabaran dalam mendengar keluh kesah penulis selama penulisan skripsi ini

Almamater Universitas Sanata Dharma Yogyakarta

MOTTO HIDUP

(8)
(9)
(10)

vii ABSTRAK

Yeremia Wedaring Asmoro. 2013. Pendeteksian dan Perbaikan Heteroskedastisitas pada Regresi Linier Menggunakan Metode Weighted Least Squares (WLS) dan Transformasi Variabel. Skripsi. Program Studi

Pendidikan Matematika, Jurusan Pendidikan Matematika dan Ilmu Pengetahuan Alam, Fakultas Keguruan dan Ilmu Pendidikan, Universitas Sanata Dharma Yogyakarta.

Salah satu asumsi penting yang harus terpenuhi jika ingin mendapatkan penaksir koefisien regresi yang Best Linear Unbiased Estmator (BLUE) adalah homoskedastisitas. Jika asumsi homoskedastisitas tidak terpenuhi, maka terjadi pelanggaran asumsi yang disebut heteroskedastisitas.

Konsekuensi adanya heteroskedastisitas antara lain, penaksir tetap linier dan tidak bias. Namun heteroskedastisitas dapat menyebabkan penaksir tidak mempunyai varian yang minimum sehingga penaksir tidak lagi BLUE. Akibat dari varians tidak lagi minimum yaitu menyebabkan perhitungan standard error metode OLS (Ordinary Least Squares) menjadi tidak bisa dipercaya kebenarannya. Sehingga interval estimasi maupun uji hipotesis yang didasarkan pada distribusi t maupun uji F tidak bisa lagi dipercaya untuk evaluasi hasil regresi.

Keberadaan heteroskedastisitas dapat dideteksi menggunakan metode grafis dan uji Rank Spearman. Heteroskedastisitas dapat diperbaiki menggunakan metode WLS (Weighted Least Squares) dan transformasi variabel sehingga penaksir dapat bersifat BLUE (Best Linear Unbiased Estimator).

(11)

viii ABSTRACT

Yeremia Wedaring Asmoro. 2013. Detecting and Improving the Heteroskedasticity of Linear Regression by using Weighted Least Squares (WLS) and Transformation Variable Methods. A Thesis. Mathematic

Education Study Program, Departement of Mathematic Education Study Program and Science, Faculty Of Teachers Training And Education, Sanata Dharma University Yogyakarta.

One of the important assumption which have to be hold to estimate the regression coefficient which is Best Linier Unbiased Estimator (BLUE) is homoskedasticity. If the assumption of homoskedasticity is not hold, it will violate the assumption, which is called heteroskedasticity.

The consequences of heteroskedasticity are; the estimator is still linear and unbiased. Nevertheless, heteroskedasticity can cause the estimator does not have minimum variance so the estimator is no longer BLUE. It implies the standart error counted by OLS (Ordinary Least Squares) method cannot be trusted. So the interval estimation or hypothesis test based on t distribution or F test cannot be trusted to evaluate the regression result.

The existance of heteroskedasticity can be detected by using graphic method and Rank Spearman test. Heteroskedasticity can be improved by using WLS (Weighted Least Squares) and transformation variable methods. Finally,the estimate is BLUE.

(12)

ix

KATA PENGANTAR

Puji dan syukur penulis panjatkan kepada Tuhan Yesus Kristus atas Kasih dan limpahan berkatNya sehingga penulis dapat menyelesaikan skripsi

yang berjudul “Pendeteksian dan Perbaikan Heteroskedastisitas pada Regresi

Linier Menggunakan Metode Weighted Least Squares (WLS) dan Transformasi Variabel”

Dalam proses penulisan skripsi ini, penulis mengalami banyak kesulitan dan hambatan. Namun berkat bantuan dan dukungan dari berbagai pihak, akhirnya dapat terselesaikan juga. Oleh karena itu, penulis ingin mengucapkan terimakasih kepada:

1. Ibu Ch. Enny Murwaningtyas, S.Si, M.Si, selaku dosen pembimbing yang telah meluangkan waktu, tenaga, pikiran serta kesabaran dalam membimbing, mengarahkan serta mendampingi penulis selama proses penyusunan skripsi.

2. Bapak Hongki Julie, S.Pd., M.Si. yang telah membantu dalam penulisan skripsi ini.

3. Bapak Dr. Marcellinus Andy Rudhito, S.Pd. selaku ketua program studi Pendidikan Matematika yang telah banyak membimbing penulis selama kuliah.

(13)

x

5. Bapak Drs. Sukardjono, M.Pd. dan Sutrisno, M.Sc. yang telah menjadi dosen penguji skripsi, terimakasih atas bimbingan dan sarannya selama ini.

6. Bapak ibu Dosen pendidikan matematika yang telah banyak memberikan bekal ilmu yang sangat berguna bagi penulis.

7. Ibu Heny, Bapak Sugeng dan Mas Arif di sekertariat JPMIPA atas segala bantuan dan kerja samanya slama penulis kuliah.

8. Bundaku tercinta Yuni Lestari, beserta Bapak Nanik Santoso yang telah memberikan smangat, dukungan, nasihat serta doa yang tak henti untuk penulis.

9. Saudara-saudaraku terkasih, Aditya Lukas Santoso dan Yehezkiel Anugrah Putra Pamungkas yang telah memberikan keceriaan dan semangat bagi penulis.

10.Sahabat-sahabatku tersayang Brigita Padhang, Maria Ursula, Helena Agustin dan Yustina Dayu yang telah memberikan semangat, keceriaan dan perjalanan hidup yang sangat berarti.

11.Teman-teman Pendidikan Matematika angkatan 2009 atas kebersamaan dan keceriaan selama penulis menempuh kuliah.

(14)

xi DAFTAR ISI

HALAMAN JUDUL ... i

HALAMAN PERSETUJUAN PEMBIMBING ... ii

HALAMAN PENGESAHAN ... iii

LEMBAR PERSEMBAHAN ... iv

PERNYATAAN KEASLIAN KARYA ... v

LEMBAR PERNYATAAN PERSETUJUAN KARYA ILMIAH UNTUK KEPENTINGAN AKADEMIS ... vi

ABSTRAK ... vii

ABSTRACT ... viii

KATA PENGANTAR ... ix

DAFTAR ISI ... xi

DAFTAR TABEL ... xiii

DAFTAR GAMBAR ... xiv

BAB I. PENDAHULUAN ... 1

A. Latar Belakang ... 1

B. Rumusan Masalah ... 2

C. Tujuan penulisan ... 3

D. Pembatasan Masalah ... 3

E. Metode Pembahasan ... 3

(15)

xii

BAB II. LANDASAN TEORI ... 5

A. Probabilitas ... 6

B. Variabel Acak / Variabel Random ... 7

C. Matriks ... 17

BAB III. ANALISIS REGRESI LINIER... 27

A. Analisis Regresi Linier Sederhana ... 27

B. Analisis Regresi Linier Berganda ... 50

C. Inferensi Analisis Regresi Linier ... 70

BAB IV. PENDETEKSIAN DAN PERBAIKAN HETEROSKEDASTISITAS DALAM REGRESI LINIER MENGGUNAKAN WLS DAN TRANSFORMASI VARIABEL ... 76

A. Sifat Alamiah Heteroskedastisitas... 76

B. Konsekuensi Keberadaan Heteroskedastisitas ... 78

C. Cara Pendeteksian Keberadaan Heteroskedastisitas ... 80

D. Cara Memperbaiki Kondisi Heteroskedastisitas ... 87

BAB V. KESIMPULAN ... 103

DAFTAR PUSTAKA ... 105

(16)

xiii

DAFTAR TABEL

Tabel 3.1 Data banyaknya suatu senyawa kimia ... 48

Tabel 3.2 Data residual ... 50

Tabel 4.1 Data harga saham dan konsumen setelah perang dunia II ... 83

Tabel 4.2 Hasil uji Rank Spearman menggunakan SPSS ... 85

Tabel 4.3 Data gaji rata-rata ahli ekonomi yang diklasifikasikan sesuai dengan gelar yang dicapai ... 86

Tabel 4.4 Hasil pengujian Rank Spearman melalui SPSS ... 87

Tabel 4.5 Data mengenai pengeluaran per kapita negara dan pendapatan perkapita……….. 93

(17)

xiv

DAFTAR GAMBAR

Gambar 3.1 Pembagian variasi menjadi dua komponen ... 48

Gambar 4.1 Homoskedastisitas ... 76

Gambar 4.2 Heteroskedastisitas ... 77

Gambar 4.3 Pola hipotesis residual kuadrat yang ditaksir ... 79

Gambar 4.4 Diagram pencar untuk contoh 4.1 ... 84

Gambar 4.5 Diagram pencar yang diperoleh pada contoh 4.2 ... 86

Gambar 4.6 Error varians proporsional terhadap ��2……….. …92

Gambar 4.7 Error variance proporsional terhadap �� ... 97

(18)

1

BAB I PENDAHULUAN

A. LATAR BELAKANG

Matematika merupakan ilmu yang mendasari berbagai macam ilmu, antara lain ekonomi, sosial, kesehatan dan lain-lain. Matematika dapat diaplikasikan dengan ilmu-ilmu lain, sehingga muncullah matematika ekonomi dan matematika statistik. Suatu cabang ilmu yang menggunakan campuran teori ekonomi, matematika ekonomi, matematika statistika, statistika ekonomi adalah ekonometrika. Ekonometrika didefinisikan sebagai hasil dari sebuah cara pandang mengenai peran ilmu ekonomi, berisi aplikasi matematika statistik pada data ekonomi untuk meminjamkan dukungan empiris pada model-model yang dibangun oleh matematika ekonomi dan untuk mendapatkan hasil empiris.

Dalam ekonometrika, alat utama yang digunakan adalah regresi. Dalam penulisan ini hanya akan dibahas regresi linier, yaitu regresi linier sederhana dan regresi linier berganda. Analisis regresi dapat dikatakan sebagai usaha untuk meramalkan perubahan, sehigga regresi dapat mengungkapkan keingintahuan apa yang akan terjadi di massa depan untuk memberikan sumbangan dalam menentukan keputusan yang terbaik. Regresi dapat dinyatakan dengan rumus:

� = �0+�1 �1 +�2 �2+⋯+�� �� +��

dengan Y adalah variabel terikat, X adalah variabel bebas, � adalah parameter dan

adalah error (kesalahan residual). Sedangkan k menyatakan banyaknya variabel

(19)

Dalam regresi linier, agar taksiran parameter mempunyai sifat BLUE (Best Linear Unbiased Estimator) maka model regresi harus memenuhi beberapa asumsi sehingga estimasi yang akan dilakukan dapat menghasilkan hasil yang benar dan efektif. Salah satu asumsi yang harus dipenuhi adalah asumsi homoskedastisitas, jika asumsi homoskedastisitas tidak terpenuhi maka akan terjadi heteroskedastisitas. Heteroskedastisitas adalah kondisi dimana variansi error ada yang tidak sama dalam setiap pengamatan. Variansi error ada yang tidak sama menyebabkan kesimpulan yang dicapai tidak valid. Sehingga jika terjadi kondisi heteroskedastisitas maka harus diatasi agar kesimpulan yang dicapai valid.

Berdasarkan latar belakang di atas, penulis mengambil judul “Pendeteksian dan Perbaikan Heteroskedastisitas dalam Regresi Linier Menggunakan Metode Weighted Least Squares (WLS) dan Transformasi Variabel”.

B. RUMUSAN MASALAH

Berdasarkan latar belakang di atas, pokok-pokok perumusan masalah yang akan ditulis yaitu :

1. Apa yang dimaksud dengan heteroskedastisitas dan konsekuensinya?

2. Bagaimana mendeteksi keberadaan heteroskedastisitas pada model regresi linier?

(20)

C. TUJUAN PENULISAN

Berdasarkan rumusan masalah di atas maka tujuan dari penulisan ini adalah untuk:

1. Memahami apa itu heteroskedastisitas dan konsekuensinya.

2. Memahami cara mendeteksi keberadaan heteroskedastisitas pada model regresi linier.

3. Memahami cara memperbaiki heteroskedastisitas pada model regresi linier.

D. PEMBATASAN MASALAH

Pembatasan masalah yang dibahas dalam penulisan ini yaitu:

1. Dalam mendeteksi keberadaan heteroskedastisitas digunakan metode grafis dan dan uji Rank Spearman.

2. Metode yang digunakan untuk memperbaiki keberadaan heteroskedstisitas adalah WLS (Weighted Least Square) dan transformasi variabel.

E. METODE PEMBAHASAN

(21)

F. SISTEMATIKA PEMBAHASAN

Penulisan ini dibagi menjad lima bab, setiap bab dibagi menjadi beberapa sub bab. Adapun sistematika penulisan ini adalah sebagai berikut:

Bab I merupakan bagian awal dari penulisan skripsi ini, berisi latar belakang masalah, rumusan masalah, tujuan penelitian, pembatasan masalah, manfaat penelitian serta sistematika penulisan.

Bab II menjelaskan tentang teori yang menjadi dasar dalam penulisan skripsi ini.

Bab III berisi tentang analisis regresi linier sederhana, analisis regresi linier berganda serta inferensi analisis regresi.

Bab IV berisi penjelasan tentang heteroskedastisitas, cara pendeteksian dan cara memperbaiki heteroskedstisitas.

(22)

5 BAB II

LANDASAN TEORI

A. Probabilitas

Pada sekali pelemparan sebuah mata uang logam ada dua hasil yang mungkin muncul, yaitu gambar (G) dan angka (A). Dua hasil yang mungkin ini dapat dihimpun menjadi T = {G, A}. Kumpulan (himpunan) dari semua hasil yang mungkin muncul atau terjadi pada suatu percobaan tersebut adalah ruang sampel, yang dilambangkan dengan himpunan T, sedangkan anggota dari T adalah titik sampel. Titik sampel yang dihasilkan pada percobaan sekali pelemparan sebuah mata uang logam adalah G dan A.

Definisi 2.1 (Walpole dan Myers, 1995)

Ruang sampel merupakan himpunan semua hasil yang mungkin dari suatu percobaan statistika, biasanya dilambangkan dengan huruf T .

Contoh 2.1

Tentukan ruang sampel pada percobaan pelemparan dua mata uang logam! Jawab :

(23)

Definisi 2.2 (Salam, 1989)

Titik sampel adalah setiap kemungkinan hasil dalam suatu ruang sampel atau anggota ruang sampel.

Contoh 2.2

Tentukan titik sampel pada percobaan sekali pelemparan sebuah dadu bersisi enam!

Jawab :

Titik sampel pada percobaan tersebut adalah: 1, 2, 3, 4, 5, 6.

Dalam percobaan sekali pelemparan sebuah mata uang logam, jika muncul gambar {G}, hasil yang muncul dinamakan kejadian munculnya G, yang dapat dinyatakan dalam suatu himpunan A = {G} yang merupakan himpunan bagian dari T.

Definisi 2.3 (Walpole dan Myers, 1995)

Suatu kejadian adalah himpunan bagian dari ruang sampel.

Contoh 2.3

Tentukan A jika A menyatakan suatu himpunan muncul mata dadu angka genap pada sekali pelemparan mata dadu sisi enam!

Jawab :

(24)

Definisi 2.4 (Salam, 1989)

Misalkan A merupakan sebuah kejadian dalam sebuah ruang sampel. Dengan P(A) melambangkan probabilitas kejadian A, akan ditekankan proporsi kemungkinan kejadian A akan muncul dalam sebuah percobaan yang dilakukan secara berulang dalam sebuah eksperimen. Jika (�) adalah banyaknya seluruh kemungkinan kemunculan hasil percobaan yang sama pada sebuah percobaan dan jika ( ) adalah banyaknya kejadian A yang cenderung sering muncul, didefinisikan frekuensi relatif muncul A adalah:

= ( )

(�)

Untuk nilai n yang besar dan mendekati ∞, frekuensi relatif ini akan memberikan sebuah pendekatan yang sangat bagus mengenai probabilitas A. Probabilitas terjadinya kejadian A dirumuskan:

� = lim

→∞

( ) (�)

Sifat dari probabilitas: 0≤ �( )≤ 1 untuk setiap A.

B. Peubah Acak / Variabel Random

(25)

maka nilai numerik 0, 1, 2, 3 dapat diberikan pada setiap titik sampel. Bilangan-bilangan 0, 1, 2, 3 merupakan besaran acak yang nilainya ditentukan oleh hasil percobaan. Nilai-nilai tersebut dapat dipandang sebagai nilai-nilai yang dapat diambil oleh suatu variabel random atau variabel random X tertentu, yang dalam hal ini menyatakan barapa kali sisi gambar muncul bila sekeping uang logam dilemparkan sebanyak tiga kali.

Definisi 2.5 (Walpole dan Myers, 1995)

Peubah acak ialah suatu fungsi yang mengaitkan suatu bilangan real pada setiap unsur dalam ruang sampel.

Berdasarkan banyaknya kemungkinan hasil suatu percobaan, ada dua macam variabel random yaitu, variabel random diskrit dan variabel random kontinu. Variabel random diskrit adalah variabel random yang hanya memiliki nilai tertentu, yaitu merupakan bilangan bulat dan asli. Dalam praktek, variabel random digunakan untuk data yang berupa cacahan. Variabel random kontinu adalah variabel random yang memiliki nilai-nilai pada suatu interval tertentu, nilainya dapat berupa bilangan bulat maupun pecahan. Dalam praktek , variabel random kontinu digunakan untuk data yang diukur.

(26)

harapan dalam jangka panjang, misalnya dari percobaan yang diulang berkali-kali. Nilai harapan variabel random X dilambangkan dengan E(X).

Definisi 2.6 (Walpole dan Myers, 1995)

Misalkan X suatu peubah acak dengan distribusi peluang f(x). Nilai harapan X adalah:

� =

. ,

.

+∞

−∞

,

Sifat-sifat nilai harapan:

Teorema 2.1 (Walpole & Myers, 1995: 113)

Jika dan adalah konstanta, maka � + = � + (2.1) Bukti:

Jika X diskrit:

� + = +

= + ( )

= + ( )

� + = � +

bila X kontinu maka

(27)

= + � + = aE(X) + b ▄

Teorema 2.2 (Walpole & Myers, 1995)

Jika X dan Y adalah variabel random bebas, maka

� = � �( ) (2.2) Bila X diskrit

Bukti:

� = � �( )

= ,

Karena X dan Y tidak saling bergantung maka probabilitas gabungannya adalah:

, = ( )

sehingga

� = ( )

= ( )

= � �( ) ▄ bila X kontinu

Bukti:

� = −∞−∞∞ ,

karena X dan Y bebas, maka dapat ditulis

(28)

dengan dan ( ) menyatakan masing-masing distribusi X dan Y, maka

� = −∞−∞∞ ,

= −∞∞ ( ) −∞∞ ( )

=� �( ) ▄

Teorema 2.3 (Walpole & Myers, 1995)

Nilai harapan suatu konstanta adalah sama dengan konstanta itu sendiri, yaitu � = (2.3) Bukti:

Akibat dari Teorema 2.1, jika = 0 maka

� =

= ( )

= ( )

� =

bila kontinu

� =

=

� = b ▄

(29)

Teorema 2.4 (Walpole & Myers, 1995)

Jumlah nilai harapan atau selisih dua atau lebih fungsi suatu peubah acak X sama dengan jumlah atau selisih nilai harapan fungsi tersebut, yaitu

� ( ) ± ( ) = � ( ) ±� ( ) (2.4)

Bukti:

Jika X diskrit maka

� ( ) ± ( ) = ( ) ± ( )

= ( ) ± ( )

= � ( ) ±� ( ) Jika X kontinu maka

� ( ) ± ( ) = ±

−∞

( )

=

−∞

±

−∞

=� ( ) ±� ( ) ▄

Selain nilai harapan, variansi juga termasuk salah satu konsep yang berkaitan dengan variabel random.

Definisi 2.7 (Walpole & Myers, 1995)

Misalkan X peubah acak dengan distribusi peluang f(x) dan rataan . Variansi X adalah:

(30)

� = �2 = � − 2 = −−∞∞ 2 bila X kontinu

Sifat-sifat Varians:

Teorema 2.5 (Walpole, 1995)

Variansi variabel random X adalah: �2 = � 2 − �2( )

=� 2 − 2 (2.5) Bukti:

Berdasarkan Teorema 2.1 dan Definisi 2.7, maka

�2 =� − 2

= � 2 −2 + 2

= � 2 −2 + 2

= � 2 −2 2+ 2

= � 2 − 2 ▄

Teorema 2.6 (Walpole, 1992) Jika a dan b adalah konstanta, maka

+ = 2 ( ) (2.6) Bukti:

Jika E = , maka � + = + . Oleh sebab itu,

� + =� + − − 2

= � − 2

= 2� − 2

(31)

Teorema 2.7 (Walpole, 1995)

Jika X dan Y adalah variabel random bebas, maka

+ = + (2.7)

Bukti:

Jika � = 1 dan � = 2 maka � + = 1 + 2, oleh sebab itu Var (X+Y) = � + − 12 2

= � − 1 2+ − 2 2+ 2 − 1 ( − 2)

= � + � + 2� − 1 ( − 2) Karena X dan Y bebas, maka

� − 1 ( − 2) = � − 1 �( − 2)

= 1− 1 ( 2− 2) = 0

Sehingga � + = � + � ( )

Definisi 2.8 (Walpole dan Myers, 1995)

Misalkan X dan Y peubah acak dengan distribusi peluang gabungan f(x,y). Kovariansi X dan Y adalah:

bila X dan Y diskrit

, = � − − = − − ( , )

(32)

, = � − − = − − ( , )

−∞ ∞

−∞

Bila nilai X yang besar sering berkaitan dengan nilai Y yang besar atau nilai X yang kecil berkaitan dengan nilai Y yang kecil maka nilai − positif akan berkaitan dengan nilai − yang positif dan nilai negatif − akan

berkaitan dengan nilai negatif − . Jadi − − cenderung positif.

Jadi tanda kovariansi (+ atau -) menunjukkan apakah hubungan antara dua variabel random yang berkaitan positif atau negarif. Kovarians bernilai positif jika rata-rata pada variabel random X dan Y bergerak dalam arah yang sama, dan bernilai negatif jika rata-rata variabel random X dan Y bergerak berlawanan arah. Bila X dan Y adalah bebas, maka kovariansnya nol.

Distribusi normal termasuk dalam landasan teori karena berguna dalam pembahasan asumsi kenormalan pada regresi linier. Distribusi normal merupakan distribusi kontinu yang mensyaratkan variabel yang diukur harus kontinu . Probabilitas suatu peristiwa yang berdistribusi normal dari variabel acak kontinu ditunjukkan oleh daerah di bawah kurva normal. Pada suatu observasi, berapapun nilai rata-rata dan nilai standar deviasinya, luas seluruh daerah di bawah kurva normal adalah 1.

Distribusi probabilitas normal untuk setiap nilai x yang membentuk kurva normal mempunyai persamaan umum:

= 1 � 2�

(33)

µ = rata-rata populasi

σ = simpangan baku populasi

π = konstanta yang nilainya mendekati 3,14159

e = konstanta yang nilainya mendekati 2,7182

x = setiap nilai variabel acak kontinu yang besarnya - ∞ < x < +∞.

Distribusi normal f(x) didefinisikan pada interval terbuka - ∞ < x < +∞. Distribusi normal dengan parameter µ dan σ2

biasanya ditulis N (µ , σ2). Dengan memperhatikan persamaan umum dan grafik distribusi normal f(x), tampak bahwa bentuk kurva normal ditentukan oleh dua parameter, yaitu rata-rata (µ) dan simpangan baku (σ). Bila nilai σ mengecil, bentuk kurva akan lebih rapat dan

semakin runcing dan sebagian besar nilai x akan berkumpul atau mendekati rata-rata µ. Sebaliknya jika nilai σ semakin besar, bentuk kurva akan semakin besar, bentuk kurva akan semakin renggang dan tumpul dimana sebagian besar nilai-nilai x akan menjauhi nilai-nilai rata-rata µ.

Sifat-sifat distribusi normal:

a. Grafik simetri terhadap garis tegak x = µ

b. Grafik selalu berada di atas sumbu x atau f(x) > 0 c. Mempunyai 1 nilai modus

d. Luas daerah di bawah kurva f(x) dan di atas sumbu x sama dengan 1 yaitu

P (-∞ < x < +∞) = 1 � 2�

−12µ 2 ∞

(34)

Distribusi normal jika digambarkan dalam grafik maka:

C. Matriks

Agar lebih mudah dalam penulisan dan pembahasan analisis regresi linier majemuk maka digunakanlah dasar-dasar aljabar matriks.

Definisi 2.10 (Gujarati, 2012)

Matriks adalah kelompok bilangan (real dan kompleks) yang disusun dalam suatu jajaran berbentuk persegi atau persegi panjang yang terdiri atas baris dan kolom.

Matriks dapat dinotasikan dengan huruf kapital yang tercetak tebal, serta dalam penulisannya menggunakan kurung biasa atau kurung siku. Ordo matriks atau ukuran matriks merupakan banyaknya baris dan banyaknya kolom yang terdapat dalam matriks.

Secara umum, matriks A yang berukuran × dituliskan:

= =

11 12 … 1

21 22 … 2

1 1 …

X

(35)

dimana adalah unsur yang muncul dalam baris ke I dan kolom ke j dari A dan

adalah pernyataan secara ringkas untuk matriks A yang unsur khasnya

adalah .

Contoh 2.4

Beri contoh matriks A yang berukuran 3 x 4! Jawab:

3 4 =

11 13 22 25

4 7 12 34

8 18 9 17

Dalam penulisan ini, tipe-tipe matriks yang digunakan antara lain: a. Matriks persegi

Matriks persegi merupakan matriks yang memiliki jumlah baris dan jumlah kolom yang sama.

Contoh:

= 1 3

4 2 =

1 5 7

3 8 9

11 4 66

b. Matriks diagonal

(36)

Contoh:

= 13 0

0 2 =

1 0 0

0 8 0

0 0 66

c. Matriks skalar

Matriks skalar adalah suatu matriks yang mempunyai ordo 1 × 1.. Contoh:

= 32

d. Matriks identitas

Matriks identitas merupakan matriks diagonal yang semua unsur diagonalnya adalah satu.

Contoh:

=

1 0 0

0 1 0

0 0 1

e. Matriks simetris

Matriks simetris adalah suatu matriks persegi yang unsur-unsurnya di atas diagonal utama merupakan pencerminan dari unsur-unsur bawah diagonal utama.

f. Matriks nol

(37)

Dalam matriks juga terdapat operasi penjumlahan, pengurangan serta pembagian. Operasi matriks ini bermanfaat dalam mencari penaksir menggunakan OLS pada regresi linier majemuk.

1. Operasi penjumlahan dan pengurangan

Jika = dan = dua matriks yang mempunyai ordo yang

sama × , maka jumlahnya didefinisikan sebagai matriks =

berordo × , dengan setiap elemen C adalah jumlah elemen A dan B yang

seletak. Sehingga + = + .

Contoh:

Jika = 1 2 3

0 1 4 dan =

2 3 0

−1 2 5 , maka tentukanlah + !

Jawab:

+ = 1 + 2 2 + 3 3 + 0

0 + (−1) 1 + 2 4 + 5 =

3 5 3

−1 3 9 .

2. Operasi Pengurangan

Misalkan = dan = dua matriks yang mempunyai ordo yang

sama × , dapat didefinisikan pengurangan matriks

= −

dimana C adalah matriks yang berordo sama dengan A dan B, dan diperoleh sebagai = − untuk semua i dan j; yaitu C didapatkan dengan

(38)

Contoh:

Jika diketahui matriks =

2 3 5

1 18 3

6 7 9

dan =

5 1 0

10 4 3

2 5 12

, maka −

adalah? Jawab:

− =

2−5 3−1 5−0 1−10 18−4 3−3 6−2 7−5 9−12

= −

3 2 5

−9 14 0

4 2 −3

3. Operasi Perkalian a. Perkalian skalar

Jika sebuah matriks A dikalikan dengan suatu skalar λ (suatu bilangan

real) maka setiap elemen matrriks A dikalikan dengan λ, jadi = .

Contoh:

Misalkan matriks = 1 2 3

0 1 4 dan λ = 2, maka adalah?

Jawab:

= 2 1 2 3

0 1 4 =

2 4 6

0 2 8

b. Perkalian matriks

Misalkan A adalah matriks berordo × dan B berordo × , maka hasil kali AB didefinisikan sebagai suatu matriks C yang berordo ×

sedemikian rupa sehingga:

=

(39)

= 1, 2, 3,…, dan = 1, 2, 3,…, . Unsur baris ke dan kolom ke dari C

diperoleh dengan mengalikan unsur dari baris ke dari A dengan unsur yang sesuai dari kolom ke dari matriks B dan menjumlahkan untuk semua unsur. Agar perkalian matriks AB mempunyai hasil perkalian, maka banyaknya kolom matriks A harus sama dengan banyaknya baris pada matriks B.

Contoh:

Tentukanlah hasil kali AB jika 2×3= 3 4 7

5 3 1 dan 3×2 =

1 3

5 2

4 7

!

Jawab:

= 2×2= 3 × 1 + 4 × 5 + 7 × 45 × 1 + 3 × 5 + 1 × 4 3 × 3 + 4 × 2 + 7 × 75 × 3 + 3 × 2 + 1 × 7

= 51 66

24 28

Sifat-sifat perkalian matriks:

i. Perkalian matriks pada umumnya tidak komutatif, secara umum ≠ . ii. Jika AB dan BA ada, matriks yang dihasilkan belum tentu memiliki ordo

yang sama.

iii. Suatu vektor baris yang dikalikan dibelakang dengan suatu vekor kolom adalah suatu skalar.

iv. Suatu vektor kolom yang dikalikan di depan suatu vektor baris adalah suatu matriks.

v. Perkalian matriks adalah asosiatif, yaitu = ( ), dimana A

(40)

4. Transposisi Matriks

Suatu matriks berordo × yang diperoleh dari penukaran baris dengan kolom matrik A × merupakan transpose dari A dan dinyatakan oleh (A transpose).

Contoh:

Tentukan transpose matriks = 1 2 3

5 2 6

2 6 8

1 3 6

!

Jawab: =

1 2 3

5 2 6

2 6 8

1 3 6

Sifat-sifat transposisi: i. = .

ii. + = +

iii. =

Bukti:

Tetapkan matriks = berordo × dan = berordo ×

sehingga matriks = = berordo × . Elemen pada posisi baris ke

dan kolom ke dari AB adalah = =1 , dan ini juga merupakan

elemen pada posisi baris ke dan kolom ke pada matriks .

Elemen-elemen pada baris ke dari adalah 1 , 2 ,…, dan

elemen-elemen pada kolom ke dari matriks adalah 1, 2,…, . Maka elemen

pada baris ke dan kolom ke dari adalah

(41)

5. Determinan

Untuk setiap matriks persegi A, terdapat hubungan sebuah angka yang dikenal sebagai determinan dari matriks, dilambangkan dengan det A atau |A|. proses penemuan nilai sebuah determinan disebut sebagai evaluasi dari determinan. Hal ini dilakukan dengan mengubah isi dari matriks dalam pola yang telah ditentukan.

Evaluasi matriks 2 × 2

Jika = 11 12

21 22

maka determinannya dievaluasi sebagai berikut:

= 11 12

21 22 = 11 22− 12 21

yang didapatkan dengan mengalikan silang secara berlawanan elemen pada diagonal utama dan mengurangi hasil perkalian silang dengan elemen diagonal lainnya dari matriks A.

Evaluasi sebuah determinan 3 × 3

Jika =

11 12 13 21 22 23 31 32 33

maka

= 11 22 33 + 12 23 31+ 13 21 32 − 13 22 31− 11 23 32

− 12 21 33

Jika =

11 12 … 1

21 22 … 2

1 2

(42)

maka = 1 �1 + 2 �2 + + �

�1 merupakan kovaktor dari matriks A.

Sifat-sifat determinan

i. sebuah matriks dengan nilai determinan nol disebut sebagai matriks singular, sedangkan sebuah matriks dengan nilai determinan tidak nol disebut sebagai matriks non singular.

ii. jika semua elemen dari setiap baris martriks A adalah nol, determinannya adalah nol.

iii. = artinya bahwa determinan matriks A dan determinan dari transpose A adalah sama.

iv. Dengan menukar dua baris atau dua kolom manapun dari matriks A akan mengubah tanda dari .

v. Jika setiap elemen dari sebuah baris atau sebuah kolom dari matriks A dikalikan dengan skalar λ, maka dikalikan dengan λ.

6. Inversi Matriks

Suatu kebalikan (invers) dari matriks persegi A, dinyatakan dengan −1, jika ada, adalah matriks persegi yang unik sedemikian rupa sehingga:

−1= −1 =

dimana I adalah matriks identitas yang ordonya sama dengan matriks A. Sebagai contoh:

= 2 4

6 8 −

1 = −1 1 2 6

8 −

1 4

−1 = 1 0

(43)

Sifat-sifat invers matriks: i. −1 = −1 −1

Bukti:

menurut definisi −1 = −1 =� , maka

−1 = −1 = −1 −1 = −1 −1 =

−1 = −1 =

dan

−1 −1 = −1 −1 =

� −1 = −1 =

ii. −1 = −1

Cara menentukan inverse dari sebuah matriks akan digunakan dalam

menentukan vektor OLS � . Jika matriks A merupakan matriks persegi dan non singular, dimana ≠0, inverse −1 dapat ditemukan sebagai:

−1 = 1

( )

Contoh:

Jika terdapat matriks = 4 8

5 9 , maka invers matriks A adalah?

Jawab:

−1= 1

5×8 − 4×9 −

9 8

5 −4

=1

4 −

9 8

5 −4 =

−94 2

5 4 −1

(44)

27

BAB III

ANALISIS REGRESI LINIER

Analisis regresi diperkenalkan oleh Francis Galton. Ia menemukan bahwa, bagi orang tua yang tinggi akan mempunyai anak laki-laki yang tinggi pula, tetapi secara rata-rata tidaklah setinggi orang tua mereka. Begitu pula bagi orang tua yang pendek akan mempunyai anak laki-laki yang pendek, tetapi secara rata tidaklah sependek orang tua mereka, namun selalu lebih mendekati rata-rata. Dengan demikian ada kecenderungan bahwa secara rata-rata sifat-sifat beberapa kelompok tertentu pada generasi selanjutnya akan bergerak ke arah rata-rata populasi (tidak tepat sama dengan generasi sebelumnya).

Definisi 3.1

Analisis regresi adalah studi ketergantungan satu variabel, variabel tak bebas, pada satu atau lebih variabel lain, variabel yang menjelaskan (explanatory variabels), dengan maksud menaksir dan atau meramalkan nilai rata-rata hitung (mean) atau rata-rata (populasi) variabel tak bebas, dipandang dari segi nilai yang diketahui atau tetap (dalam pengambilan sampel berulang) variabel yang menjelaskan (yang belakangan).

(45)

hasil panen gandum, pada suhu, curah hujan, jumlah cahaya matahari, dan pupuk. Ketergantungan seperti itu memungkinkan peramalan hasil panen rata-rata dengan dasar infomasi mengenai variabel yang menjelaskan. Hasil panen disebut variabel tak bebas (dependent variabel), dan suhu, curah hujan, jumlah cahaya matahari, pupuk disebut variabel yang menjelaskan (explanatory variabel). Dalam penulisan ini akan digunkan lambang huruf Y untuk variabel tak bebas dan huruf X untuk variabel yang menjelaskan, 1, 2,…, merupakan variabel yang menjelaskan yang ke k.

A. Analisis Regresi Linier Sederhana

Analisis regresi linier sederhana hanya mempelajari dua variabel, yaitu satu variabel tak bebas dan satu variabel yang menjelaskan yang berhubungan secara linier. Linieritas dalam regresi adalah linieritas dalam parameter yang artinya parameter yang terdapat dalam model regresi berpangkat satu dan tidak dibagi atau dikalikan dengan parameter lain. Upaya untuk mengetahui hubungan antara variabel tak bebas dengan variabel yang menjelaskan dimulai dengan mencari bentuk terdekat dari hubungan tersebut dengan cara menyajikan data yang telah diketahui dalam sebuah kurva atau grafik yang disebut diagram pencar (Scaater plot). Diagram pencar menggambarkan titik-titik pengamatan, dan setiap titik pengamatan ditentukan oleh pasangan ( , ).

(46)

Rata-rata dari seluruh titik-titik pengamatan merupakan rata-rata bersyarat variabel tak bebas Y untuk variabel bebas X tertentu, dilambangkan

( | ), ( | ) juga sering disebut nilai harapan Y pada X tertentu. Jika titik-titik pengamatan tersebut berada di sekitar garis regresi maka menunjukkan bahwa kedua variabel tersebut saling berhubungan secara linier. Jelas bahwa rata-rata bersyarat ( | ) merupakan fungsi dari .Setelah bentuk hubungan antara variabel X dan variabel Y tersebut diketahui, lalu selanjutnya merumuskan ke dalam suatu persamaan matematis.

Misalkan terdapat data populasi dari penelitian belanja konsumsi suatu keluarga (Y) yang dipengaruhi oleh pendapatan keluarga (X), dan setelah digambarkan dalam diagram pencar ternyata data tersebut berada disekitar nilai rata-rata bersyarat Y untuk X tertentu [ ( | )], maka ( | ) merupakan fungsi

dari . Nilai-nilai ( | ) ternyata membentuk garis lurus, maka dapat disimpulkan bahwa ( | ) merupakan fungsi linier dari . Karena dalam keadaan nyata tidak diperoleh data seluruh populasi, maka bentuk fungsi belum diketahui, sehingga sebagai pendekatan pertama model persamaan garis regresi populasi (PRP) dapat dituliskan:

= 0+ 1 (3.1.1) dimana 0 dan 1 merupakan parameter-paremeter yang tidak diketahui (besarnya)

tetapi bersifat tetap dan dikenal sebagai koefisien regresi. 0 dan 1 secara berturut-turut dikenal sebagai intersep dan koefisien kemiringan.

Karena nilai Y yang sebenarnya tidak selalu sama dengan nilai harapan dari Y, maka model (3.1.1) dapat ditulis:

(47)

= 0+ 1 +� (3.1.2) dimana � merupakan variabel gangguan yang bersifat acak dari model (3.1.1) dan dapat mengambil nilai positif maupun negatif.

Sebagaimana diketahui bahwa belanja konsumsi masing-masing keluarga tidak hanya dipengaruhi oleh faktor pendapatan, tetapi dapat juga dipengaruhi oleh jumlah anggota keluarga, umur, tingkat pendidikan, selera dan lain-lain. Dalam regresi sederhana, jumlah anggota keluarga, umur, tingkat pendidikan, selera dinamakan variabel gangguan.

0 dan 1 merupakan parameter-parameter yang tidak diketahui, sehingga persamaan garis regresi populasi juga tidak diketahui. Oleh karena itu, parameter-parameter 0 dan 1 ditaksir atau diduga melalui sampel. Selain itu dalam beberapa kasus praktik, yang dimiliki hanyalah data sampel Y yang berhubungan dengan beberapa nilai X yang tetap. Persamaan regresi yang didapatkan berdasarkan data sampel merupakan persamaan regresi sampel (PRS). Persamaan regresi sampel (PRS) yang digunakan untuk menaksir persamaan regresi populasi adalah:

= 0+ 1 (3.1.3)

dimana dibaca sebagai “Y-topi” atau “Y-cap”

= merupakan penaksir dari

0 = merupakan penaksir dari 0

1 = merupakan penaksir dari 1

Persamaan (3.1.3) dapat dinyatakan menjadi bentuk sthokastik sebagai berikut:

(48)

dimana menunjukkan nilai residu. Secara konsep, sama dengan � dan

dianggap sebagai taksiran untuk �.

Setelah model linier dianggap tepat untuk memodelkan hubunan antara

variabel Y dengan X, maka selanjutnya adalah penaksiran parameter 0 dan 1.

Agar PRS dapat menaksir PRP dengan baik, maka 0 harus sedekat mungkin

dengan 0 dan 1 juga harus sedekat mungkin dengan 1. Garis regresi sampel yang baik terletak sangat dekat dengan garis regresi populasi, yaitu dengan kuadrat penyimpangan terhadap pengamatan sekecil-kecilnya menggunakan metode kuadrat terkecil biasa (OLS).

Penaksiran dengan metode kuadrat terkecil biasa (OLS) akan menghasilkan dugaan yang baik jika asumsi-asumsi tentang variabel gangguan

� dapat dipenuhi. Berdasarkan tujuannya ada dua asumsi yang biasanya berlaku

untuk � yaitu:

a. Untuk penaksiran parameter, diasumsikan � sebagai variabel random yang didistribusikan identik dan tidak berkorelasi , dengan rata-rata nol dan varians yang konstan. Dengan perkataan lain:

1. � = 0

Asumsi ini menyatakan bahwa nilai yang diharapkan bersyarat � , tergantung pada tertentu adalah nol. Misalnya ada sebuah model regresi linier sederhana :

= 0+ 1 + �

(49)

Jika diasumsikan bahwa � ) sehingga ( | ) = 0+ 1 . Dengan kata lain secara rata-rata dapat menerangkan . Tetapi jika terjadi

pelanggaran terhadap asumsi tersebut, misalnya � ) dengan sebagai konstanta, maka

( | ) = 0+ 1 +

atau ( | ) = �+ 1 , � = 0+

Akibatnya penaksir 1 memang masih tak bias, tetapi penaksir 0 menjadi bias. Namun dalam prakteknya intersep ( 0) kurang begitu penting peranannya sehingga dapat diabaikan. Yang terpenting adalah koefisien regresi 1 yang dapat dipakai untuk mengukur besarnya pengaruh X terhadap Y secara kuantitatif. Koefisien regresi ini tidak terpengaruh walaupun asumsi � = 0 tidak terpenuhi.

2. Tidak ada autokorelasi

(�,� ) = � − � � − �

= (� ,� )

= 0 i ≠ j

Hal ini menunjukkan, dengan tertentu simpangan setiap dua Y yang manapun dari nilai rata-ratanya tidak berkorelasi. Asumsi ini dikenal tidak ada autokorelasi. Jika asumsi ini tidak dipenuhi, maka penaksir OLS tidak efisien. 3. Tidak ada Heteroskedastisitas

� � = � − � 2

= (�2)

(50)

Asumsi tersebut menyatakan bahwa variansi � untuk tiap adalah suatu angka konstan positif yang sama dengan �2. Secara teknis asumsi tersebut

homoskedastisitas. Jika asumsi ini tidak terpenuhi, maka akan terjadi Heteroskedastisitas. Heteroskedastisitas tidak merusak sifat ketidakbiasan dan konsekuensi dari penaksir OLS. Tetapi heteroskedastisitas menyebabkan penaksir tidak lagi mempunyai variansi minimum atau efisien.

b. Untuk pengujian hipotesis dan penyusunan selang kepercayaan, diasumsikan residu berdistribusi normal � ~ �(0,�2).

Alasan mengapa variabel gangguan berdistribusi normal adalah:

1) Variabel gangguan dapat dianggap sebagai gabungan dari sejumlah pengaruh tambahan. Jika pengaruh tambahan ini semakin besar, maka distribusi variabel ini akan cenderung mendekati distribusi normal.

2) Uji statistik t dan F tidak dapat diterapkan jika variabel gangguan tidak berdistribusi normal.

c. Uji Linieritas

Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang ada.

Metode kuadrat terkecil (OLS) dikemukakan oleh Carl Friedrich Gauss, seorang ahli matematika asal Jerman. Metode kuadrat terkecil merupakan suatu

metode penaksiran parameter yang meminimumkan 2 (jumlah residual kuadrat)

(51)

= 0+ 1 +� (3.1.5) PRP tidak dapat diamati secara langsung, sehingga PRP ditaksir menggunakan PRS:

= 0+ 1 +

= + (3.1.6) Persamaan (3.1.6) dapat diubah menjadi:

= −

= − 01 (3.1.7)

menunjukkan perbedaan (residual) antara nilai nyata dan nilai estimasi dari Y.

Prinsip kuadrat terkecil adalah memilih 0 dan 1 sedemikian sehingga

diperoleh 2 sekecil mungkin untuk suatu sampel tertentu. Penaksir parameter

0 dan 1 dapat diperoleh dengan menurunkan � = − 0− 1 2

terhapap

0 dan 1 secara parsial dan menyamakan hasilnya masing-masing dengan nol, sehingga didapat:

∂K

∂ 0

= 2 − 0− 1 −1 = 0 (3.1.8)

∂K

∂ 1

= 2 − 0− 1 − = 0 (3.1.9)

Persamaan (3.1.8) dan (3.1.9) diatur, sedemikian rupa menjadi:

− n 0− 1 = 0  = n 0+ 1 (3.1.10)

− 0 − 1 2 = 0  = 0 + 1 2 (3.1.11)

Dari persamaan (3.1.10) dan (3.1.11), nilai 0 dan 1, dapat dicari dengan:

(52)

=

n 0

+

1

0

=

1

0= 1

( − 1 ) (3.1.12)

Untuk mendapatkan 1, persamaan (3.1.12) disubstitusikan ke persamaan (3.1.11), menjadi:

= ( − 1 ) + 1 2

= ( − 1 2) + 1 2

− = 1 2 − 1

2

− = 1 2−

2

n

=

1 n 2

2

n −

n 2n 2

=

1

1

=

n −

n 2− 2

(3.1.13)

Persamaan (3.1.13) kemudian dipecahkan secara simultan:

bagian pembilang:

− = − + −

= − − + 2

= − − +

= − − +

(53)

= − −

bagian penyebut:

2 2

= 2− 2

2

+

2

= 2− 2 + 2

= 2− 2 +

= 2− 2 + 2

= − 2

sehingga diperoleh:

1

=

( −X)(Yi−Y)

( −X )2

=

2

(3.1.14)

dimana X dan Y adalah rata-rata sampel X dan Y, lalu didefinisikan

=

( −X )

dan

= (Y1−Yi)

.

Sehinggapersamaan (3.1.12) menjadi:

0 = Y − 1X (3.1.15) Setelah asumsi-asumsi klasik terpenuhi maka penaksir-penaksir koefisien dengan OLS memiliki sifat-sifat sebagai berikut:

1) Penaksir-penaksir kuadrat terkecil merupakan fungsi linier dari Y

= 0

Seblumnya akan dibuktikan bahwa = 0, yaitu

= ( – )

= 1 − + 2− + + −

= 1 + 2+ + −

(54)

= −

= 0 (3.1.16)

Selanjutnya akan dibuktikan 1adalah penaksir linier dari Y, yaitu Berdasarkan persamaan (3.1.14)

1 = 2

=

( 2– )

=

( )

2

)

2

berdasarkan (3.1.16), = 0

1=

( )

2

1 = (3.1.17)

di mana = 2

Jadi terbukti bahwa 1 merupakan fungsi linier dari Y.

Lalu akan dibuktikan 0 merupakan fungsi linier dari Y:

Berdasarkan persamaan (3.1.15)

0 = − 1

= − 1

kemudian disubstitusi dengan persamaan (3.1.17)

(55)

0 = ( 1

− ) (3.1.18)

Jadi terbukti bahwa 0 merupakan fungsi linier dari Y.

2) Penaksir-penaksir tersebuat tidak bias, =

 = 0

Terlebih dahulu akan dibuktikan = 0 , yaitu:

Berdasarkan definisi

= ( 2)

= 2

Berdasarkan (3.1.16), = 0

= 0 (3.1.19)  Setelah itu akan dibuktikan = 1, yaitu:

= ( + )

= +

Berdasarkan (3.1.18), = 0

=

=

2

sesuai dengan definisi

= 22

(56)

 Akan dibuktikan 2 = 12 , yaitu:

2

= ( 2)2

= 2 ( 2)

= 22 ( 12)

= 22 ( 12) 2

= 12 (3.1.21)

Berdasarkan persamaan (3.1.18)

0 = ( 1

− )

= 1− ( 0+ 1 +� )

= 1 0+ 1 +� − ( 0+ 1 +� )

= 0+ 1 + � − 01 − �

Berdasarkan persamaan (3.1.19) dan (3.1.20), yaitu = 0 , = 1

0 = 0+ 1 + �

− 1 − �

0 = 0+ �

− � (3.1.22)

Selanjutnya , akan dibuktikan 0 = 0, yaitu:

0 = 0+ � − �

= 0+1 (� )− (�)

karena � = 0

0 = 0 (3.1.23) Jadi terbukti bahwa 0 = 0

(57)

1 = ( 0+ 1 +� )

= 0 + 1 + �

Berdasarkan persamaan (3.1.19) dan (3.1.20), yaitu = 0 , = 1

1 = 1+ � (3.1.24) Lalu akan dibuktikan 1 = 1, yaitu:

1 = ( 1+ �)

= 1+ (� )

karena (�) = 0

1 = 1 (3.1.25)

Jadi terbukti bahwa 1 = 1

3) Penaksir-penaksir tersebut memiliki varian minimum.

Terlebih dahulu ditentukan Var 1 dan Var 0

Var 1 = ( 1− ( 1))2

= ( 1 − 1)2

= ( 1 + � − 1)2

= ( �)2

= ( 12�12 +

22�22+ + 2 1 2�1�2+ + 2 −1 � −1� )

= ( 2�2+ 2 � �)

= 2 �2 + 2 (� �)

berdasarkan asumsi 3 di mana �2 = �2 dan asumsi 2 � � = 0

Var 1 = 2�2

di mana 2 = 12 maka dapat ditulis

(58)

Var ( 0) = ( 0− 0)2

= ( 0+ 1

(�)− � − 0)2

= (1 (�)− � )2

= ( [(1− )�]2

=�2 (1 )2

=�2 12−2 + 2 2

=�2( 12−2 + 2 2) karena = 0 dan 2 = 12

Var ( 0) =

2

(

1

+

2

2

)

=

2

(

2+ 2

2

)

=

2

(

( − )2+2 2

)

=

2

(

(

22 + 2)+ 2

2

)

=

2

(

(

22 + 2)+ 2

2

)

=

2

(

22( )2 +2( )2

2

)

Var ( 0) =

2

(

2

2

)

(3.1.27)

Untuk menentukan varians 0 dan 1 minimum perlu dibandingkan dengan varians dari beberapa penaksir * yang tidak bias. Dimisalkan 1*

= di mana ≠ tetapi = + , sehingga

1 ∗

= ( 0+ 1 +� )

= ( 0+ 1 +� )

= 0 + 1 + �

( 1 ∗

(59)

karena (�) = 0

( 1∗)= 0 + 1 (3.1.28)

Karena * penaksir yang tidak bias, maka pada persamaan (3.18) = 0 dan

= 1, dan diketahui = + , maka:

= +

karena = 0, maka haruslah = 0

= +

= ( + )

= +

Karena = 1, maka haruslah = + = 0 sehingga

= 1

1 memiliki varians yang minimum. Bukti :

Var ( 1*)= [ 1 ∗

− 1

2

]

= [( �)2] = �2 2

= �2 ( + )2

= �2( 2 + 2 + 2 ) = �2( 2 + 2 + 2 2)

karena = = 0

Var ( 1∗) =�2( 2 + 2) Var ( 1

) =�2 2 +�2 2

= Var ( 1)+ �2 2 (3.1.29) Karena 2 selalu positif, maka Var ( 1

) > var ( 1), hanya apabila 2 = 0

maka Var ( 1 ∗

(60)

0 memiliki varians yang minimum

Misalkan 0∗ = (1− ) dan diketahui = 0 + 1 +� , maka

0 ∗

= (1− ) 0 + 1 +� 0

= 0(1− ) + 1( −

) + (1− )�

( 0 ∗

) = 0(1− ) + 1( − ) + ( � − �)

( 0∗) = 0(1− ) + 1 ( − ) + (�)− �

karena � = 0

( 0∗) = 0(1− ) + 1 ( − )− �

Agar ( 0∗) = 0 maka = 0, = 1, dan � = 0, diketahui

= + sehingga = 0 dan = 0.

Akan dibuktikan 0 memiliki varians yang minimum, yaitu: Var ( 0∗) = [ 0∗− 0 ]2

= ( [(1− )�]2

= �2 (1− )2

= �2 ( 1

2+

2 221 )

= �2 (1+ 2 2 2 ) karena = + dan = 0

Var ( 0∗) =�2 (1+ 2 ( + )2)

= �2 (1+ 2 2+ 2 2)

= �2 (1+ 2 2+ 2 2)

= �2 (1+ 2 2) +�2 2 2

= �2 1+ 2 12 +�2 2 2

(61)

Karena 2 selalu positif, maka Var ( 0∗) > var ( 0), hanya apabila 2 = 0

maka Var ( 0 ∗

) = var ( 0). Hal ini menunjukan bahwa 0 memiliki varians yang minimum.

Persamaan (3.1.14) dan (3.1.15) merupakan bukti bahwa estimasi-estimasi dengan OLS adalah fungsi dari data sampel. Tetapi, karena data dari sampel ke sampel kemungkinan berubah, maka penaksiran juga akan berubah

sesuai dengan fakta yang ada. Sehingga ukuran atau ketepatan taksiran 0 dan 1 sangat diperlukan. Dalam statistik, standar error digunakan untuk mengukur

ketepatan taksiran 0 dan 1. Standar error adalah standar deviasi sebuah distribusi sampling dari sebuah estimator, maka standar error suatu penaksir merupakan akar kuadrat dari varians suatu penaksir. Berdasarkan persamaan (3.1.26) dan (3.1.27) maka rumus untuk mencari standar error suatu penaksir adalah:

0 =

2

2

2 (3.1.31)

1 = �

12

(3.1.32)

Semua besaran pada persamaan (3.1.31) dan (3.1.32) dapat ditaksir melalui data, kecuali

2

.

Tetapi dengan menggunakan rumus berikut,

2 dapat ditaksir:

� 2 = 2

−( +1) (3.1.32) dengan k menyatakan jumlah variabel bebas dan n menyatakan jumlah

pengamatan.

(62)

observasi akan menyebar disekitar garis regresi sampel, sehingga dapat menghasilkan yang positif maupun negatif. Yang diharapkan adalah bahwa gangguan disekitar garis regresi sampel sekecil mungkin.

Untuk menghitung 2, sebelumnya, akan ditentukan bentuk simpangan

dari persamaan (3.1.4) = 0+ 1 + , dimana X maupun Y dinyatakan sebagai simpangan dari nilai rata-ratanya, dan dibuktikan bahwa residual tidak

berkorelasi dengan yang ditaksir. Pertama diketahui rata-rata = 0.

Bukti:

dari persamaan (3.1.8) maka

−2 − 0+ 1 = 0

karena persamaan (3.1.7) maka

−2 − = 0

−2 = 0

= 0 (3.1.33)

Untuk mengetahui bentuk simpangan dari persamaan = 0+ 1 + , maka persamaan tersebut dijumlahkan pada kedua sisinya sehingga

= 0+ 1 +

karena = 0, maka

= 0+ 1

persamaan di atas dibagi dengan n, sehingga

= 0+ 1

(63)

− = 0− 0 + 1 − 1 +

− = 1 − +

= 1 + (3.1.34)

= − 1 (3.1.35) dimana = − dan = − . Persamaan (3.1.34) disebut sebagai bentuk simpangan. Dalam bentuk simpangan, PRF yang ditaksir dapat ditulis sebagai

= 1 (3.1.36)

sehingga persamaan (3.1.34) dapat ditulis

= + (3.1.37) Selanjutnya akan dibuktikan residual tak berkorelasi dengan , yaitu:

dari persamaan (3.1.36) dapat ditulis

= 1

karena persamaan (3.1.35), maka dapat ditulis

= 1 − 1

= 1 − 1

2 2

karena menurut persamaan (3.1.14) yaitu 1

=

2

,

maka

= 22

2

2

= 2

2 −

2 2

= 0 (3.1.38)

(64)

2 = 2+ 2+ 2

karena menurut persamaan (3.1.38), maka 2 = 2

+ 2 menurut persamaan (3.1.36), maka

2 = 1

2 2

+ 2 (3.1.39)

Persamaan (3.1.39) dapat digambarkan sebagai berikut 2 =

− 2 , merupakan total variasi nilai Y sebenarnya di sekitar rata-rata sampel,

dapat juga disebut sebagai jumlah kuadrat total (TSS). 2 = − 2 =

1

2 2

merrupakan variasi nilai Y yang ditaksir disekitar rata-ratanya, dapat juga

disebut sebagai jumlah kuadrat akibat regresi (ESS). 2 merupakan residual atau variasi yang tidak dapat dijelaskan dari nilai Y di sekitar garis regresi, atau dapat disebut sebagai jumlah kuadrat residu (RSS). Jadi persamaan (3.1.39) dapat ditulis TSS = ESS + RSS, dan dapat digambarkan dalam Gambar 3.1.

Gambar 3.1 Pembagian variasi menjadi dua komponen

Dengan membagi TSS = ESS + RSS dengan TSS pada kedua sisi, maka diperoleh:

(65)

1 = −

2

− 2+

2

− 2

Sehingga dapat didefinisikan

2 =

2

− 2 =

Sifat dari 2 :

a. 2 merupakan besaran non negatif.

b. Batasannya adalah 0 ≤ 2≤ 1. Jika 2 = 1 berarti kecocokan sempurna,

sedangkan 2 yang bernilai nol berarti tidak ada hubungan antara variabel tak bebas dengan variabel yang menjelaskan.

Contoh 3.1

Data dalam Tabel 3.1 menyatakan data banyaknya suatu senyawa kimia (y) yang larut dalam 100 gram air pada berbagai sumbu x.

Tabel 3.1 Data banyaknya seuatu senyawa kimia X 0 C y (gram)

0 8 6 8

15 12 10 14

30 25 21 24

45 31 33 28

60 44 39 42

75 48 51 44

(66)

Penyelesaian:

= 675 = 488 2 = 37125 = 25005

= 37,5 = 27,11

1

=

n −

n 2− 2

=

18 25005 − 675 (488)

18 371,25 − 625 2

= 0,568

0 = Y − 1X = 27,11−0,568

(

37,5) = 5,825

Jadi model regresinya adalah = 5,825 + 0,568X

Untuk mencari residualnya menggunakan rumus = −

1 = 1− 1

= 8 – (5,825 + 0,568 (0)) = 2.17

2 = 2− 2

= 6 – (5,825 + 0,568 (0)) = 0.17

18 = 18 − 18

(67)

Tabel 3.2 Data residual

0.00 8.00 2.17

0.00 6.00 0.17

0.00 8.00 2.17

15.00 12.00 -2.34

15.00 10.00 -4.34

15.00 14.00 -0.34

30.00 25.00 2.15

30.00 21.00 -1.85

30.00 24.00 1.15

45.00 31.00 -0.37

45.00 33.00 1.63

45.00 28.00 -3.37

60.00 44.00 4.12

60.00 39.00 -0.88

60.00 42.00 2.12

75.00 48.00 -0.40

75.00 51.00 2.60

75.00 44.00 -4.40

Total | | 36.572

B. Analisis Regresi Linier Berganda

(68)

(kekayaan, jumlah anggota keluarga dan lain-lain) yang terdapat dalam model regresi berganda, maka pendekatan yang digunakan adalah notasi matriks agar lebih mudah dalam penulisan.

Model regresi linier berganda adalah suatu model regresi yang menghubungkan secara linier antara suatu variabel tak bebas Y dengan himpunan variabel bebas 1, 2,…, yaitu:

= 0+ 1 1+ 2 2+ + +� , i = 1, 2,…, n (3.2.1) dengan:

k : banyaknya variabel bebas i : pengamatan ke – i

n : banyaknya pengamatan

persamaan (3.2.1) merupakan bentuk sederhana dari persamaan-persamaan berikut:

1 = 0+ 1 11 + 2 12 + + 1 +�1

2 = 0+ 1 21+ 2 22 + + 2 +�2

………..

= 0 + 1 1+ 2 2 + + +� (3.2.2) Persamaan (3.2.2) dapat dinotasikan dalam bentuk matriks:

1

2 =

1 11 12 1

1 21 22 2

1 1 2

0

1 +

�1

�2

(3.2.3)

Y = Xβ + Ɛ (3.2.4) dengan:

Y = vektor variabel tak bebas berordo × 1

(69)

β = vektor parameter yang tak diketahui berordo ( + 1) × 1 Ɛ = vektor gangguan acak berordo × 1

Asumsi yang digunakan dalam analisis regresi linier berganda sama dengan asumsi-asumsi yang harus dipenuhi dalam analisis regresi linier sederhana, hanya saja dalam analisis regresi linier berganda ditambahkan asumsi tidak ada multikolineritas. Asumsi-asumsi tersebut antara lain:

a. Dalam analisis regresi sederhana, asumsi yang pertama adalah � = 0 untuk semua i. Sesuai dengan asumsi tersebut, asumsi dalam regresi berganda jika direpresentasikan dalam matriks akan menjadi

� =

�1

�2

=

(�1) (�2)

(� ) =

0 0

0 =

Sehingga � = , dimana � merupakan matriks berordo × 1 dan merupakan vektor nol.

b. Asumsi-asumsi lain pada analisis regresi sederhana adalah

� � = � − � � − �

= � �

= 0

dan

� � = � − � 2

= � 2

=�2.

(70)

� = �.�

�.� =

�1

�2

�1 �2 �

=

�1�1 �1�2 �1�

�2�1 �2�2 �2�

� �1 � �2 … � �

=

�12 (�1�2) (�1� )

(�21) (�22) (� 2� )

(� �1) (� �2) … (� 2)

Sesuai dengan asumsi pada analisis regresi sederhana mengenai varians dan kovarians, maka

�.� =

�2 0 0

0 �2 0

0 0

… �2

=�2

1 0 0

0 1 0

0 0

1

�.� = �2

dimana I merupakan matriks identitas.

�2 0 0

0 �2 0

0 0

… �2

merupakan matriks varians-kovarians dari faktor gangguan

� , elemen dari diagonal utama matriks akan menjadi varians, dan

(71)

dengan �2, maka akan terjadi heterokedastisitas. Dan akan terjadi autokorelasi jika elemen-elemen selain elemen diagonal utama tidak bernilai nol.

c. Tidak ada multikolinearitas yaitu tidak terdapat hubungan linier yang tepat diantara variabel bebas X. Dapat juga dikatakan bahwa tidak adanya sekelompok angka dari �1,2,,… ,� , yang semuanya tidak bernilai nol secara bersamaan.

Dikatakan terdapat hubungan linier yang tepat jika kondisi berikut terpenuhi:

�1 1+ �2 2+ + � = 0

dalam notasi matriks dapat direpresentasikan:

� =

dimana � adalah sebuah vektor baris 1 × dan X adalah sebuah vektor kolom

× 1. Jika asumsi ini tidak dipenuhi maka koefisien regresi dari variabel-variabel X tidak dapat ditentukan dan standar erornya tidak terhingga.

Secara garis besar, metode kuadrat terkecil (OLS) dalam regresi berganda sama dengan OLS pada regresi sederhana. Untuk menentukan penaksir OLS, harus diketahui model PRS dalam bentuk stokhastik terlebih dahulu, yaitu:

= 0+ 1 1 + + + (3.2.5)

= − 0− 1 1 − − (3.2.6) Dalam notasi matriks, persamaan (3.2.6) dapat ditulis:

�= − � (3.2.7)

Konsep pada regresi berganda, sama dengan pada regresi sederhana yaitu residual, y

Referensi

Dokumen terkait

Penelitian ini bertujuan untuk mengetahui pengaruh konsumsi energi, protein dan seng serta riwayat penyakit infeksi terhadap kejadian stunting pada anak balita umur 24-59 bulan

Guru PAI kurang peka terhadap pembaharuan kurikulum dan perkembangan media pembelajaran Berbasis Informasi Teknologi (IT). Guru PAI belum mampu menciptakan suasana

Hal tersebut dapat dilihat pada pengambilan data ke 0 sampai dengan pe- ngambilan data ke 3 terus mengalami kenaikan dikarenakan pada saat itu pekerja 2 melakukan

S druge strane, vjerujemo da se u relativnom smislu nešto viša razina povjerenja u pravosu đ e i institucije pravosudnog sustava koje iskazuju suci i državni odvjetnici može

Tindakan respon risiko yang diperoleh pada masing-masing tahap merupakan hasil diskusi dengan beberapa stakeholder terkait yang menjadi responden, yaitu nelayan tuna,

Serupa dengan KUHP, ketentuan pidana dalam Undang-Undang Nomor 8 Tahun 1995 Serupa dengan KUHP, ketentuan pidana dalam Undang-Undang Nomor 8 Tahun 1995 tentang

Remote EXEcution Command Daemon (REXECD) adalah merupakan server yang memperbolehkan menjalankan suatu perintah yang dikirimkan oleh suatu host melalui jaringan TCP/IP,

Selanjutnya, dalam hal strategi atau metode pembelajaran, guru PAI pada SMPN Watampone memperhatikan dengan baik strategi yang akan dipakai dimulai dengan memilih strategi