BAB II TINJAUAN PUSTAKA
2.3 Analisis Regresi Linear
Regresi linear adalah analisis regresi yang dipergunakan untuk mengetahui pengaruh antara satu atau beberapa variabel terhadap satu buah variabel. Variabel yang mempengaruhi sering disebut variabel bebas atau variabel independen. Variabel yang
dipengaruhi sering disebut dengan variabel terikat atau variabel dependen. Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana dan regresi linear berganda.
2.3.1 Analisis Regresi Linear Sederhana
Analisis regresi linier sederhana adalah analisis regresi yang hanya melibatkan dua variabel saja, yaitu 1 (satu) variabel
dependen dan 1 (satu) variabel independen. Model regresi linear
sederhana adalah sebagai berikut[5]:
𝑌𝑖 = 𝛽0+ 𝛽1𝑋𝑖+ 𝜀𝑖 ; 𝑖 = 1,2, … , 𝑛 (2.1) 𝜀𝑖 ~ 𝐼𝐼𝐷𝑁 (0, 𝜎𝜀2)
dengan:
𝑌𝑖 : variabel dependen amatan ke-𝑖 𝑋𝑖 : variabel independen amatan ke-𝑖 𝛽0, 𝛽1 : parameter model
𝜀𝑖 : sisaan ke-𝑖
Kemudian dilakukan estimasi parameter model regresi sederhana dapat menggunakan metode Least Squares. Metode Least Squares merupakan suatu metode yang dilakukan dengan meminimumkan kuadrat residual. Dari persamaan (2.1) dapat dituliskan sebagai berikut[5]:
𝜀𝑖 = 𝑌𝑖− 𝛽0− 𝛽1𝑋𝑖 Dengan mendefinisikan 𝑆 adalah jumlah kuadrat residual, maka dapat dituliskan sebagai berikut:
𝑆 = ∑ 𝜀𝑛 𝑖2
𝑖=1 = ∑ (𝑌𝑛 𝑖− 𝛽0− 𝛽1𝑋𝑖)2
𝑖=1 (2.2)
kemudian persamaan tersebut diturunkan terhadap 𝛽0 dan 𝛽1 dan disamadengankan nol. Turunan persamaan (2.2) terhadap 𝛽0 menghasilkan:
𝜕𝑆
𝜕𝛽0= −2 ∑ 𝑌𝑛 𝑖− 𝛽0− 𝛽1𝑋𝑖
𝑖=1 = 0
dengan demikian diperoleh nilai estimasi parameter 𝛽0 dari model tersebut adalah:
Turunan persamaan (2.2) terhadap 𝛽1 menghasilkan: 𝜕𝑆
𝜕𝛽1= −2 ∑ 𝑋𝑛 𝑖(𝑌𝑖− 𝛽0− 𝛽1𝑋𝑖)
𝑖=1 = 0
dengan demikian diperoleh nilai estimasi parameter 𝛽1 dari model tersebut adalah:
𝑏1=𝑛 ∑𝑛𝑖=1𝑋𝑖𝑌𝑖− ∑𝑛𝑖=1𝑋𝑖∑𝑛𝑖=1𝑌𝑖 𝑛 ∑𝑛 𝑋𝑖2
𝑖=1 − (∑𝑛 𝑋𝑖
𝑖=1 )2
Apabila parameter telah diketahui, maka didapatkan nilai prediksi dari regresi sebagai berikut:
𝑌̂𝑖= 𝑏0+ 𝑏1𝑋𝑖 ; 𝑖 = 1, ,2, … , 𝑛 (2.3) dengan:
𝑌̂𝑖 : prediksi variabel dependen amatan ke-i 𝑋𝑖 : variabel independen amatan ke-i 𝑏0 : nilai estimasi parameter 𝛽0 𝑏1 : nilai estimasi parameter 𝛽1
Proses selanjutnya setelah melakukan pendugaan parameter model regresi sederhana adalah pengujian terhadap model regresi apakah signifikan atau tidak, yang dapat dilakukan dengan dua cara yaitu uji serempak dengan uji 𝐹 dan uji parsial dengan uji 𝑡. Sebelum pengujian parameter model, dibuat tabel ANOVA seperti pada Tabel 2.1[5].
Tabel 2.1 Tabel ANOVA Variasi df Sum Of Square(SS) Mean Square(MS) 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 Regresi 𝑘 𝑆𝑆𝑅 𝑀𝑆𝑅 𝑀𝑆𝑅𝑀𝑆𝐸 Sisaan 𝑛-𝑘-1 𝑆𝑆𝐸 𝑀𝑆𝐸 Total 𝑛-𝑘 𝑆𝑆𝑇 dengan: 𝑆𝑆𝑅 = ∑ (𝑦𝑛 ̂ − 𝑦̅)𝑖 2 𝑖=1 𝑆𝑆𝐸 = ∑ (𝑦𝑛 𝑖− 𝑦̂)𝑖 2 𝑖=1
𝑆𝑆𝑇 = ∑ (𝑦𝑛 𝑖− 𝑦̅)2 𝑖=1
𝑀𝑆𝑅 =𝑆𝑆𝑅 𝑘 𝑀𝑆𝐸 =𝑛 − 𝑘 − 1𝑆𝑆𝐸
Hipotesis yang digunakan dalam uji serempak adalah sebagai berikut:
Hipotesis:
𝐻0∶ 𝛽0= 𝛽1= ⋯ = 𝛽𝑘= 0
𝐻1∶ Setidaknya paling sedikit ada satu 𝛽𝑘 ≠ 0 Statistik uji:
𝐹ℎ𝑖𝑡𝑢𝑛𝑔=𝑀𝑆𝑅𝑀𝑆𝐸 (2.4) Kriteria pengujian:
Dengan menggunakan taraf signifikansi 5%,, jika 𝐹 > 𝐹5%(df1,df2), maka 𝐻0 ditolak artinya minimal ada satu variabel yang membengaruhi. Dengan 𝐹5%(df1,df2) adalah tabel distribusi 𝐹 yang terdapat pada Lampiran 13.
Setelah melakukan uji serempak, maka selanjutnya dilakukan uji parsial untuk mengetahui apakah parameter model signifikan.
Hipotesis:
𝐻0: 𝛽𝑘 = 0 (parameter model tidak signifikan) 𝐻1: 𝛽𝑘 ≠ 0 (parameter model signifikan) Statistik uji:
𝑡hitung=SE𝛽𝑘
𝛽𝑘 (2.5) Kriteria pengujian:
Dengan menggunakan taraf signifikansi 5%, jika |𝑡hitung| > 𝑡𝛼
2,(𝑛−𝑘−1) maka 𝐻0 ditolak yang artinya parameter model signifikan. Dengan 𝑡𝛼
2,(𝑛−𝑘−1) adalah tabel distribusi t yang terdapat pada Lampiran 14.
dengan:
𝑛 ∶ banyaknya data
𝑘 ∶ banyaknya variabel independen 2.3.2 Analisis Regresi Berganda
Persamaan Regresi Berganda merupakan persamaan regresi dengan menggunakan dua atau lebih variabel independen. Model persamaan regresi linear berganda adalah sebagai berikut[5]:
𝑌𝑖 = 𝛽0+ 𝛽1𝑋1𝑖+ ⋯ + 𝛽𝑝𝑋𝑝𝑖+ 𝜀𝑖 ; 𝑖 = 1,2, … , 𝑛 (2.6) 𝜀𝑖 ~ 𝐼𝐼𝐷𝑁 (0, 𝜎𝜀2)
Apabila terdapat sejumlah n pengamatan dan p variabel
independen X maka untuk setiap 𝑖 = 1,2, … , 𝑛 mempunyai
persamaan berikut:
𝑌1= 𝛽0+ 𝛽1𝑋11+ ⋯ + 𝛽𝑝𝑋𝑝1+ 𝜀1 𝑌2= 𝛽0+ 𝛽1𝑋1𝑛+ ⋯ + 𝛽𝑝𝑋𝑝2+ 𝜀2
⋮
𝑌𝑛 = 𝛽0+ 𝛽1𝑋1𝑛+ ⋯ + 𝛽𝑝𝑋𝑝𝑛+𝜀𝑛
Apabila persamaan (2.6) dinyatakan dengan notasi matriks akan menjadi sebagai berikut[5]:
[ 𝑦1 𝑦2 ⋮ 𝑦𝑛 ] = [ 1 1 ⋮ 1 𝑥11 𝑥12 ⋮ 𝑥1𝑛 … … ⋱ … 𝑥𝑝1 ⋮ ⋮ 𝑥𝑝𝑛 ] [ 𝛽0 𝛽1 ⋮ 𝛽𝑝] + [ 𝜀1 𝜀2 ⋮ 𝜀𝑛 ] (2.7) Persamaan (2.7) dapat ditulis sebagai berikut:
𝒀 = 𝜷𝑿 + 𝜺 (2.8) dengan:
𝒀 : vektor kolom dengan n baris dan 1 kolom
X : matriks dengan n baris dan
(𝑝 + 1) kolom 𝜷 : vektor kolom dengan (𝑝 + 1) baris dan 1 kolom 𝜺 : vektor kolom dengan n baris dan 1 kolomDari persamaan (2.8) diperoleh nilai estimasi parameter 𝛽 dari model tersebut adalah
Proses selanjutnya setelah melakukan pendugaan parameter model regresi berganda adalah pengujian terhadap model regresi apakah signifikan atau tidak, yang dapat dilakukan dengan dua cara yaitu uji serempak dengan uji 𝐹 dan uji signifikansi parameter dengan uji 𝑡. Sebelum pengujian parameter model, dibuat tabel ANOVA seperti pada Tabel 2.1.
2.3.3 Koefisien Determinasi
Pada analisis regresi, diperlukan penghitungan 𝑅2. Penghitungan nilai 𝑅2 dilakukan untuk mengetahui seberapa jauh pengaruh variabel independen (𝑋) terhadap variabel dependen (𝑌). Nilai 𝑅2 berkisar antara 0 dan 1 (0 ≤ 𝑅2≤ 1). Hasil pendugaan semakin baik apabila nilai 𝑅2 mendekati 1. Nilai koefisien determinasi pada regresi dapat dihitung dengan persamaan sebagai berikut[5]:
𝑅2= ∑ (𝑦𝑛 ̂ − 𝑦̅)𝑖 2 𝑖=1
∑ (𝑦𝑛 𝑖− 𝑦̅)2
𝑖=1 =𝑆𝑆𝑅𝑆𝑆𝑇 (2.10) 2.3.4 Uji Asumsi Klasik
Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear yang berbasis Least Square.semua uji asumsi klasik harus dilakukan pada analisis regresi linear. Pengujian asumsi klasik analisis regresi linear diantaranya adalah uji heteroskedastisitas, uji autokorelasi, uji multikolinearitas, dan uji normalitas. Tetapi ada pengujian yang yang tidak perlu digunakan pada analisis regresi linear sederhana, yaitu uji multikolinearitas. Pengujian asumsi sisaan antara lain sebagai berikut:
1. Uji Heteroskedastisitas
Asumsi sisaan heteroskedastisitas dilakukan untuk mengetahui apakah varian residual bersifat homokedastik dan dapat dilakukan dengan uji White dengan Hipotesis sebagai berikut[6].
Hipotesis:
𝐻0∶ Tidak terdapat unsur heteroskedastisitas 𝐻1∶ Terdapat unsur heteroskedastisitas Statistik uji:
𝜒2= 𝑛 ∗ 𝑅2 (2.11) dengan:
𝑛 ∶ jumlah pengamatan yang digunakan 𝑅2∶ koefisien determinasi
Kriteria pengujian:
Dengan menggunakan taraf signifikansi 5%, jika nilai 𝜒2< 𝜒tabel2 maka 𝐻0 diterima yang artinya tidak terdapat unsur heteroskedastisitas. Dengan 𝜒tabel2 adalah tabel Chi Square yang terdapat pada Lampiran 15.
2. Uji Autokorelasi
Uji Durbin-Watson adalah salah satu cara untuk mendeteksi adanya autokorelasi. Pada model regresi, asumsi yang diperlukan adalah tidak adanya autokorelasi dalam sisaan. Hipotesis yang digunakan adalah sebagai berikut[6]:
Hipotesis:
H0 : 𝜌𝑒= 0 (Tidak ada Autokorelasi pada sisaan)
H1 : 𝜌𝑒≠ 0 (Ada Autokorelasi pada sisaan) Statistik Uji: 𝑑 =∑ (𝑒𝑛 𝑖−1− 𝑒𝑖)2 𝑖=1 ∑ (𝑒𝑛 𝑖)2 𝑖=1 (2.12) ∑ (𝑒𝑛 𝑖)2 𝑖=1 ≠ 0 dengan:
𝑒𝑖 ∶ nilai sisaan amatan ke-𝑖 Kriteria pengujian:
Jika 𝑑 ≤ (4 − 𝑑𝑢) dengan 𝑑𝑈 adalah batas atas tabel durbin
watson, maka 𝐻0 ditolak artinya terdapat autokorelasi positif. Jika
𝑑 > 𝑑𝑈, maka 𝐻0 diterima artinya tidak terdapat autokorelasi positif. Dengan tabel durbin watson yang terdapat pada Lampiran 16.
3. Uji Multikolineritas
Uji multikolinearitas bertujuan untuk mengetahui apakah terdapat kasus multikolinearitas atau terdapat korelasi antara variabel independen. Indikator untuk mendeteksi multikolinearitas salah satunya adalah dengan melihat nilai Variance Inflation Factor (VIF)[6].
Hipotesis:
𝐻0∶ terdapat multikolinearitas 𝐻1∶ tidak terdapat multikolinearitas Statistik uji:
𝑉𝐼𝐹 =𝑇𝑜𝑙 (2.13)1 dengan:
𝑇𝑜𝑙 = 1 − 𝑅𝑖2 ; Toleransi
𝑅𝑖2 ∶ koefisien determinasi pada auxiliary regression
Auxiliary regression adalah regresi antar variabel independen yang satu dengan variabel independen yang lain.
Kriteria Pengujian
Jika nilai 𝑉𝐼𝐹 < 10 maka H0 ditolak, yang artinya bahwa variabel independen tidak terjadi multikolineritas.
4. Uji Normalitas
Uji normalitas bertujuan untuk menguji apakah residual memiliki distribusi normal menggunakan uji Kolmogorov-Smirnov[6].
Hipotesis:
𝐻0∶ 𝑆(𝑥) = 𝐹0(𝑥) (Data berdistribusi normal) 𝐻1∶ 𝑆(𝑥) ≠ 𝐹0(𝑥) (Data tidak berdistribusi normal) Statistik uji:
𝐷 = 𝑠𝑢𝑝𝑥|𝑆(𝑥) − 𝐹0(𝑥)| (2.14) dengan:
𝑠𝑢𝑝𝑥 : Nilai supremum untuk semua 𝑥 dari selisih mutlak 𝑆(𝑥) dan 𝐹0(𝑥)
𝐹0(𝑥) : Fungsi distribusi yang dihipotesiskan berdistribusi normal
Kriteria Pengujian:
Pengujian signifikansi dilakukan dengan cara membandingkan nilai statistik uji 𝐷 dengan 𝐾𝑆𝑡𝑎𝑏𝑒𝑙 Apabila nilai statistik uji 𝐷 < 𝐾𝑆𝑡𝑎𝑏𝑒𝑙 maka 𝐻0 diterima, yang artinya bahwa sisaan berdistribusi normal. Dengan 𝐾𝑆𝑡𝑎𝑏𝑒𝑙 adalah tabel Kolmogorov-Smirnov yang terdapat pada Lampiran 17.