• Tidak ada hasil yang ditemukan

TINJAUAN PUSTAKA

2.6. Analisis Regresi Linear

Analisis regresi berkaiatan dengan studi ketergantungan dari suatu variabel yaitu variabel tak bebas (variabel dependen), pada satu atau lebih variabel yang lain yaitu variabel bebas (variabel independen) dengan maksud menduga atau meramalkan nilai rata-rata dari variabel bebas. Pada dasarnya, hubungan antar variabel tergantung pada dua hal yaitu[7][10][12]:

a. Mengukur tingkat asosiasi atau korelasi antar variabel. Tingkat asosiasi ini tergantung pada pola variasi atau inter-relasi yang bersifat simultan dari variabel yang bersangkutan. Persoalan ini dinamakan persoalan korelasi b. Mencari bentuk persamaan yang sesuai guna menduga (estimation)rata-rata Y

untuk X tertentu atau rata-rata X untuk Y tertentu. Persoalan ini dinamakan persoalan regresi.

Apabila dua variabel X dan Y mempunyai hubungan sebab akibat, maka nilai variabel X yang sudah di ketahu dapat digunakan untuk menduga atau memprakirakan Y. Nilai Y yang akan diprakirakan ini dinamakan variabel tak bebas sedangkan variabel X yang nilainya dipergunakan untuk prakiraan Y dinamakan variabel bebas.

Untuk mempelajari hubugan antara variable bebas maka regresi linier terdiri dari dua bentuk,yaitu:

a. Analisis regresi linear sederhana

Analisis regresi sederhana merupakan hubungan antara dua variable yaitu variable bebas (variabel independen) dan variable tak bebas(variabel dependen).

b. Analisis regresi linear berganda

Analisis regresi berganda merupakan hubungan antara 3 variabel atau lebih,yaitu sekurang-kurangnya dua variabel bebas dengan satu variabel tak bebas.

Tujuan utama regresi adalah untuk membuat perkiraan nilai suatu variabel (variable dependen) jika nilai variable yang lainyang berhubungan dengannya (variabel lainnya) sudah ditentukan.

2.6.1. Analisis regresi linear sederhana

Analisis regresi sederhana adalah proses mengestimasi sebuah fungsi hubungan antara variable dependen (Y ) dengan variableindependen (X). Dalam suatu Persamaan regresi besarnya nilai variabel dependen adalah tergantung pada nilai variablelainnya.

Persamaan (2.18) regresilinier sederhana Y terhadap X π‘Œπ‘Œ = 𝑦𝑦 + 𝐡𝐡𝑏𝑏 + πœ€πœ€ ………...(2.18)

Dimana:

π‘Œπ‘Œ = variabel takbebas 𝑏𝑏 = variabel bebas 𝑦𝑦 = parameterintercep

𝐡𝐡 = parameter koefisien regresi variabel bebas Ρ = galat

Nilai Ξ± dan b adalah parameter yang nilainya tidak diketahui sehingga diduga menggunakan statisticsampel.Komponen sisaan/kesalahan ( πœ€πœ€=galat) menunjukkan:

a. Pengaruh dari variableyang tidak dimasukkan dalam Persamaan regresi karena berbagai pertimbangan.

b. Penetapan Persamaan yang tidak sempurna.

c. Kesalahan pengukuran dalam pengumpulan dan pemrosesan data.

Nilai a menunjukkan intersep (konstanta) Persamaan ( 2 . 1 8 ) ,artinyauntuk nilai variabel X=0 maka besarnya Y=a, parameter b menunjukkan besarnya koefisien (slope), nilai ini menunjukkan besarnya perubahan nilai Y jika nilai X berubah sebesar satu satuan. Melalui metode kuadrat terkecil nilai a dan b dapat dihitung dengan menggunakan Persamaan (2.19) dan (2.20).

𝐡𝐡 =𝑦𝑦(βˆ‘ π‘‹π‘‹π‘Œπ‘Œ)βˆ’(βˆ‘ 𝑋𝑋)(βˆ‘ π‘Œπ‘Œ)

(𝑦𝑦 βˆ‘ 𝑋𝑋2)βˆ’(βˆ‘ 𝑋𝑋)2 ………..(2.19)

𝑦𝑦 =βˆ‘ π‘Œπ‘Œπ‘¦π‘¦ βˆ’ π΅π΅βˆ‘ 𝑋𝑋𝑦𝑦 ………(2.20)

2.6.2. Analisis regresi linear berganda

Regresi berganda adalah bentuk hubungan atau pengaruh dari dua atau lebih variabel babas X dengan variableterikat Y. Persamaan (2.21) dan (2.22) regresi linier berganda dari Y terhadap X.

a. Model populasi berganda pada Persamaan (2.21)

π‘Œπ‘Œ = 𝛼𝛼 + 𝛽𝛽1𝑋𝑋1+ 𝛽𝛽2𝑋𝑋2+ β‹― + 𝛽𝛽𝑦𝑦𝑋𝑋𝑦𝑦 + πœ€πœ€π‘‘π‘‘ ………...(2.21) b. Model sampel regresi linier berganda pada Persamaan (2.22)

π‘Œπ‘ŒοΏ½ = 𝑦𝑦 + 𝐡𝐡1𝑋𝑋1 + 𝐡𝐡2𝑋𝑋2+ β‹― + 𝐡𝐡𝑦𝑦𝑋𝑋𝑦𝑦 ……….(2.22) Koefisien Ξ± dan Ξ² adalah parameter yang nilainya tidak diketahui, sehingga diduga menggunakan satistik sampel.Nilai a, b1 dan b2 akandiperoleh dari Persamaan (2.23).

βˆ‘ π‘Œπ‘Œ = 𝑦𝑦𝑦𝑦 + 𝐡𝐡 βˆ‘ 𝑋𝑋1 + 𝐡𝐡 βˆ‘ 𝑋𝑋2 ...

βˆ‘ 𝑋𝑋1π‘Œπ‘Œ = 𝑦𝑦 βˆ‘ 𝑋𝑋1+ 𝐡𝐡1βˆ‘ 𝑋𝑋12+ 𝐡𝐡2βˆ‘ 𝑋𝑋1𝑋𝑋2 ...

βˆ‘ 𝑋𝑋2π‘Œπ‘Œ = 𝑦𝑦 βˆ‘ 𝑋𝑋2+ 𝐡𝐡1βˆ‘ 𝑋𝑋1𝑋𝑋2+ 𝐡𝐡2βˆ‘ 𝑋𝑋12 ………...(2.23)

Koefisien a, b1dan b2 dapat dihitung dengan Persamaan (2.24).

𝑦𝑦 = π‘Œπ‘ŒοΏ½ βˆ’ 𝐡𝐡1𝑋𝑋�1 βˆ’ 𝐡𝐡2𝑋𝑋�2 ...

𝐡𝐡1 =οΏ½βˆ‘ 𝑋𝑋22οΏ½βˆ‘ π‘‹π‘‹π‘‘π‘‘οΏ½οΏ½βˆ‘ 𝑋𝑋1π‘‘π‘‘π‘Œπ‘Œπ‘‘π‘‘οΏ½βˆ’(βˆ‘ 𝑏𝑏1𝑑𝑑𝑋𝑋2𝑑𝑑)(βˆ‘ 𝑋𝑋2π‘‘π‘‘π‘Œπ‘Œπ‘‘π‘‘)

12

π‘‘π‘‘οΏ½οΏ½βˆ‘ 𝑋𝑋22π‘‘π‘‘οΏ½βˆ’(βˆ‘ 𝑋𝑋1𝑑𝑑𝑋𝑋2𝑑𝑑)2 ...

𝐡𝐡2 = οΏ½βˆ‘ 𝑋𝑋12οΏ½βˆ‘ π‘‹π‘‹π‘‘π‘‘οΏ½οΏ½βˆ‘ 𝑋𝑋2π‘‘π‘‘π‘Œπ‘Œπ‘‘π‘‘οΏ½βˆ’(βˆ‘ 𝑋𝑋1𝑑𝑑𝑋𝑋2𝑑𝑑)(βˆ‘ 𝑋𝑋1π‘‘π‘‘π‘Œπ‘Œπ‘‘π‘‘)

12

π‘‘π‘‘οΏ½οΏ½βˆ‘ 𝑋𝑋22π‘‘π‘‘οΏ½βˆ’(βˆ‘ 𝑋𝑋1𝑑𝑑𝑋𝑋2𝑑𝑑)2 ………(2.24) Nilai dari a, b1, dan b2 dari Persamaan (2.24) dapat juga dihitung dengan metode matriks.Persamaan (2.24) adalah bentuk sistem persamaan linier yang dapat diselesaikan dengan metode determinan, yaitu menggunakan aturan Crammer.

Jika AX = b merupakan suatu persamaan linier dalam k peubah, maka sistem penyelesaian dengan metode determinan pada Persamaan (2.25).

𝑦𝑦 =|𝐴𝐴|𝐴𝐴|1|𝐡𝐡1 =|𝐴𝐴|𝐴𝐴|2| … π΅π΅π‘˜π‘˜ =|𝐴𝐴|𝐴𝐴|π‘˜π‘˜| ………..(2.25)

Dengan Aj (j=1,2,3,…,k) adalah matriks yang diperoleh dengan menggantikan anggota–anggota pada kolom ke–j dari matriks A dengan anggota pada matriks b.

2.6.3. Uji regresi linier berganda

Untuk mengetahui atau menguji kepastian dari Persamaan regresi berganda tersebut apakah X1 dan X2 berpengaruh secara simultan dan signifikan terhadap Y dilakukan dengan uji F.

a. Hipotesis yang diuji

𝐻𝐻𝑙𝑙 ∢ 𝛽𝛽1 = 𝛽𝛽2 = 0 , berarti X1 dan X2 tidak berpengaruh simultan dan signifikan terhadap Y

𝐻𝐻1 ∢ 𝛽𝛽1 β‰  𝛽𝛽2 = 0 , berarti X1 dan X2 berpengaruh simultan dan signifikan terhadap Y

b. Pengaruh uji statistik (taraf nyataΞ±= 5%) pada Persamaan (2.26) 𝐽𝐽𝐽𝐽𝐡𝐡𝑑𝑑𝑇𝑇 = βˆ‘(π‘Œπ‘Œπ‘‘π‘‘ βˆ’ π‘Œπ‘ŒοΏ½π‘‘π‘‘)2 ...

𝐽𝐽𝐽𝐽𝑇𝑇 = βˆ‘ π‘Œπ‘Œ2βˆ’(βˆ‘ π‘Œπ‘Œ)𝑦𝑦 2 ...

𝐽𝐽𝐽𝐽𝐡𝐡𝑑𝑑𝑦𝑦 = 𝐽𝐽𝐽𝐽𝑇𝑇 βˆ’ 𝐽𝐽𝐽𝐽𝐡𝐡𝑑𝑑𝑇𝑇 , 𝐽𝐽𝐽𝐽𝐡𝐡𝑑𝑑𝑇𝑇 + 𝐽𝐽𝐽𝐽𝐡𝐡𝑑𝑑𝑦𝑦 ...

βˆ‘ (π‘Œπ‘Œπ‘¦π‘¦π‘‘π‘‘=1 𝑑𝑑 βˆ’ π‘Œπ‘ŒοΏ½)2 = βˆ‘ οΏ½π‘Œπ‘Œπ‘¦π‘¦π‘‘π‘‘=1 𝑑𝑑 βˆ’ π‘Œπ‘ŒοΏ½π‘‘π‘‘οΏ½2+ βˆ‘ οΏ½π‘Œπ‘ŒοΏ½π‘¦π‘¦π‘‘π‘‘=1 π‘‘π‘‘βˆ’ π‘Œπ‘ŒοΏ½οΏ½2………… (2.26) Dimana:

JKres (Jumlah Kuadrat Residu) adalah variasi yang tidak dijelaskan.

JKreg (Jumlah Kuadrat Regresi) adalah variasi yang dijelaskan.

JKT (Jumlah Kuadrat Total) adalah variasi total.

Fhitung = 𝐽𝐽𝑇𝑇𝐽𝐽𝑇𝑇𝐡𝐡𝑑𝑑𝑦𝑦

𝐡𝐡𝑑𝑑𝑇𝑇 =

JKreg JKresk

(nβˆ’kβˆ’1) ………… (2.27)

c. Kriteria pengujian

Pada tingkat keyakinan 95% atau taraf nyata 5%, dengan derajat kebebasan penyebut (n-k-1).Nilai F tablediperoleh dari daftar distribusi F.

d. Membuat kesimpulan

Standart error atau kesalahan buku adalah angka yang digunakan untuk mengukur ketetapan suatu penduga atau mengukur jumlah variasi titik–titik observasi diatas dan dibawah regresi populasi.

Karena standart error populasinya tidak diketahui, maka Οƒe diduga dengan Se (Standart error estimate) sehingga Se adalah standard deviasi yang menggambarkan variasi titik–titik diatas dan dibawah garis regresi sampel.

Nilai Se dapat diperoleh dengan Persamaan (2.28).

S𝑑𝑑 = οΏ½βˆ‘(Yβˆ’π‘Œπ‘ŒοΏ½)nβˆ’kβˆ’12 ………..(2.28)

Apabila semua titik–titik observasi berada pada tepat garis regresi, berarti standart error penduga samadengan nol. Dengan demikian, standart error

penduga berguna untuk mengetahui batasan seberapa jauh melesetnya perkiraan dalam meramalkan data.

e. Variansi dan standar deviasi

Standar deviasi (S) adalah akar kuadrat dari variansi dan menunjukkan standar penyimpangan data dari nilai rata–rata hitungnya.Nilai S2 menunjukan sebaran atau fluktuasi data terhadap rata–rata hitungnya. Nilai S2 dapat dihitung dengan Persamaan (2.29)

𝑆𝑆2 =βˆ‘π‘¦π‘¦π‘‘π‘‘=1π‘¦π‘¦βˆ’1(𝑋𝑋1βˆ’π‘‹π‘‹οΏ½) ………..(2.29)

2.6.4. Indikator statistik

Didalam metode regresi, indikator statistik digunakan untuk menggambarkan tingkat atau derajat keeratan hubungan antara variabel tidak bebas Y dengan variabel bebas X1, X2, X3, ... Xn, baik secara bersama-sama maupun secara individu. Selain itu, juga untuk melihat keeratan hubungan diantara variabel bebas X1, X2, X3, ... Xn itu sendiri. Metode regresi yang ideal mensyaratkan bahwa diantara variabel X1, X2, X3, ... Xn tidak ada saling kebergantungan atau minim korelasi.

Perlu diketahui bahwa hubungan antar variabel dapat dibuat regresinya, namun demikian tidak semua variabel atau gejala-gejala alam dapat dicari korelasinya. Oleh karena itu, agar lebih berhati-hati dalam menggunakan alat statistika ini didalam penarikan kesimpulan, lebih-lebih membuat suatu keputusan yang lebih jauh. Akan tetapi, yang jelas bahwa indikator statistik dapat memberikan sumbangan atau pandangan yang lebih jauh terhadap masalah yang dihadapi, terutama analisis regresi mempunyai daya taksir yang menyakinkan apabila diuji dengan taraf yang nyata. Indikator statistik yang sering digunakan sebagaimana diuraikan dibawah ini.

a. Koefisien korelasi

Korelasi adalah pengukur hubungan dua variabel atau lebih yang dinyatakan dengan derajat keeratan atau tingkat hubungan antar variabel-variabel, dan dinyatakan dengan koefisien korelasi r atau R. Dalam analisis korelasi tidak mempersoalkan apakah variabel yang satu tergantung pada variabel yang lain atau

sebaliknya. Metode korelasi dapat dipakai untuk mengukur derajat keeratan hubungan antara variabel bebas X dengan variabel tidak bebas Y.

Derajat keeratan hubungan tersebut dinyatakan dengan simbol sebagai berikut:

1) Koefisien korelasi ( r ), untuk hubungan linier sederhana

2) Indeks korelasi ( R ), untuk hubungan linier berganda dan non linier.R juga sering disebut sebagai koefisien korelasi berganda.

Pada Microsoft Office Excel, kedua macam korelasi r dan R dinyatakan dengan simbol R atau mulitple R, yang menunjukkan keeratan hubungan antara variabel bebas (X1, X2, X3, ... Xn) secara serentak dengan variabel tidak bebas Y.

Besar nilai R berada diantara 0 dan 1 atau ( 0 ≀R2≀ 1 ). Jika R = 1 maka korelasi antara kedua variabel sangat erat dan sebaliknya jika R = 0, maka kedua variabel tersebut tidak ada korelasi.

Menurut Sugiyono (2007) pedoman untuk memberikan interpretasi koefisien korelasi R adalah sebagai berikut :

R=0,00-0,199:sangat rendah R=0,20-0,399:rendah R=0,40-0,599:sedang R=0,60-0,799:kuat / erat

R=0,80-1,000:sangat kuat / sangat erat

2

Koefisien korelasi R yangdikuadratkan akan memberikan suatu nilai tertentu R2yang disebut koefisien determinasi atau koefisien penentu atau indeks penentu, yang menyatakan seberapa besar (persentase) hubungan antara variabel bebas (X1, X2, X3, ...Xn) secara serentak dengan variabel tidak bebas Y.

Besar nilai R2 berada diantara 0 dan 1 atau ( 0 ≀R 2≀ 1 ). Jika R2 = 1 maka korelasi antara kedua variabel sangat erat dan sebaliknya jika R2 = 0, maka kedua variabel tersebut tidak ada korelasi. Misalnya, jika R2 mempunyai nilai 0,84 maka dapat diartikan bahwa 84% variabel tidak bebas Y dipengaruhi oleh variabel bebas (X1, X2, X3, ... Xn) secara serentak, sisanya 16% dipengaruhi oleh variabel lain yang tidak dinyatakan dalam Persamaan regresi.

Pada prakteknya, kemungkinan akan ditemui suatu kondisi dimana nilai R2 lebih rendah dari 0,6 dan ini menyatakan bahwa persamaanitu tidak banyak menjelaskan ketergantungan suatu variabel tidak bebas terhadap variabel bebas. Hal ini bisa terjadi karena beberapa hal antara lain tidak tepat saat memilih persamaan, atau data yang tersedia tidak cukup, atau datanya acak tidak beraturan.

c. Koefisien determinasi Adjusted R-Square (AR)

Penggunakan R2 sering menimbulkan permasalahan yaitu bahwa nilainya akan selalu meningkat dengan adanya penambahan variabel bebas dalam suatu model. Hal ini akan menimbulkan bias, karena jika ingin memperoleh model dengan R tinggi, seorang peneliti dapat dengan sembarangan menambahkan variabel bebas

dan nilai R akan meningkat, tidak tergantung apakah variabel bebas tambahan itu berhubungan dengan variabel tidak bebas (terikat) atau tidak.

Oleh karena itu, banyak peneliti yang menyarankan untuk menggunakan AR.

Interpretasinya sama dengan R2 akan tetapi nilai ARdapat naik atau turun dengan adanya penambahan variabel baru, tergantung dari korelasi antara variabel bebas tambahan tersebut dengan variabel terikatnya.

Nilai AR dapat bernilai negatif, sehingga jika nilainya negatif, maka nilai tersebut dianggap 0, atau variabel bebas sama sekali tidak mempunyai hubungan dengan variabel tidak bebas (dependentvariabel). Koefisien determinasi Adjusted R Square (AR) digunakan untuk regresi dengan lebih dari dua variabel bebas.

d. Nilai t statistik

Bilangan atau nilai t statistik sering disebut dengan istilah t-Value, dipergunakan untuk menguji derajat keeratan hubungan antara variabel tidak bebas Y dengan masing-masing variabel bebas X secara individu atau parsial yaitu (Y dengan X1), (Y dengan X2), (Y dengan X3), dan seterusnya.

Kriteria derajat keeratan hubungan tersebut adalah sebagai berikut:

|t|β‰₯ 2 : Significant hubungannya

2 >| t |β‰₯ 1 : Admissible to use(dapat digunakan)

|t|< 1 : Insignificant (tidak signifikan hubungannya)

Jika ternyata nilai t suatu varibel bebas tertentu (misal X3) kecil sekali, berarti variabel bebas X3 tersebut hampir tidak berpengaruh terhadap variabel bebas Y dan bisa diabaikan.

Bebarapa kondisi yang menyebabkan t-value rendah antara lain :

1). Variabel bebas X yang dipilih tidak penting atau tidak mempunyai hubungan dengan variabel tidak bebas Y.

2). Data yang digunakan sedikit dan tidak mencukupi untuk menghasilkan estimasi yang baik.

3). Variabel bebasX1, X2, X3, ...Xnpada model, mempunyai kaitan yang erat antara yang satu dengan lainnya (multi collinearity).

e. Durbin-Watson Statistik ( DW )

Indikator DW digunakan untuk melihat apakah terdapat korelasi antar variabel bebas yaitu antara X1 dengan X2, X1 dengan X3, X2 dengan X3, dan seterusnya. Pada Persamaan regresi linier sederhana dengan variabel bebas merupakan interval waktu (time series), maka uji DW ini digunakan untuk melihat apakah ada korelasi antara nilai pada periode t dengan nilai pada periode sebelumnya (t-1).

Nilai DW yang dapat diterima adalah 1 ≀ DW ≀ 3, dengan kriteria sebagai berikut:

DW = 2 : No serial correlation DW β†’ 0 : Positive correlation DW β†’ 4 : Negative correlation

Ada beberapa penyebab terjadinya autokorelasi, yaitu :

1) Kelambanan, sebagai contoh pada kasus perubahan situasi ekonomi biasanya tidak langsung mempunyai pengaruh terhadap konsumsi listrik.

2) Spesifikasi bias, bila dalam model tidak menyertakan variabel yang memang sangat relevan pada model.

3) Salah bentuk fungsi, misalnya fungsi yang seharusnya non linier tetapi digunakan fungsi linier.

4) Pengaruh timelag, selain dipengaruhi variabel pada periode t juga dipengaruhi pula variabel pada periode t-1.

f. Multikolinieritas

Multikolinieritas adalah kondisi dimana terjadi korelasi yang kuat diantara variabel-variabel bebas (X) yang diikutsertakan dalam pembentukan model regresi linier. Padahal pada model regresi linier berganda tidak boleh terjadi kondisi seperti ini dan itu berarti menyalahi asumsi dasar regresi linier berganda. Multikolinieritas tidak bisa terjadi pada regresi yang mempunyai satu variabel bebas.

Ciri-ciri yang sering ditemui apabila model regresi linier berganda mengalami multikolinieritas adalah:

1) Terjadi perubahan yang berarti pada koefisien model regresi (misal nilainya menjadi lebih besar atau kecil) apabila dilakukan penambahan atau pengeluaran sebuah variabel bebas dari model regresi.

2) Diperoleh nilai R-square yang besar, sedangkan koefisien regresi tidak signifikan pada uji parsial.

3) Tanda (+ atau -) pada koefisien model regresi berlawanan dengan yang disebutkan dalam teori (atau logika). Misal, pada teori (atau logika) seharusnya b1 bertanda (+), namun yang diperoleh justru bertanda (-).

4) Nilai errorstandar untuk koefisien regresi menjadi lebih besar dari yang sebenarnya (overestimated)

Untuk mendeteksi apakah model regresi mengalami multikolinieritas, dapat dilakukan sebagai berikut:

1) Diperiksa menggunakan VIF (Variance Inflation Factor). Jika nilai VIF > 10 berarti telah terjadi multikolinieritas yang serius di dalam model regresi yang dibentuk.

2) Atau dengan membanding koefisien determinasi parsial ( r2 ) dengan koefisien determinasi secara serentak ( R2 ) dengan cara meregresikan setaip variabel bebas dengan variabel bebas lainnya. Meregresikan variabel bebas X1 dengan X2, X1 dengan X3, dan X2 dengan X3. Selanjutnya nilai r2 dibandingkan dengan R2 dan jika nilai r2 lebih kecil dari R2, maka tidak terjadi multikolinieritas serta sebaliknya.

Dokumen terkait