• Tidak ada hasil yang ditemukan

BAB II LANDASAN TEORI

N/A
N/A
Protected

Academic year: 2021

Membagikan "BAB II LANDASAN TEORI"

Copied!
22
0
0

Teks penuh

(1)

6 BAB II

LANDASAN TEORI

Pada bab ini akan menjelaskan mengenai beberapa landasan teori untuk menerapkan regresi nonparametrik yaitu regresi nonparametrik Spline kuadratik dan Theil.

2.1 Derivatif

Definisi 2.1 Spiegel (1986 :58 )

Misalkan y= f(x)adalah fungsi dan c berada pada domain f. Derivatif fungsi f pada c dinyatakan dengan f'(c), maka

x c f x c f c f x ∆ − ∆ + =lim ( ) ( ) ) ( ' 0 (2.1)

Jika nilai limitnya ada. Teorema 2.2 (Aturan Rantai)

Fungsi f dan g fungsi-fungsi yang mempunyai derivatif, maka fungsi komposisi g

f juga mempunyai derivatif.

Jika y= f(u) dan u=g(x), maka derivatif y=(fg)(x)= f(g(x))

dx du du dy dx dy = (2.2) Bukti : x u u y x y ∆ ∆ ∆ ∆ = ∆ ∆ .

(2)

7 0 . 0 ) lim )( lim ( . lim lim 0 0 0 0 = = ∆ ∆ ∆ = ∆ ∆ ∆ = ∆ → ∆ → ∆ → ∆ → ∆ dx du x u x x u x u x x x x Jadi, ) lim )( lim ( lim 0 0 0 x u u y x y x x x ∆ ∆ ∆ ∆ = ∆ ∆ → ∆ → ∆ → ∆ Sehingga dx du du dy dx dy =

2.2 Integral Tak Wajar

Definisi 2.3 Baisuni.(1986 : 228)

Integral tak wajar adalah suatu integral yang salah satu atau kedua harga limit batas integralnya adalah tak berhingga untuk suatu harga x dalam interval [a,b] sehingga,

∞ − →−∞ = b a b a f x dx dx x f( ) lim ( ) (2.3)

∞ ∞ →

=

b a a b

dx

x

f

dx

x

f

(

)

lim

(

)

(2.4)

Apabila limit di ruas kanan ada dan tak berhingga, maka dikatakan integral tak wajar yang bersangkutan konvergen dan memiliki nilai yang terhingga itu. Jika

(3)

8

tidak, integral tersebut disebut divergen. Jika

∞ − 0

)

(

x

dx

f

dan

∞ 0

)

(

x

dx

f

konvergen maka dikatakan

∞ −

dx

x

f

(

)

konvergen dengan nilai :

∞ ∞ − ∞ ∞ −

+

=

0 0

)

(

)

(

)

(

x

dx

f

x

dx

f

x

dx

f

(2.5)

2.3 Ekspektasi dan Variansi

Variansi berperan penting dalam analisis regresi spline kuadratik. Oleh karena itu, akan dibahas dasar teori tentang variansi.

Definisi 2.4 Bain (1992 : 67)

Jika X adalah variabel random kontinu dengan fungsi densitas probabilitas f(x) , maka nilai ekspektasi dari X didefinisikan sebagai berikut :

−∞∞

=

xf

x

dx

X

E

(

)

(

)

(2.6)

Jika nilai integral ini ada maka dikatakan konvergen absolut, jika tidak maka dikatakan nilai E(X) tidak ada. Jika X variabel random dengan fungsi densitas probabilitas f(x) , a dan b suatu konstanta, g(x) dan h(x) fungsi real dengan domain elemen dari X maka :

( )

[

ag

X

bh

X

]

aE

[ ]

g

( )

x

bE

[

h

( )

X

]

E

(

)

+

=

+

Definisi 2.5 Bain (1992:73)

Variansi dari variabel random didefinisikan sebagai :

( )

[

(

)

]

( )

( )

( )

( )

2

(

( )

)

2 2 2 2 , 2 X E X E X E X E X E X E X Var − = = + − = − = µ µ µ µ

(4)

9

Jika X variabel random, a dan b suatu konstanta, maka :

(

)

[

(

)

]

( )

X Var a X a E b aX Var 2 2 2 = − = + µ 2.4 Jenis Matriks

1. Matriks Bujur Sangkar

Matriks bujur sangkar adalah matriks yang banyak baris dan banyak kolomnya sama. Pada matriks bujur sangkar, elemen-elemen

a

11

,

a

22

,...,

a

nndisebut sebagai elemen diagonal.

Contoh :             = nn n n n n a a a a a a a a a A        2 1 2 22 21 1 12 11 (2.7)

dengan banyaknya baris = banyaknya kolom = n 2. Matriks Identitas

Matriks identitas adalah matriks bujur sangkar yang elemen-elemen pada diagonal utama bernilai satu dan elemen luar diagonalnya bernilai 0.

3. Matriks Simetrik

Matriks simetrik adalah matriks bujursangkar yang elemennya simetris secara diagonal, dapat juga dikatakan bahwa matriks simetris adalah matriks yang transposenya sama dengan dirinya sendiri.

4. Matriks Diagonal

Matriks diagonal adalah adalah matriks bujursangkar yang semua elemen di luar diagonal utamanya nol

(5)

10 5. Matriks Skalar

Matriks skalar adalah matriks diagonal yang semua elemennya sama tetapi bukan nol atau satu.

6. Matriks Definit Positif

Matriks A dikatakan definit positif bila matriks A merupakan matriks yang simetrik dan aij >0 ∀ 1≤in

2.5 Operasi Matriks

1. Penjumlahan dan Pengurangan Definisi 2.6 Harville (2008 : 3)

Penjumlahan dua matriks A dan B didefinisikan sebagai jumlahan elemen seletak pada matriks A dan B. Misalkan

A

=

[ ]

A

ij mempresentasikan matriks A dengan ukuran m x n dan

B

=

[ ]

B

ij mempresentasikan matriks B dengan ukuran m x n , maka :

[

A

ij

B

ij

]

B

A

+

=

+

Definisi 2.7 Harville (2008 : 3)

Pengurangan dua matriks A dan B didefinisikan sebagai pengurangan elemen seletak pada matriks A dan B. Misalkan

A

=

[ ]

A

ij mempresentasikan matriks A dengan ukuran m x n dan

B

=

[ ]

B

ij mempresentasikan matriks B dengan ukuran m x n , maka :

[

A

ij

B

ij

] [

A

ij

B

ij

]

B

A

B

A

=

+

(

)

=

+

(

)

=

(6)

11

Penjumlahan dan pengurangan sembarang dua buah matriks A dan B dapat terjadi jika kedua matriks itu mempunyai ordo (ukuran) yang sama. Jumlah matriks A+B adalah matriks yang diperoleh dengan menjumlahkan elemen-elemen dalam matriks A dengan elemen-elemen yang seletak dalam matriks B. Sedangkan pengurangan matriks A-B adalah matriks yang diperoleh dengan mengurangi elemen-elemen dalam matriks A dengan elemen yang seletak dalam matriks B

2. Perkalian Matriks

Pada operasi perkalian matriks, jumlah kolom dari faktor pertama A harus sama dengan julah baris dari faktor kedua B agar dapat dibentuk hasil kali AB

n m n r r m

B

AB

A

×

×

×

=

×

Definisi 2.8 Harville (2008 : 2) tentang perkalian matriks dengan skalar

Pada konteks matriks dan vektor, suatu bilangan real k disebut sebagai skalar. Misalkan A =

[ ]

Aij mempresentasikan matriks A dengan ukuran m x n.

perkalian matriks A dan suatu skalar k didefinisikan sebagai :

[ ] [ ]

Aij kAij

k

kA= =

Definisi 2.9 Harville (2008 : 3) tentang perkalian matriks dengan matriks Perkalian matriks A dan B dapat dilakukan bila banyak kolom pada matriks A sama dengan banyak baris ada matriks B. Misalkan A=

[ ]

Aij berukuran m x

p dan B =

[ ]

Bij berukuran p x n maka C=AB berukuran m x n .

3. Transpose Matriks

Dinamakan transpose matriks A

( )

A′ jika baris-baris pada A ditukar menjadi kolom-kolom pada A′dan sebaliknya.

(7)

12

Definisi 2.10 Rencer and Schaalje (2008 : 7) Transpose dari matriks

[ ]

Aij

A= berukuran m x n didefinisikan sebagai

[ ] [ ]

Aij Aji

A′= ′ = yang berukuruan n x m Beberapa sifat transpose :

1)

( )

A′ ′ = A

2)

(

k1A±k2B

)

′ =k1A′±k2B

3)

( )

kA ′ =kA′, dengan k adalah skalar sebarang 4)

( )

AB ′ =BA

Bukti :

1) Misalkan A=

[ ]

Aij berukuran m x p dan berdasarkan definisi 2.10 maka

[ ]

A

[ ] [ ]

A A A A ij = ji ′ = ij = ′       ′ = ′ ′) (

2) Misalkan A=

[ ]

Aij berukuran m x p, B =

[ ]

Bij berukuran m x p . k1 dan k2

adalah skalar, berdasarkan Definisi 2.6 dan Definisi 2.10 diperoleh

(

)

[

] [

] [

]

[

k A k B

]

k A k B B k A k B k A k B k A k ji ji ij ij ij ij ′ ± ′ = ± = ′ ± ′ = ′ ± = ′ ± 2 1 2 1 2 1 2 1 2 1

3) Misalkan A=

[ ]

Aij berukuran m x p , B =

[ ]

Bij berukuran m x p . k adalah skalar. Berdasarkan Definisi 2.8 dan Definisi 2.10 diperoleh

( )

kA ′ =

[ ] [ ] [ ]

kAij ′ = kAji =k Aji =kA

4) Misalkan A=

[ ]

Aij berukuran m x p , B =

[ ]

Bij berukuran m x p . berdasarkan sifat Definisi 2.9 dan Definisi 2.10 diperoleh

(8)

13

( )

AB A B B A BA p k ki jk p k kj ik = ′ ′      = ′       = ′

= =1 1 4. Inverse Matriks

Jika A adalah matriks bujur sangkar, dan jika terdapat suatu matriks B yang ukurannya sama seddmikian sehigga AB = BA = I, maka A disebut invertible (dapat dibalik) dan B disebut sebagai invers dari A. Jika matriks B tidak dapat didefinisikan, maka A dinyatakan sebagai matriks singular.

5. Trace Matriks

Bila A suatu matriks bujur sangkar, maka jumlah unsur diagonal matriks A adalah trace dengan tr(A), sehingga

= = + + + = n i ii nn a a a a A tr 1 22 11 ... ) (

Lambang tr adalah singkatan dari trace dalam bahasa inggris. Jadi tr(In) = n . 2.6 Regresi Linear Sederhana

Analisis Regresi Linear Sederhana merupakan analisis regresi yang melibatkan satu variabel prediktor dan satu variabel respons. Hubungan antara variabel berikut: i i i

x

y

=

β

0

+

β

1

+

ε

(2.8) dengan i

y adalah variabel respons ke-i dengan i = 1.2...n

i

x adalah variabel prediktor ke -i dengan i = 1.2...n 0

β adalah konstan yang merupakan perpotongan dengan sumbu y 1

β adalah koefisien regresi

i

ε adalah error random yang berdistribusi normal independen dengan mean nol dan variansi σ2

(9)

14 2.7 Regresi Nonparametrik

Regresi nonparametrik merupakan metode statistika yang digunakan untuk mengetahui hubungan variabel respons dengan variabel prediktor berpola parametrik seperti linier, kuadratik, kubik dan lainnya yang tidak diketahui bentuk fungsinya sehingga regresi nonparametrik sangat mempertahankan fleksibilitas maksudnya dapat menyesuaikan diri dengan karakteristi data. Oleh karena itu, estimasi kurva regresi dapat dilakukan berdasarkan pendekatan yang tidak terikat pada asumsi bentuk kurva tertentu seperti dalam regresi parametrik. Model regresi nonparametrik secara umum adalah sebagai berikut:

i i

i f x

y = ( )+ε , i= 12,...,n (2.9) yi adalah variabel respons, xi adalah variabel prediktor, f(xi) adalah fungsi regresi

i

ε adalah error random yang berdistribusi normal independen dengan mean nol dan variansi σ2. Pemilihan fungsi ini biasanya dimotivasi oleh sifat kemulusan (smoothers) yang diasumsikan dimiliki oleh fungsi regresi. Data pengamatan kemudian digunakan untuk mengestimasi fungsi dengan teknik smoothing tertentu.

2.8 Regresi Spline

Regresi Spline adalah regresi nonparametrik yang mendekati ke arah pencocokan data dengan tetap memperhitungkan kemulusan kurva. Regresi ini mempunyai keunggulan dalam mengatasi pola data yang menunjukkan naik atau turun yang tajam dengan melibatkan orde dan kemungkinan beberapa titik knot serta kurva yang dihasilkan relatif mulus. Selanjutnya untuk mendapatkan model Spline yang terbaik maka diperlukan estimator Spline yang optimal. Estimator bergantung pada penetuan orde dan titik knot tersebut. Kriteria yang sering

(10)

15

digunakan agar orde dan titik knot optimal yaitu dengan menggunakan Generalized Cross Validation (GCV).

Berikut penjelasan mengenai orde, titik knot dan GCV 1. Orde

Regresi Spline memungkinkan untuk berbagai macam orde sehingga dapat dibentuk regresi berorde 1 (linear) , orde 2 (kuadratik) , orde 3 (kubik ) sampai orde n tergantung dari pola datanya. Orde yang dimaksud dalam regresi Spline ini adalah orde polinomialnya.

2. Titik Knot

Knot sebagai suatu titik fokus dalam fungsi spline, atau sering disebut parameter penghalus dalam Spline. Regresi Spline pada hakekatnya merupakan pemilihan lokasi titik knot. Untuk mendapatkan titik knot maka dapat dilakukan dengan cara plot data terlebih dahulu. Setelah itu penentuan titik knot ditentukan dari letak intervensi pada plot tersebut.

3. Generalized Cross Validation (GCV)

GCV merupakan suatu metode untuk memilih model berdasarkan ada kemampuan prediksi dari model tersebut. Nilai GCV diperoleh berdasarkan faktor titik knot dalam model regresi Spline. Semakin kecil nilai GCV maka galat pada model Spline juga akan kecil.

Menurut (Eubank : 1988) Spline orde q dengan knot ξ12,...,ξk diberikan dalam fungsi y dengan bentuk :

(

2.11

)

n 2,..., 1, = i ) ( ... ) ( ) ( .. 1 1 2 2 2 2 1 0 i q K i K q q i q q i q q i q i i i x x x x x x y ε ξ β ξ β ξ β β β β β + − + + − + − + + + + + = + + + + + +

(11)

16 K i q K i jika x x −ξ )+ , ≥ξ ( dengan (xi

ξ

K)q+ = K i x jika <ξ , 0

β adalah parameter model, β0 adalah intersep,

β

q+Kadalah slope pada

peubah x dan knot ke-K pada Spline berorde q, x adalah variabel respons,

K

ξ adalah knot ke-K

2.9 Estimasi Kuadrat Terkecil.

Terdapat beberapa metode untuk mengestimasi parameter dalam model regresi, salah satunya adalah metode kuadrat terkecil atau Ordinary Least Square. Adapun kelebihan dari metode kuadrat terkecil adalah tidak memerlukan asumsi distribusi sedangkan kekurangan metode ini yaitu sangat sensitif untuk adanya data outlier. Estimasi parameter diperoleh dengan cara meminimalkan jumlah kuadrat error. Akan dicari estimasi koefisien regresi untuk model umum regresi :

ε β β β β + + + + + = x x kxk Y 0 1 1 2 2 ... Untuk i=1,2,...,n dimiliki model :

i ki k i i i x x x Y01 12 2 +...+β +ε (2.12) dengan E

( )

εi =0; E

( )

εi2 =σ2 ; E

(

εiεs

)

=0; is

Model di atas dapat dibentuk ke dalam matriks ε Y = + (2.13) dengan             = n Y Y Y Y  2 1             = nk n n k k X X X X X X X X X X         2 1 2 22 21 1 12 11 1 1 1

(12)

17             = k β β β β  1 0             = n ε ε ε ε  2 1

Sehingga dapat juga ditulis sebagai berikut:

            +                         =             n k nk n n k k n X X X X X X X X X Y Y Y ε ε ε β β β            2 1 1 0 2 1 2 22 21 1 12 11 2 1 1 1 1

dari persamaan (2.13) diperoleh Xβ Y ε = −

= = n i i S 1 2

ε

Prinsip estimasi kuadrat terkecil adalah meminimumkan jumlah kuadrat galat, sehingga

(

) (

)

(

Y'Xβ

) ( ) ( )

' Xβ' Xβ Xβ Y' Y Y' Xβ Y ' Xβ Y ε ε' + − − = − − =

Matriks Y'=

(

Y'Xβ

)

' karena berukuran 1x1, maka

(

)

Xβ X' β' Y X' β' Y Y' β ' Xβ Y' Y Y' ε ε' + − = + − = 2 ' 2

Estimasi dari parameter diperoleh dengan menyamadengankan nol hasil dari derivatif atau turunan pertama dari jumlah kuadrat errornya, yaitu :

( )

(

)

(

)

(

)

(

)

β Xβ X β β Y X β β Y Y β Xβ X β Y X β 2 Y Y βε ε ∂ ′ ′ ∂ + ∂ ′ ′ ∂ − ∂ ′ ∂ = ∂ ′ ′ + ′ ′ − ′ ∂ = ∂ ′ ∂ 2

(13)

18

( )

Xβ X 2 Y X 2 β ε ε = + ∂ ′ ∂

Hasil ini harus memenuhi

( )

0 = ∂ ′ ∂ βε ε (2.14)

Penjabaran dari persamaan (2.14) sebagai berikut :

( )

0 = ∂ ′ ∂ β ε ε Y X X 0 Xβ X Y X ′ = ′ = ′ + ′ −2 2

(

)

(

)

(

XX

)

Y β I Y X X X β X X X X 1 1 1 − − − ′ = ′ ′ = ′ ′ ˆ ˆ βˆOLS =

(

XX

)

1Y (2.15) Untuk menunjukkan bahwa

ε

ε

minimum, maka hasil derivatif pertama dari jumlah kuadrat error harus diturunkan sekali lagi sehingga menghasilkan derivatif atau turunan kedua, dan nilainya harus lebih besar dari nol.

( )

(

)

(

)

X X X 2 X β β Xβ X β X β Y β β ε ε ′ = ′ + ′ − ∂ ∂ =       ∂ ′ ′ + ′ ′ − ′ ∂ ∂ ∂ = ∂ ′ ∂ 2 2 2 2 2 Y Y Y

Jaminan bahwa nilai dari εεminimum adalah bahwa turunan ke dua dari εε terhadap β harus bernilai positif. Sehingga nilai εεakan minimum apabila nilai

X X

2 lebih besar dari nol. Karena matriks XXadalah definit positif dengan semua unsur diagonalnya berbentuk kuadrat, maka turunan kedua dari εε terhadap β bernilai positif yang berarti βˆOLS =

(

XX

)

1Y minimum .

(14)

19 2.10 Outlier

Outlier adalah data yang terletak jauh dari data yang lainnya dalam suatu data. Menurut Barnett (1981) mendefinisikan outlier sebagai pengamatan yang tidak mengikuti sebagian besar pola dan terletak jauh dari pusat data (dikutip dari Soemartini 2007). Keberadaan dari pencilan akan mengganggu dalam proses menganilisa data. Dalam kaitannya dengan analisis regresi. Outlier dapat menyebabkan hal-hal berikut :

- Resuidual yang besar dari model yang terbentuk - Variansi dari data akan menjadi lebih besar

- Estimasi interval akan memiliki rentang yang lebih besar

Menurut Soemartini (2007) terdapat 3 tipe outlier pada analisis regresi. yaitu sebagai berikut :

1. Vertical Outlier

Merupakan pengamatan terpencil pada variabel dependen Y tetapi tidak terpencil pada variabel independen X. Vertical outlier berpengaruh terhadap estimasi kuadrat terkecil.

2. Good leverage point

Merupakan pengamatan yang terpencil pada variabel X tetapi terletak dekat dengan garis regresi yang berarti bahwa pengamatan xi menjauh tetapi yi cocok dengan garis regresi. Good leverage point tidak berpengaruh terhadap estimasi kuadrat terkecil, tetapi berpengaruh terhadap inferensi statistik karena dapat menimbulkan standard error

(15)

20 3. Bad leverage point

Merupakan pengamatan yang terpencil pada variabel X dan juga terletak jauh dari garis regresi. Bad leverage lebih berbahaya dibandingkan vertikal outlier, karena memiliki pengaruh yang sangat besar pada regresi linear klasik.

Pada statistik, data outlier harus dilihat terhadap posisi sebaran data lainnya. Metode untuk menetukan batasan dari outlier dalam sebuah analisis antara lain

a. Metode Grafis atau Scatter Plot

Metode ini dilakukan dengan cara memplot data menggunakan beberapa software statistika. Jika terdapat satu atau beberapa data yang jauh dari pola kumpulan data keseluruhan maka hal ini mengindikasikan adanya outlier. Pencilan akan nampak memisahkan diri dari kumpulan sebagian besar data sehingga kelemahan metode ini adalah keputusan bahwa suatu data merupakan outlier sangat bergantung pada peneliti sendiri. Karena hanya mengandalkan visualisasi grafis. Untuk itu dibutuhkan seseorang yang berpengalaman dalam menginterprestasikan plot tersebut.

b. Box Plot

Metode ini merupakan yang paling umum yakni dengan menggunakan nilai kuartil dan jangkauan. Kuartil 1,2, dan 3 membagi sebuah urutan data menjadi empat bagian. Jangkauan didefinisikan sebagai selisih kuartil 1 terhadap kuartil 3 atau R (Interquatil Range) = Q3-Q1. Data-data outlier

(16)

21

nilai yang lebih dari 1.5 x R terhadap kuartil 3. Rumus kuartil sendriri adalah sebagai berikut :

4 2 ) * ( 1 + = i n Q dengan

i = kuartil. 1 untuk kuartil bawah. 2 untuk median. 3 untuk kuartil atas n = jumlah data

Sedangkan ukuran 1 langkah didefinisikan sebagai 1.5 kali dari selisih kuartil atas dan kuartil bawah.

Dibawah ini skema identifikasi outlier menggunakan boxplot

c. Standardized residual Residual ke-i didefinisikan :

eˆ= yˆiyi (2.15) Standardized residual ke-i :

ˆ

,

MSE

e

e

i is

=

(2.16) k n e MSE n i − =

=1 2 1 ˆ (2.17)

(17)

22

MSE adalah rata-rata residual kuadrat. MSE disebut standard error. Standard error merupakan ukuran kebaikan model regresi yang biasa digunakan untuk membandingkan model regresi satu dengan yang lain. Standard error mengukur besarnya variasi model regresi. Semakin kecil nilainya semakin baik model regresi.

d. Cook’s Distance

Metode ini diperkenalkan oleh Cook dengan rumus sebagai berikut :





=

kMSE

e

h

h

D

i ii ii i 2 2

)

1

(

(2.18)

dengan hii adalah elemen-elemen diagonal dari matrik H dan k adalah banyaknya variabel respons seperti terlihat pada rumus berikut :

HY

Y

X

X

X

X

Y

X

X

X

X

X

Y

=

=

=

=

− −

'

)

'

(

]

'

)

'

[(

ˆ

ˆ

1 1

β

dengan

'

)

'

(

X

X

1

X

X

H

=

− (2.19)

Sehingga dapat dikatakan outlier apabila nilai cooks distance lebih dari 4/n dengan n adalah jumlah observasi.

2.11 Teknik Smoothing

Teknik smoothing adalah teknik pemulusan yang biasa digunakan untuk menghaluskan suatu data dalam analisis runtun waktu. Untuk melakukan smoothing terhadap suatu data, nilai masa lalu digunakan untuk mendapatkan nilai

(18)

23

yang dihaluskan untuk time series. Tujuan dari smoothing adalah untuk membuang variabelitas dari data yang tidak memilik efek sehingga ciri-ciri dari data akan tampak jelas. Smoothing dari data pengamatan

{

(

X

i

,

Y

i

)

}

ni=1 adalah pendekatan dari rata-rata respons m pada regresi

n

i

X

m

Y

i

=

(

i

)

+

ε

i

,

=

1

,

2

,...,

Jika fungsi regresi m(.) diyakini smooth maka observasi pada titik-titik dekat X akan memuat informasi tentang nilai m(.) pada X, sehingga dengan menggunakan rata-rata lokal ini dapat dipandang sebagai dasar pemikiran dari teknik-teknik smoothing. Secara formal prosedur ini didefinisikan sebagai :

( )

=

n=

( )

i

W

ni

x

y

i

n

x

m

ˆ

1 1

dengan

{

Wni

( )

x,i=1,2,..,n

}

adalah barisan pembobot dan

m

ˆ

(

x

)

menyatakan estimator dari m(x). Jika

{

Wni

( )

x ,i=1,2,..,n

}

positif dan untuk semua x,berlaku

( )

1

1 1

=

= − n i

W

ni

x

y

i

n

maka

m

ˆ

(

x

)

adalah estimasi kuadrat terkecil pada titik x. Hal ini dikarenakan

)

(

ˆ

x

m

adalah solusi minimum dari

in=

W

ni

( )(

x

y

i

)

n

1 2

1

θ

terhadap

θ

yakni θ min

( )(

)

( )

(

( )

)

= =

=

n i i ni n i i ni

W

x

y

m

x

n

y

x

W

n

1 2 1 2

ˆ

1

1

θ

2.12 Autokorelasi

Autokorelasi terjadi akibat adanya hubungan beruntun dari galat model. Maksud dari hubungan beruntun adalah hubungan yang terjadi antara residual pada satu pengamatan dengan pengamatan lain pada variabel yang sama.

(19)

24

Hubungan beruntun tersebut mengakibatkan galat tidak independen atau saling bebas. Hal tersebut dapat melanggar asumsi galat model. Oleh karena itu untuk menguji apakah dalam suatu model regresi terdapat korelasi antara kesalahan pada periode t dengan kesalahan pada periode t-1 (sebelumnya) menggunakan uji autokorelasi.

Definisi 2.11 (Hanke and Winchen, 2005 :60)

Autokorelasi adalah korelasi antara variabel lag pertama atau lag periode selanjutnya dengan dirinya sendiri. Nilai dari korelasi atau disebut dengan koefisien korelasi

( )

γk adalah autokorelasi antara data asli (Yt) dengan (Yt-k) yang didefinisikan oleh Hanke and Winchen (2005:61)

(

)(

)

(

)

, 0,1,2,.. 1 2 1 = − − − =

= + = − k Y Y Y Y Y Y n t t n k t t t k k γ (2.20) dengan k

γ = koefisien autokorelasi untuk lag ke k Y = nilai rata-rata variabel Y

t

Y = data asli

k t

Y = data untuk lag ke k 2.13 Kriteria Kelayakan Model

Kelayakan model regresi berkaitan dengan seberapa dekat jarak antara data hasil prediksi dengan data yang sebenarnya. Ada beberapa kriteria berbeda yang digunakan untuk membandingkan kelayakan model antara model regresi Theil dengan regresi Spline. Kriteria tersebut adalah Mean Absolut Deviation (MAD), Mean Square Error (MSE), dan Mean Absolute Precentage Error (MAPE).

(20)

25 1. MAD (Mean Absolute Deviation)

Mengukur ketepatan atau kelayakan dengan merata-rata kesalahan dugaan. MAD paling berguna ketika orang yang menganalisa ingin mengukur kesalahan ramalan dalam unit yang sama sebagai deret asli. MAD merupakan nilai total absolut dari forecast error dibagi dengan data. Atau yang lebih mudah adalah nilai kumulatif absolut error dibagi dengan jumlah observasi. Berikut ini rumus untuk menghitung MAD:

n | e | MAD n i t

= = 1

2. MSE (Mean Squared Error)

Mean squared error biasa disebut juga galat peramalan. Masing-masing kesalahan atau sisa dikuadratkan. Kemudian dijumlahkan dan dibagi dengan jumlah observasi. Pendekatan ini mengatur kesalahan peramalan yangbesar karena kesalahan-kesalahan itu dikuadratkan. Suatu teknik yang menghasilkan kesalahan mungkin lebih baik untuk salah satu yang memiliki kesalahan kecil tapi kadang-kadang menghasilkan sesuatu yang sangat besar. Berikut ini rumus untuk menghitung MSE:

n e MSE n i

= = 1 2

3. MAPE (Mean Absolute Percentage Error)

MAPE adalah Nilai Tengah Galat Presentase Absolut. Rata-rata persentase kesalahan kuadrat merupakan pengukuran ketelitian dengan cara persentase kesalahan absolute. MAPE dihitung dengan menemukan kesalahan absolut

(21)

26

setiap periode, kemudian membaginya dengan nilai observasi pada periode tersebut dan kemudian mencari rata-rata presentase absolut. Berikut ini rumus menghitung MAPE : n | PE | MAPE n i

= = 1 dengan (100)       − = i i i i X F X PE

2.14 Indeks Harga Saham Gabungan

Indeks harga adalah suatu angka yang digunakan untuk melihat perubahan mengenai harga dalam waktu dan tempat yang sama ataupun berlainan. Indeks harga saham merupakan indikator utama yang menggambarkan pergerakan harga saham. Indeks Harga Saham Gabungan (IHSG) merupakan indeks yang menunjukkan pergerakan harga saham secara umum yang tercatat di bursa efek Indonesia dan menjadi acuan tentang perkembangan saham di pasar modal sebab pergerakan IHSG akan mempengaruhi sikap para investor apakah akan membeli, menahan atau menjual sahamnya. Bursa efek Indonesia berwenang mengeluarkan dan tidak memasukkan satu atau beberapa perusahaan yang tercatat dari perhitungan IHSG, agar IHSG dapat menggambarkan keadaan pasar yang wajar. Ada beberapa faktor yang mempengaruhi perubahan harga saham seperti jumlah uang beredar, produk domestik bruto (PDB), suku bunga, nilai tukar mata uang, tingkat inflasi, dan lain-lain.

2.15. Inflasi

Inflasi merupakan keadaan meningkatnya harga-harga secara umum dan terus-menerus. Hal ini akan menurunkan minat investor untuk berinvestasi pada suatu perusahaan. Jika minat investor untuk berinvestasi pada perusahaan

(22)

27

turun, maka terjadi penurunan terhadap harga-harga saham perusahaan. Hal ini dapat menyebabkan IHSG menurun. Boediono (1996:162 ) mendefinisikan inflasi merupakan kecenderungan dari harga-harga untuk naik secara umum dan terus menerus dan terdapat dua jenis inflasi yang dijabarkan Bediono diantaranya :

1) Demand Inflation

Demand Inflation yaitu inflasi yang timbul karena permintaan masyarakat terhadap komoditi-komoditi hasil produksi di pasar barang. Jenis Inflasi ini sering disebut dengan inflasi murni.

2) Cost-Push Inflation

Cost-push inflation yaitu inflasi yang timbul karena kenaikan biaya produksi. Inflasi ini ditandai dengan kenaikan harga serta turunnya jumlah produksi. Keadaan ini timbul dimuali dengan adanya penurunan dalam penawaran biaya produksi. Kenaikan produksi terbsebut akan menaikkan harga dan menurunkan jumlah produksi.

Referensi

Dokumen terkait

Menurut Neff dan Knox (2017) self- compassion berdampak pada kesejahteraan individu karena memberikan perasaan positif dalam menerima masalah yang ada pada diri,

Data-data hasil dari penilaian alumni terhadap dirinya sendiri tersebut akan disegmentasi menggunakan metode pengelompokan data ( clustering ) sehingga hasil

Data hasil perhitungan rata-rata Indeks Keanekaragaman (H’), Indeks Keseragaman (E) dan Indeks Dominansi (D) plankton di Perairan Kawasan Mangrove Desa Labuhan

Suatu negara/wilayah dapat dikategorikan sebagai Tax Haven Country, menurut Organisation for Economic Cooperation Development (OECD) adalah pertama, pajaknya sangat

Menurut Rihanna et al (2013) bahwa pupuk kandang kambing dapat menyediakan unsur makro (N,P,K) dan mikro (Ca, Mg, S, Na, Fe, Cu, Mo) selain itu pupuk kandang dibantu

Mengacu kepada pertanyaan penelitian tersebut, maka penelitian ini didasarkan pada tujuan umum untuk mengetahui korelasi antara manajemen stres dan kompetensi secara

Pasal 10 : Perjalanan Dinas Pasal 10 : Perjalanan Dinas Ayat (4) dalam Kode Etik Lama tidak lagi ada dalam Kode Etik Baru terkait Perjalanan Dinas yang dibiayai oleh pengundang

2) ikhtisar penerimaan hasil investasi disertai nncian dan penjelasan yang menggambarkan jumlah penerimaan hasil investasi dari setiap jenis investasi pada periode