• Tidak ada hasil yang ditemukan

REGRESI NONPARAMETRIK SPLINE KUADRATIK DAN THEIL DALAM MEMODELKAN HUBUNGAN IHSG TERHADAP INFLASI DI INDONESIA.

N/A
N/A
Protected

Academic year: 2017

Membagikan "REGRESI NONPARAMETRIK SPLINE KUADRATIK DAN THEIL DALAM MEMODELKAN HUBUNGAN IHSG TERHADAP INFLASI DI INDONESIA."

Copied!
29
0
0

Teks penuh

(1)

1 BAB I PENDAHULUAN

1.1 Latar Belakang Masalah

Analisis regresi merupakan suatu metode yang digunakan untuk menganalisis hubungan antara dua atau lebih variabel. Pada analisis regresi terdapat dua jenis variabel yaitu variabel prediktor dan variabel respons. Andaikan terdapat n pengamatan pasangan dengan Xi adalah variabel

prediktor dan Yi adalah variabel respons, maka hubungan linear antara

variabel prediktor dan variabel respons ditulis sebagai berikut :

n i

X m

Yi = ( i)+εi , =1,2,...,

i

ε adalah error random yang diasumsikan independen, m(Xi) adalah fungsi

regresi yang tidak diketahui dan akan diestimasi. Menurut Hardle (1990:4) untuk mengestimasi m(Xi) ada dua pendekatan yang dapat digunakan dalam menentukan kurva regresi yaitu pendekatan regresi parametrik dan pendekatan regresi nonparametrik.

(2)

2

bentuk fungsi m(Xi). Menurut Eubank (1999 : 9) model regresi nonparametrik mempunyai kelebihan yaitu fleksibilitas yang besar untuk menyesuaikan dengan data aslinya daripada model regresi parametrik. Terdapat beberapa teknik estimasi dalam regresi nonparametrik yaitu pendekatan histogram, estimator Spline, estimator kernel, estimator orthogonal, analisis wavelet dan lain-lain.

Regresi Spline salah satu analisis nonparametrik dengan metode smoothing. Tujuan dari smoothing adalah untuk membuang variabelitas dari

data yang tidak memilik efek sehingga ciri-ciri dari data akan tampak jelas. Regresi Spline sering digunakan karena regresi ini tidak terikat dengan asumsi bentuk kurva tertentu. Pada pendekatan Spline dilakukan pada segmentasi x untuk membangun fungsi Y dengan membagi pengamatan X i berdasarkan titik-titik X yang disebut knot. Regresi Spline merupakan suatu arah pendekatan ke arah kemulusan kurva yang merupakan model polinomial yang tersegmen, artinya yang memberikan fleksibilitas yang lebih baik dari model polinomial biasa. Regresi Theil merupakan salah satu regresi nonparametrik untuk menaksir koefisien slope garis regeresi dengan cara mencari median slope seluruh pasangan garis dari titik-titik variabel X dan Y, dengan nilai Xi berbeda .

(3)

3

efek indonesia. Indeks adalah ukuran statistik yang digunakan untuk menyatakan perubahan-perubahan dan perbandingan nilai suatu variabel. IHSG merupakan indeks yang menunjukkan pergerakan harga saham secara umum yang tercatat di bursa efek Indonesia dan menjadi acuan tentang perkembangan saham di pasar modal sebab pergerakan IHSG akan mempengaruhi sikap para investor apakah akan membeli, menahan atau menjual sahamnya.

Ada beberapa faktor yang mempengaruhi perubahan harga saham seperti jumlah uang beredar, produk domestik bruto (PDB), suku bunga, nilai tukar mata uang, tingkat inflasi, dan lain-lain. Inflasi merupakan keadaan meningkatnya harga-harga secara umum dan terus-menerus. Hal ini akan menurunkan minat investor untuk berinvestasi pada suatu perusahaan. Jika minat investor untuk berinvestasi pada perusahaan turun, maka terjadi penurunan terhadap harga-harga saham perusahaan. Hal ini dapat menyebabkan IHSG menurun. Data inflasi dan IHSG bulanan merupakan data yang diamati secara berkala menurut urutan waktu, sehingga merupakan data runtun waktu. Penelitian ini untuk menganalisis hubungan antara IHSG dengan Inflasi di Indonesia pada tahun 2010-2015.

1.2 Batasan Masalah

(4)

4

regresi nonparametrik Spline kuadratik dan Theil dalam memodelkan hubungan antara IHSG terhadap Inflasi.

1.3 Rumusan Masalah

Berdasarkan latar belakang di atas, maka dapat dirumuskan masalah sebagai berikut :

1. Bagaimana analisis regresi nonparametrik Spline kuadratik? 2. Bagaimana analisis regresi nonparametrik Theil ?

3. Bagaimanakah hubungan antara IHSG terhadap Inflasi menggunakan regresi Spline kuadratik dan Theil?

1.4 Tujuan Penelitian

1. Menjelaskan analisis regresi nonparametrik Spline kuadratik 2. Menjelaskan analisis regresi nonparametrik Theil.

3. Menentukan hubungan antara IHSG terhadap inflasi dengan menggunakan regresi Spline kuadratik dan Theil.

1.5 Manfaat Penelitian

Penulisan skripsi ini diharapkan dapat memberikan manfaat diantaranya: 1. Bagi mahasiswa mampu mengaplikasikan ilmu statistika untuk analisis

regresi Spline kuadratik dan Theil.

(5)

5

(6)

6 BAB II

LANDASAN TEORI

Pada bab ini akan menjelaskan mengenai beberapa landasan teori untuk menerapkan regresi nonparametrik yaitu regresi nonparametrik Spline kuadratik dan Theil.

2.1 Derivatif

Definisi 2.1 Spiegel (1986 :58 )

Misalkan y= f(x)adalah fungsi dan c berada pada domain f. Derivatif fungsi f

pada c dinyatakan dengan f' c( ), maka

x c f x c f c

f x

∆ − ∆ + = ∆→

) ( ) (

lim ) (

' 0 (2.1)

Jika nilai limitnya ada.

Teorema 2.2 (Aturan Rantai)

Fungsi f dan g fungsi-fungsi yang mempunyai derivatif, maka fungsi komposisi

g

f juga mempunyai derivatif.

Jika y= f(u) dan u=g(x), maka derivatif y=(fg)(x)= f(g(x))

dx du du dy dx dy

= (2.2)

Bukti :

x u u y x y

∆ ∆ ∆ ∆ = ∆

.

(7)

7 0 . 0 ) lim )( lim ( . lim lim 0 0 0 0 = = ∆ ∆ ∆ = ∆ ∆ ∆ = ∆ → ∆ → ∆ → ∆ → ∆ dx du x u x x u x u x x x x Jadi, ) lim )( lim ( lim 0 0 0 x u u y x y x x x ∆ ∆ ∆∆ = ∆ ∆ → ∆ → ∆ → ∆ Sehingga dx du du dy dx dy ⋅ =

2.2 Integral Tak Wajar

Definisi 2.3 Baisuni.(1986 : 228)

Integral tak wajar adalah suatu integral yang salah satu atau kedua harga limit

batas integralnya adalah tak berhingga untuk suatu harga x dalam interval [a,b]

sehingga,

− →−∞ = b a b

a f x dx

dx x

f( ) lim ( ) (2.3)

∞ ∞ →

=

b a a b

dx

x

f

dx

x

f

(

)

lim

(

)

(2.4)

Apabila limit di ruas kanan ada dan tak berhingga, maka dikatakan integral tak

(8)

8

tidak, integral tersebut disebut divergen. Jika

∞ −

0

)

(

x

dx

f

dan

0

)

(

x

dx

f

konvergen maka dikatakan

∞ −

dx

x

f

(

)

konvergen dengan nilai :

∞ ∞ ∞ −

+

=

0 0

)

(

)

(

)

(

x

dx

f

x

dx

f

x

dx

f

(2.5)

2.3 Ekspektasi dan Variansi

Variansi berperan penting dalam analisis regresi spline kuadratik. Oleh karena itu, akan dibahas dasar teori tentang variansi.

Definisi 2.4 Bain (1992 : 67)

Jika X adalah variabel random kontinu dengan fungsi densitas probabilitas f(x) ,

maka nilai ekspektasi dari X didefinisikan sebagai berikut :

−∞∞

=

xf

x

dx

X

E

(

)

(

)

(2.6)

Jika nilai integral ini ada maka dikatakan konvergen absolut, jika tidak maka

dikatakan nilai E(X) tidak ada. Jika X variabel random dengan fungsi densitas

probabilitas f(x) , a dan b suatu konstanta, g(x) dan h(x) fungsi real dengan

domain elemen dari X maka :

( )

[

ag

X

bh

X

]

aE

[ ]

g

( )

x

bE

[ ]

h

( )

X

E

(

)

+

=

+

Definisi 2.5 Bain (1992:73)

Variansi dari variabel random didefinisikan sebagai :

( )

[

(

)

]

( )

( )

( )

( )

2

(

( )

)

2
(9)

9

Jika X variabel random, a dan b suatu konstanta, maka :

(

)

[

(

)

]

( )

X Var a

X a E b aX Var

2

2 2

=

− =

+ µ

2.4 Jenis Matriks

1. Matriks Bujur Sangkar

Matriks bujur sangkar adalah matriks yang banyak baris dan banyak kolomnya sama. Pada matriks bujur sangkar, elemen-elemen

a

11

,

a

22

,...,

a

nndisebut

sebagai elemen diagonal. Contoh :

   

 

   

  =

nn n

n

n n

a a

a

a a

a

a a

a

A

    

 

2 1

2 22

21

1 12

11

(2.7)

dengan banyaknya baris = banyaknya kolom = n 2. Matriks Identitas

Matriks identitas adalah matriks bujur sangkar yang elemen-elemen pada diagonal utama bernilai satu dan elemen luar diagonalnya bernilai 0.

3. Matriks Simetrik

Matriks simetrik adalah matriks bujursangkar yang elemennya simetris secara diagonal, dapat juga dikatakan bahwa matriks simetris adalah matriks yang transposenya sama dengan dirinya sendiri.

4. Matriks Diagonal

(10)

10 5. Matriks Skalar

Matriks skalar adalah matriks diagonal yang semua elemennya sama tetapi bukan nol atau satu.

6. Matriks Definit Positif

Matriks A dikatakan definit positif bila matriks A merupakan matriks yang

simetrik dan aij >0 ∀ 1≤in

2.5 Operasi Matriks

1. Penjumlahan dan Pengurangan Definisi 2.6 Harville (2008 : 3)

Penjumlahan dua matriks A dan B didefinisikan sebagai jumlahan elemen seletak pada matriks A dan B. Misalkan

A

=

[ ]

A

ij mempresentasikan matriks

A dengan ukuran m x n dan

B

=

[ ]

B

ij mempresentasikan matriks B dengan ukuran m x n , maka :

[

A

ij

B

ij

]

B

A

+

=

+

Definisi 2.7 Harville (2008 : 3)

Pengurangan dua matriks A dan B didefinisikan sebagai pengurangan elemen seletak pada matriks A dan B. Misalkan

A

=

[ ]

A

ij mempresentasikan matriks

A dengan ukuran m x n dan

B

=

[ ]

B

ij mempresentasikan matriks B dengan ukuran m x n , maka :

[

A

ij

B

ij

] [

A

ij

B

ij

]

B

A

B

(11)

11

Penjumlahan dan pengurangan sembarang dua buah matriks A dan B dapat terjadi jika kedua matriks itu mempunyai ordo (ukuran) yang sama. Jumlah matriks A+B adalah matriks yang diperoleh dengan menjumlahkan elemen-elemen dalam matriks A dengan elemen-elemen yang seletak dalam matriks B. Sedangkan pengurangan matriks A-B adalah matriks yang diperoleh dengan mengurangi elemen-elemen dalam matriks A dengan elemen yang seletak dalam matriks B

2. Perkalian Matriks

Pada operasi perkalian matriks, jumlah kolom dari faktor pertama A harus sama dengan julah baris dari faktor kedua B agar dapat dibentuk hasil kali AB

n m n

r r

m

B

AB

A

×

×

×

=

×

Definisi 2.8 Harville (2008 : 2) tentang perkalian matriks dengan skalar

Pada konteks matriks dan vektor, suatu bilangan real k disebut sebagai skalar. Misalkan A =

[ ]

Aij mempresentasikan matriks A dengan ukuran m x n.

perkalian matriks A dan suatu skalar k didefinisikan sebagai :

[ ] [ ]

Aij kAij

k

kA= =

Definisi 2.9 Harville (2008 : 3) tentang perkalian matriks dengan matriks Perkalian matriks A dan B dapat dilakukan bila banyak kolom pada matriks A sama dengan banyak baris ada matriks B. Misalkan A=

[ ]

Aij berukuran m x

p dan B =

[ ]

Bij berukuran p x n maka C=AB berukuran m x n .

3. Transpose Matriks

(12)

12

Definisi 2.10 Rencer and Schaalje (2008 : 7) Transpose dari matriks

[ ]

Aij

A= berukuran m x n didefinisikan sebagai

[ ] [ ]

Aij Aji

A′= ′ = yang berukuruan n x m Beberapa sifat transpose :

1)

( )

A′ ′ = A

2)

(

k1A±k2B

)

′ =k1A′±k2B

3)

( )

kA ′ =kA′, dengan k adalah skalar sebarang

4)

( )

AB ′ =BA′ Bukti :

1) Misalkan A=

[ ]

Aij berukuran m x p dan berdasarkan definisi 2.10 maka

[ ]

A

[ ] [ ]

A A A

A′)′= ij ′′ = ji ′ = ij = (

2) Misalkan A=

[ ]

Aij berukuran m x p, B =

[ ]

Bij berukuran m x p . k1 dan k2

adalah skalar, berdasarkan Definisi 2.6 dan Definisi 2.10 diperoleh

(

)

[

] [

] [

]

[

k A k B

]

k A k B

B k A

k B

k A k B

k A k

ji ji

ij ij

ij ij

′ ± ′ = ±

=

′ ±

′ =

′ ±

= ′ ±

2 1

2 1

2 1

2 1

2 1

3) Misalkan A=

[ ]

Aij berukuran m x p , B =

[ ]

Bij berukuran m x p . k adalah skalar. Berdasarkan Definisi 2.8 dan Definisi 2.10 diperoleh

( )

kA ′ =

[ ] [ ] [ ]

kAij ′ = kAji =k Aji =kA
(13)

13

( )

AB A B B A BA

p

k

ki jk p

k

kj

ik = ′ ′

 

 = ′   

 =

=

=1 1

4. Inverse Matriks

Jika A adalah matriks bujur sangkar, dan jika terdapat suatu matriks B yang ukurannya sama seddmikian sehigga AB = BA = I, maka A disebut invertible (dapat dibalik) dan B disebut sebagai invers dari A. Jika matriks B tidak dapat didefinisikan, maka A dinyatakan sebagai matriks singular.

5. Trace Matriks

Bila A suatu matriks bujur sangkar, maka jumlah unsur diagonal matriks A adalah trace dengan tr(A), sehingga

=

= + + +

= n

i ii

nn a

a a

a A tr

1 22

11 ...

) (

Lambang tr adalah singkatan dari trace dalam bahasa inggris. Jadi tr(In) = n .

2.6 Regresi Linear Sederhana

Analisis Regresi Linear Sederhana merupakan analisis regresi yang melibatkan satu variabel prediktor dan satu variabel respons. Hubungan antara variabel berikut:

i i

i

x

y

=

β

0

+

β

1

+

ε

(2.8)

dengan

i

y adalah variabel respons ke-i dengan i = 1.2...n

i

x adalah variabel prediktor ke -i dengan i = 1.2...n

0

β adalah konstan yang merupakan perpotongan dengan sumbu y 1

β adalah koefisien regresi i

(14)

14 2.7 Regresi Nonparametrik

Regresi nonparametrik merupakan metode statistika yang digunakan untuk mengetahui hubungan variabel respons dengan variabel prediktor berpola parametrik seperti linier, kuadratik, kubik dan lainnya yang tidak diketahui bentuk fungsinya sehingga regresi nonparametrik sangat mempertahankan fleksibilitas maksudnya dapat menyesuaikan diri dengan karakteristi data. Oleh karena itu, estimasi kurva regresi dapat dilakukan berdasarkan pendekatan yang tidak terikat pada asumsi bentuk kurva tertentu seperti dalam regresi parametrik. Model regresi nonparametrik secara umum adalah sebagai berikut:

i i i f x

y = ( )+ε , i= 12,...,n (2.9) yi adalah variabel respons, xi adalah variabel prediktor, f(xi) adalah fungsi regresi

i

ε adalah error random yang berdistribusi normal independen dengan mean nol

dan variansi σ2. Pemilihan fungsi ini biasanya dimotivasi oleh sifat kemulusan (smoothers) yang diasumsikan dimiliki oleh fungsi regresi. Data pengamatan kemudian digunakan untuk mengestimasi fungsi dengan teknik smoothing tertentu.

2.8 Regresi Spline

(15)

15

digunakan agar orde dan titik knot optimal yaitu dengan menggunakan Generalized Cross Validation (GCV).

Berikut penjelasan mengenai orde, titik knot dan GCV 1. Orde

Regresi Spline memungkinkan untuk berbagai macam orde sehingga dapat dibentuk regresi berorde 1 (linear) , orde 2 (kuadratik) , orde 3 (kubik ) sampai orde n tergantung dari pola datanya. Orde yang dimaksud dalam regresi Spline ini adalah orde polinomialnya.

2. Titik Knot

Knot sebagai suatu titik fokus dalam fungsi spline, atau sering disebut parameter penghalus dalam Spline. Regresi Spline pada hakekatnya merupakan pemilihan lokasi titik knot. Untuk mendapatkan titik knot maka dapat dilakukan dengan cara plot data terlebih dahulu. Setelah itu penentuan titik knot ditentukan dari letak intervensi pada plot tersebut.

3. Generalized Cross Validation (GCV)

GCV merupakan suatu metode untuk memilih model berdasarkan ada

kemampuan prediksi dari model tersebut. Nilai GCV diperoleh berdasarkan faktor titik knot dalam model regresi Spline. Semakin kecil nilai GCV maka galat pada model Spline juga akan kecil.

Menurut (Eubank : 1988) Spline orde q dengan knot ξ12,...,ξk diberikan dalam fungsi y dengan bentuk :

( )

2.11 n 2,..., 1, = i ) ( ... ) ( ) (

.. 1 1 2 2

(16)

16

K i q

K

i jika x

x −ξ )+ , ≥ξ (

dengan (xi

ξ

K)q+ =

K i x jika

, 0

β adalah parameter model, β0 adalah intersep,

β

q+Kadalah slope pada

peubah x dan knot ke-K pada Spline berorde q, x adalah variabel respons, K

ξ adalah knot ke-K

2.9 Estimasi Kuadrat Terkecil.

Terdapat beberapa metode untuk mengestimasi parameter dalam model regresi, salah satunya adalah metode kuadrat terkecil atau Ordinary Least Square. Adapun kelebihan dari metode kuadrat terkecil adalah tidak memerlukan asumsi distribusi sedangkan kekurangan metode ini yaitu sangat sensitif untuk adanya data outlier. Estimasi parameter diperoleh dengan cara meminimalkan jumlah kuadrat error. Akan dicari estimasi koefisien regresi untuk model umum regresi :

ε β

β β

β + + + + +

= x x kxk

Y 0 1 1 2 2 ... Untuk i=1,2,...,n dimiliki model :

i ki k i

i

i x x x

Y01 12 2 +...+β +ε (2.12) dengan E

( )

εi =0; E

( )

εi2 =σ2 ; E

( )

εiεs =0; is

Model di atas dapat dibentuk ke dalam matriks

ε

Xβ

Y = + (2.13)

(17)

17             = k β β β β  1 0             = n ε εε ε  2 1

Sehingga dapat juga ditulis sebagai berikut:

            +                         =             n k nk n n k k

n X X X

X X X X X X Y Y Y ε εε β β β            2 1 1 0 2 1 2 22 21 1 12 11 2 1 1 1 1

dari persamaan (2.13) diperoleh

Xβ Y ε = −

= = n i i S 1 2

ε

Prinsip estimasi kuadrat terkecil adalah meminimumkan jumlah kuadrat galat, sehingga

(

) (

)

(

Y'Xβ

) ( ) ( )

' Xβ' Xβ Xβ Y' Y Y' Xβ Y ' Xβ Y ε ε' + − − = − − =

Matriks Y'Xβ=

(

Y'Xβ

)

' karena berukuran 1x1, maka

(

)

Xβ X' β' Y X' β' Y Y' β ' Xβ Y' Y Y' ε ε' + − = + − = 2 ' 2

Estimasi dari parameter diperoleh dengan menyamadengankan nol hasil dari derivatif atau turunan pertama dari jumlah kuadrat errornya, yaitu :

(18)

18

( )

2XY 2XXβ

β ε

ε = + ∂′

Hasil ini harus memenuhi

( )

=0

∂′ ∂

βε

ε (2.14)

Penjabaran dari persamaan (2.14) sebagai berikut :

( )

=0

∂′ ∂ β ε ε Y X Xβ X 0 Xβ X Y X ′ = ′ = ′ + ′

−2 2

( )

( )

( )

XX Y β I Y X X X β X X X X 1 1 1 − − − ′ = ′ ′ = ′ ′ ˆ ˆ

βˆOLS =

( )

XX1Y (2.15)

Untuk menunjukkan bahwa

ε

ε

minimum, maka hasil derivatif pertama dari jumlah kuadrat error harus diturunkan sekali lagi sehingga menghasilkan derivatif atau turunan kedua, dan nilainya harus lebih besar dari nol.

( )

(

)

(

)

X X Xβ X 2 X β β Xβ X β X β Y β β ε ε ′ = ′ + ′ − ∂∂ =     ∂′ + ′ ′ ′ − ′ ∂ ∂∂ = ∂ ′ ∂ 2 2 2 2 2 Y Y Y

Jaminan bahwa nilai dari εεminimum adalah bahwa turunan ke dua dari εε terhadap β harus bernilai positif. Sehingga nilai εεakan minimum apabila nilai

X X

(19)

19 2.10 Outlier

Outlier adalah data yang terletak jauh dari data yang lainnya dalam suatu data. Menurut Barnett (1981) mendefinisikan outlier sebagai pengamatan yang tidak mengikuti sebagian besar pola dan terletak jauh dari pusat data (dikutip dari Soemartini 2007). Keberadaan dari pencilan akan mengganggu dalam proses menganilisa data. Dalam kaitannya dengan analisis regresi. Outlier dapat menyebabkan hal-hal berikut :

- Resuidual yang besar dari model yang terbentuk - Variansi dari data akan menjadi lebih besar

- Estimasi interval akan memiliki rentang yang lebih besar

Menurut Soemartini (2007) terdapat 3 tipe outlier pada analisis regresi. yaitu sebagai berikut :

1. Vertical Outlier

Merupakan pengamatan terpencil pada variabel dependen Y tetapi tidak terpencil pada variabel independen X. Vertical outlier berpengaruh terhadap estimasi kuadrat terkecil.

2. Good leverage point

Merupakan pengamatan yang terpencil pada variabel X tetapi terletak dekat dengan garis regresi yang berarti bahwa pengamatan xi menjauh tetapi yi

(20)

20 3. Bad leverage point

Merupakan pengamatan yang terpencil pada variabel X dan juga terletak jauh dari garis regresi. Bad leverage lebih berbahaya dibandingkan vertikal outlier, karena memiliki pengaruh yang sangat besar pada regresi linear klasik.

Pada statistik, data outlier harus dilihat terhadap posisi sebaran data lainnya. Metode untuk menetukan batasan dari outlier dalam sebuah analisis antara lain

a. Metode Grafis atau Scatter Plot

Metode ini dilakukan dengan cara memplot data menggunakan beberapa software statistika. Jika terdapat satu atau beberapa data yang jauh dari

pola kumpulan data keseluruhan maka hal ini mengindikasikan adanya outlier. Pencilan akan nampak memisahkan diri dari kumpulan sebagian

besar data sehingga kelemahan metode ini adalah keputusan bahwa suatu data merupakan outlier sangat bergantung pada peneliti sendiri. Karena hanya mengandalkan visualisasi grafis. Untuk itu dibutuhkan seseorang yang berpengalaman dalam menginterprestasikan plot tersebut.

b. Box Plot

(21)

21

nilai yang lebih dari 1.5 x R terhadap kuartil 3. Rumus kuartil sendriri adalah sebagai berikut :

4 2 ) * ( 1

+ = i n

Q dengan

i = kuartil. 1 untuk kuartil bawah. 2 untuk median. 3 untuk kuartil atas

n = jumlah data

Sedangkan ukuran 1 langkah didefinisikan sebagai 1.5 kali dari selisih kuartil atas dan kuartil bawah.

Dibawah ini skema identifikasi outlier menggunakan boxplot

c. Standardized residual Residual ke-i didefinisikan :

eˆ= yˆiyi (2.15) Standardized residual ke-i :

ˆ

,

MSE

e

e

i

is

=

(2.16)

k n

e MSE

n i

− =

=1

2 1 ˆ

(22)

22

MSE adalah rata-rata residual kuadrat. MSE disebut standard error. Standard error merupakan ukuran kebaikan model regresi yang biasa

digunakan untuk membandingkan model regresi satu dengan yang lain. Standard error mengukur besarnya variasi model regresi. Semakin kecil

nilainya semakin baik model regresi. d. Cook’s Distance

Metode ini diperkenalkan oleh Cook dengan rumus sebagai berikut :









=

kMSE

e

h

h

D

i

ii ii i

2

2

)

1

(

(2.18)

dengan hii adalah elemen-elemen diagonal dari matrik H dan k adalah

banyaknya variabel respons seperti terlihat pada rumus berikut :

HY

Y

X

X

X

X

Y

X

X

X

X

X

Y

=

=

=

=

− −

'

)

'

(

]

'

)

'

[(

ˆ

ˆ

1 1

β

dengan

'

)

'

(

X

X

1

X

X

H

=

− (2.19)

Sehingga dapat dikatakan outlier apabila nilai cooks distance lebih dari 4/n dengan n adalah jumlah observasi.

2.11 Teknik Smoothing

(23)

23

yang dihaluskan untuk time series. Tujuan dari smoothing adalah untuk membuang variabelitas dari data yang tidak memilik efek sehingga ciri-ciri dari data akan tampak jelas. Smoothing dari data pengamatan

{

(

X

i

,

Y

i

)

}

ni=1 adalah pendekatan dari rata-rata respons m pada regresi

n

i

X

m

Y

i

=

(

i

)

+

ε

i

,

=

1

,

2

,...,

Jika fungsi regresi m(.) diyakini smooth maka observasi pada titik-titik dekat X akan memuat informasi tentang nilai m(.) pada X, sehingga dengan menggunakan rata-rata lokal ini dapat dipandang sebagai dasar pemikiran dari teknik-teknik smoothing. Secara formal prosedur ini didefinisikan sebagai :

( )

=

n=

( )

i

W

ni

x

y

i

n

x

m

ˆ

1 1

dengan

{

Wni

( )

x,i=1,2,..,n

}

adalah barisan pembobot dan

m

ˆ x

(

)

menyatakan estimator dari m(x). Jika

{

Wni

( )

x ,i=1,2,..,n

}

positif dan untuk semua x,berlaku

( )

1

1

1

=

=

n

i

W

ni

x

y

i

n

maka

m

ˆ x

(

)

adalah estimasi kuadrat terkecil pada titik x. Hal ini dikarenakan

)

(

ˆ x

m

adalah solusi minimum dari

in=

W

ni

( )(

x

y

i

)

n

1

2

1

θ

terhadap

θ

yakni

θ

min

( )(

)

( )

(

( )

)

=

=

=

n

i

i ni n

i

i

ni

W

x

y

m

x

n

y

x

W

n

1

2

1

2

ˆ

1

1

θ

2.12 Autokorelasi

(24)

24

Hubungan beruntun tersebut mengakibatkan galat tidak independen atau saling bebas. Hal tersebut dapat melanggar asumsi galat model. Oleh karena itu untuk menguji apakah dalam suatu model regresi terdapat korelasi antara kesalahan pada periode t dengan kesalahan pada periode t-1 (sebelumnya) menggunakan uji autokorelasi.

Definisi 2.11 (Hanke and Winchen, 2005 :60)

Autokorelasi adalah korelasi antara variabel lag pertama atau lag periode selanjutnya dengan dirinya sendiri. Nilai dari korelasi atau disebut dengan koefisien korelasi

( )

γk adalah autokorelasi antara data asli (Yt) dengan (Yt-k) yang

didefinisikan oleh Hanke and Winchen (2005:61)

(

)(

)

(

)

, 0,1,2,..

1

2

1 =

− − −

=

= +

= − k

Y Y

Y Y Y Y

n t t n

k

t t t k

k

γ (2.20)

dengan

k

γ = koefisien autokorelasi untuk lag ke k Y = nilai rata-rata variabel Y

t

Y = data asli k

t

Y = data untuk lag ke k 2.13 Kriteria Kelayakan Model

(25)

25 1. MAD (Mean Absolute Deviation)

Mengukur ketepatan atau kelayakan dengan merata-rata kesalahan dugaan. MAD paling berguna ketika orang yang menganalisa ingin mengukur kesalahan

ramalan dalam unit yang sama sebagai deret asli. MAD merupakan nilai total absolut dari forecast error dibagi dengan data. Atau yang lebih mudah adalah nilai kumulatif absolut error dibagi dengan jumlah observasi. Berikut ini rumus untuk menghitung MAD:

n | e | MAD

n

i t

=

= 1

2. MSE (Mean Squared Error)

Mean squared error biasa disebut juga galat peramalan. Masing-masing

kesalahan atau sisa dikuadratkan. Kemudian dijumlahkan dan dibagi dengan jumlah observasi. Pendekatan ini mengatur kesalahan peramalan yangbesar karena kesalahan-kesalahan itu dikuadratkan. Suatu teknik yang menghasilkan kesalahan mungkin lebih baik untuk salah satu yang memiliki kesalahan kecil tapi kadang-kadang menghasilkan sesuatu yang sangat besar. Berikut ini rumus untuk menghitung MSE:

n e MSE

n

i

=

= 1 2

3. MAPE (Mean Absolute Percentage Error)

MAPE adalah Nilai Tengah Galat Presentase Absolut. Rata-rata persentase

(26)

26

setiap periode, kemudian membaginya dengan nilai observasi pada periode tersebut dan kemudian mencari rata-rata presentase absolut. Berikut ini rumus menghitung MAPE :

n | PE | MAPE

n

i

=

= 1 dengan (100)

  

 −

=

i i i i

X F X PE

2.14 Indeks Harga Saham Gabungan

Indeks harga adalah suatu angka yang digunakan untuk melihat perubahan mengenai harga dalam waktu dan tempat yang sama ataupun berlainan. Indeks harga saham merupakan indikator utama yang menggambarkan pergerakan harga saham. Indeks Harga Saham Gabungan (IHSG) merupakan indeks yang menunjukkan pergerakan harga saham secara umum yang tercatat di bursa efek Indonesia dan menjadi acuan tentang perkembangan saham di pasar modal sebab pergerakan IHSG akan mempengaruhi sikap para investor apakah akan membeli, menahan atau menjual sahamnya. Bursa efek Indonesia berwenang mengeluarkan dan tidak memasukkan satu atau beberapa perusahaan yang tercatat dari perhitungan IHSG, agar IHSG dapat menggambarkan keadaan pasar yang wajar. Ada beberapa faktor yang mempengaruhi perubahan harga saham seperti jumlah uang beredar, produk domestik bruto (PDB), suku bunga, nilai tukar mata uang, tingkat inflasi, dan lain-lain.

2.15. Inflasi

(27)

27

turun, maka terjadi penurunan terhadap harga-harga saham perusahaan. Hal ini dapat menyebabkan IHSG menurun. Boediono (1996:162 ) mendefinisikan inflasi merupakan kecenderungan dari harga-harga untuk naik secara umum dan terus menerus dan terdapat dua jenis inflasi yang dijabarkan Bediono diantaranya :

1) Demand Inflation

Demand Inflation yaitu inflasi yang timbul karena permintaan masyarakat

terhadap komoditi-komoditi hasil produksi di pasar barang. Jenis Inflasi ini sering disebut dengan inflasi murni.

2) Cost-Push Inflation

Cost-push inflation yaitu inflasi yang timbul karena kenaikan biaya

(28)

67

DAFTAR PUSTAKA

Akhtar, Hossain. (2005). The Sources and Dynamics of Inflation in Indonesia. Journal of Applied Econometrics and International Development. Vol. 5. Diakses dari http://www.usc.es/economet/reviews/aeid546.pdf. pada tanggal 17 Februari 2015, Jam 12.52 WIB.

Aydin, Dursun. (2013). Smoothing Parameter Selection for Nonparametric Regression Using Smoothing Spline. Journal Of European Journal Of Pure And Applied Mathematics. Vol 6 No. 2. Diakses dari file:///C:/Users/Ulivia/Downloads/1362-4215-1-PB%20(1).pdf. pada tanggal 17 Februari 2015, Jam 13.28 WIB.

Bain, L.J.Enggelhardt, M. (1992). Introduction to Probability and Mathematical Statistics. 2nd. ed. Belmont California.

Baisuni, M. Hasyim. (1986). Kalkulus. Jakarta: UI-Press. Boediono. (1996). Ekonomi Moneter. Yogyakarta: BPFE.

Budiantara, I Nyoman. (1996). Regresi Spline dan Permasalahannya. Tesis. Yogyakarta: UGM.

Daniel, W. (1989). Statistika Nonparametrik Terapan. Jakarta: Gramedia.

Efendi, Tri. (2013). Pemodelan Persamaan Regresi Spline Kuadratik dengan Menentukan Titik – titik knot yang Optimal. Skripsi. Yogyakarta: UGM. Eubank, R.L . (1999). Spline Smoothing and Parametric Regression. 2nd. ed. New

York: Marcel Dekker.

Hanke, J.E. and Winchern, D.W. (2005). Business Forecasting. 8th. ed. Saddle River : Pearson.

Hardle, W. (1990). Applied Non Paramertrik Regression. New York : Cambridge University Press.

Harville, D.A . (2008). Matrix Algebra from a Statistician’s Perspective. New York : Springer.

(29)

68

Patra, I Gusti Bagus Y. (2014). Regresi Splines dan Metode Theil dalam Memodelkan Hubungan Kurs Rupiah dengan IHSG. Skripsi. Yogyakarta. UGM.

Purnamasari, Yuni K. (2013). Perbandingan Model Regresi Nonparametrik Spline dan Regresi Nonparametrik Kernel. Skripsi. Yogyakarta: UGM.

Purwani, Estri. (2013). Regresi Splines Bentuk – Terbatas Monoton. Skripsi. Yogyakarta: UGM.

Putra, Tri Dharma. dkk. (2013). Pemodelan Regresi Linear Menggunakan Metode Theil. Jurnal Eksponensial. Vol 4 No.1 Jurusan FMIPA Universitas Mulawarman. Diakses dari http://fmipa.unmul.ac.id/pdf/272. pada tanggal 30 Januari 2015, Jam 10.44 WIB.

Sarti, A. (2013). Regresi Linier Nonparametrik dengan Metode Theil. Jurnal Matematika UNAND. Vol.2 No.3 Jurusan Matematika FMIPA Universitas Andalas Padang. Diakses dari www.journalsain-unand.com/ . pada tangal 30 januari 2015, Jam 11.00 WIB.

Soemartini. (2007). Outlier (Pencilan) . Bandung: FMIPA UNPAD. Spiegel, Murray R. (1986). Statistik Edisi Metrik. Jakarta : Erlangga.

Yudistirangga. (2013). Regresi Spline Polinomial Truncated dan Aplikasinya pada Data Indeks Harga Konsumen Daerah Istimewa Yogyakarta. Skripsi. Yogyakarta : UNY

http://www.bps.go.id/aboutus.php?inflasi=1. diakses pada tanggal 2 februari 2015, Jam 10.23 WIB.

Referensi

Dokumen terkait

Data hasil perhitungan rata-rata Indeks Keanekaragaman (H’), Indeks Keseragaman (E) dan Indeks Dominansi (D) plankton di Perairan Kawasan Mangrove Desa Labuhan

Dari titik inilah, festival Legu Gam telah melahirkan sebuah konstruksi sosial, yang kemudian dinegosiasiakan untuk suatu kontestasi budaya atau politik, yang

Determinasi kuat dari log PCO2 dan pH terhadap indeks kejenuhan kalsit terjadi karena pada periode musim penghujan terjadi proses percampuran dengan air hujan, kemudian pada

Berdasarkan uraian di atas, dapat disimpulkan bahwa perairan Pantai Timur Pananjung Pangandaran dengan kedalaman 3 meter memiliki kelimpahan dan kekayaan jenis

Diakses dari laman web tanggal 21 Juni 2016 00.58.00 dari: http://www.landasanteori.com/2015/10/pengertian-partisispasi-politik.html Partisipasi politik merupakan suatu

Sebelum menghitung nilai similarity menggunakan cosine similarity antara query dengan dokumen web service, dilakukan tahapan preprocessing terhadap query yang dimasukkan oleh user

Berdasarkan hasil analisis data dari penelitian yang dilaksanakan, dapat disimpulkan bahwa penerapan model pembelajaran kooperatif tipe STAD dapat meningkatkan hasil belajar IPS

Pasal 10 : Perjalanan Dinas Pasal 10 : Perjalanan Dinas Ayat (4) dalam Kode Etik Lama tidak lagi ada dalam Kode Etik Baru terkait Perjalanan Dinas yang dibiayai oleh pengundang