• Tidak ada hasil yang ditemukan

BAB II KAJIAN PUSTAKA

2.8 Regresi Nonparametrik

28 Keterangan : πœ‡ = konstanta (1 βˆ’ 𝐡) = pembedaan pertama (1 βˆ’ βˆ…1𝐡)𝑍𝑑 = koefisien model AR (1 βˆ’ πœƒ1𝐡)𝛼𝑑 = koefisien model MA 2.8 Regresi Nonparametrik

Regresi nonparametrik dapat digunakan pada data yang mempunyai distribusi normal ataupun tidak berdistribusi normal. Regresi nonparametrik pertamakali diperkenalkan oleh Francis Galtom pada tahun 1885. Pendekatan nonparametrik merupakan pendekatan regresi yang sesuai untuk pola yang tidak diketahui bentuknya, dan tidak terdapat pengalaman informasi masa lalu mengenai pola data

Estimasi juga dapat dilakukan berdasarkan pada pendekatan yang tidak terikat dengan asumsi bentuk kurva regresi khusus yang memberikan fleksibilitas yang lebih besar. Kurva regresi yang sesuai, maka pendekatan ini dinamakan dengan pendekatan nonparametrik.

Regresi nonparametrik merupakan metode regresi untuk memahami pola hubungan antara variabel terikat y dan variabel bebas x. Regresi nonparametrik tidak membutuhkan asumsi mengenai bentuk kurva regresi, oleh karena itu regresi nonparametrik bersifat fleksibel terhadap perubahan pola data. Secara umum hubungan variabel dapat dinyatakan sebagai π‘Œπ‘– = π‘š(𝑋𝑖) + πœ€π‘–, 𝑖 = 1, 2, 3, … 𝑛 dimana πœ€π‘– adalah variabel random yang diasumsikan independent

29

diketahui disebut dengan fungsi regresi atau kurva regresi. Fungsi regresi hanya diasumsikan dalam suatu ruang fungsi yang berdimensi tidak hingga. Kemudian estimasi π‘š(𝑋𝑖) dapat dilakukan berdasarkan data pengamatan dengan teknik penghalus tertentu.

Terdapat beberapa teknik penghalus dalam regresi nonparametrik yaitu histogram, estimasi kernel, estimasi spline, deret fourier, dan k-NN.

2.8.1 Fungsi Kernel

Model pendekatan nonparametrik yang umum digunakan adalah estimator kernel. Hal ini disebabkan estimator kernel mempunyai beberapa kelebihan yaitu estimator kernel mempunyai bentuk yang fleksibel dan mudah disesuaikan dan estimator kernel mempunyai rata-rata kekonvergenan yang relatif cepat.

Beberapa jenis fungsi kernel sebagai berikut : a. Kernel Gaussian : 𝐾(𝑒) = 1 √2πœ‹exp (βˆ’1 2𝑒2)𝐼(βˆ’βˆž,∞)(𝑒) b. Kernel Kudrat : 𝐾(𝑒) =15 8 (1 βˆ’ 4𝑒2)2𝐼[βˆ’0,5 ;0,5](𝑒) c. Kernel Segitiga : 𝐾(𝑒) = (1 βˆ’ |𝑒|)𝐼[βˆ’1,1](𝑒) d. Kernel Epanechnikov : 𝐾(𝑒) =3 4(1 βˆ’ 𝑒2)𝐼[βˆ’1,1](𝑒) e. Kernel Uniform : 𝐾(𝑒) =1 2𝐼[βˆ’1,1](𝑒)

Secara umum untuk fungsi kernel pada dimensi satu dapat didefinisikan sebagai berikut :

πΎβ„Ž(𝑒) = 1

β„ŽπΎ (𝑒

30

Fungsi kernel 𝐾 merupakan fungsi yang kontinu, terbatas, simetrik, dan terintegral ke satu, βˆ«βˆ’βˆžβˆž 𝐾(𝑒)𝑑𝑒 = 1.

Jika suatu fungsi kernel memenuhi syarat berikut : a. βˆ«βˆ’βˆžβˆž 𝐾(𝑒)𝑑𝑒 = 1

b. βˆ«βˆ’βˆžβˆž 𝑒𝐾(𝑒)𝑑𝑒 = 0 c. βˆ«βˆ’βˆžβˆž 𝑒2𝐾(𝑒)𝑑𝑒 β‰  0 d. βˆ«βˆ’βˆžβˆž 𝐾(𝑒2)𝑑𝑒< ∞

Maka fungsi kernel 𝐾 termasuk fungsi berordo 2.

2.8.2 Estimasi Densitas Kernel

Estimator densitas kernel merupakan salah satu pengembangan dari estimator histogram. Estimator densitas kernel adalah metode pendekatan dengan fungsi kernel terhadap fungsi densitas yang belum diketahui. Pemulusan pada densitas kernel bergantung dari fungsi kernel dan nilai bandwidth. Estimator densitas kernel dengan fungsi 𝑓̂(π‘₯) adalah (Zulfikar, 2008): 𝑓̂(π‘₯)𝑑π‘₯ =1 π‘›βˆ‘π‘›π‘–=1πΎβ„Ž(π‘₯𝑖 βˆ’ π‘₯) 𝑓̂(π‘₯)𝑑π‘₯ = 1 π‘›β„Žβˆ‘ 𝐾 (π‘₯π‘–βˆ’π‘₯ β„Ž ) 𝑛 𝑖=1 (2.25)

Dengan 𝐾 adalah fungsi kernel yang kontinu dan spesifik yang memenuhi persamaan ∫ 𝐾(π‘₯)𝑑π‘₯ = 1. Selanjutnya β„Ž adalah nilai bandwidth dengan bilangan positif. Beberapa asumsi kernel yang harus dipenuhi adalah sebagai berikut (Reyes, Fernandez, & Cao, 2014):

31

a. 𝐾(π‘₯) β‰₯ 0, untuk semua π‘₯

b. 𝐾(π‘₯) bersifat simetris, 𝐾(βˆ’π‘₯) = 𝐾(π‘₯), untuk semua π‘₯ c. ∫ 𝐾(π‘₯)𝑑π‘₯ = 1

d. ∫ π‘₯𝐾(π‘₯)𝑑π‘₯ = 0

e. ∫ π‘₯2𝐾(π‘₯)𝑑π‘₯ = πœ‡2𝐾 β‰  0 dengan πœ‡2𝐾 momen kedua tertentu f. ∫[𝐾(π‘₯)]2𝑑π‘₯ = ∫ 𝐾2(π‘₯)𝑑π‘₯ = ‖𝐾‖22 = 𝐸[𝐾2(π‘₯)] = 𝑅(𝐾)

2.8.3 Regresi Nonparametrik Kernel

Regresi nonparametrik kernel dengan menggunakan pendekatan linear konstan menggunakan sampel random (π‘₯𝑖, 𝑦𝑖), 𝑖 = 1, 2, 3, … , 𝑛. Estimasi kurva 𝑦̂ = π‘šΜ‚ (π‘₯) diperoleh dengan meminimumkan :

βˆ‘π‘› πœ€π‘–2

𝑖=1 πΎβ„Ž(π‘₯ βˆ’ 𝑋𝑖) = βˆ‘π‘› {π‘¦π‘–βˆ’ [𝛿0+ 𝛿1(π‘₯ βˆ’ 𝑋𝑖) + β‹― + 𝛿𝑝(π‘₯ βˆ’

𝑖=1

𝑋𝑖)𝑝]}2πΎβ„Ž(π‘₯ βˆ’ 𝑋𝑖)

Dimana 𝐾 adalah fungsi kernel dan β„Ž disebut bandwidth(Hafiyusholeh, 2006).

2.9 Estimasi Bias

Pada estimator densitas kernel fungsi 𝑓̂(π‘₯) merupakan estimator yang tak bias dari suatu fungsi densitas 𝑓(π‘₯). Jika fungsi 𝑓̂(π‘₯) adalah estimator densitas kernel dari suatu fungsi densitas 𝑓(π‘₯) pada titik π‘₯πœ–π‘… dan 𝑋𝑖 berdistribusi ekuivalen dengan fungsi densitas 𝑓(π‘₯), maka untuk estimasi bias adalah(Apriani, 2015):

32 𝐸[𝑓̂(π‘₯)] = 𝐸 [1 π‘›β„Žβˆ‘ 𝐾 ( π‘‹π‘–βˆ’ π‘₯ β„Ž ) 𝑛 𝑖=1 ] 𝐸[𝑓̂(π‘₯)] = 1 π‘›β„Žβˆ‘ 𝐸 [𝐾 ( π‘‹π‘–βˆ’ π‘₯ β„Ž )] 𝑛 𝑖=1 𝐸[𝑓̂(π‘₯)] =1 β„ŽπΈ [𝐾 ( 𝑋𝑖 βˆ’ π‘₯ β„Ž )] 𝐸[𝑓̂(π‘₯)] =1 β„Žβˆ« 𝐾 ( 𝑦 βˆ’ π‘₯ β„Ž ) 𝑓(𝑦)𝑑𝑦 Misalkan 𝑠 =π‘¦βˆ’π‘₯

β„Ž maka 𝑑𝑦 = β„Žπ‘‘π‘ , sehingga didapatkan : 𝐸[𝑓̂(π‘₯)] =1

β„Žβˆ« 𝐾(𝑠)𝑓(π‘₯ + π‘ β„Ž)β„Žπ‘‘π‘  𝐸[𝑓̂(π‘₯)] = ∫ 𝐾(𝑠)𝑓(π‘₯ + π‘ β„Ž)𝑑𝑠

Dengan mengaplikasikan suatu pendekatan ekspansi taylor dari fungsi𝑓(π‘₯ + π‘ β„Ž) dan nilai π‘ β„Ž = 0 ketika β„Ž β†’ 0 sehingga untuk setiap kernel pada orde ke-𝑣 dapat menggunakan kaidah sebagai berikut (Saputra & Listyani, 2016):

𝑓(π‘₯ + π‘ β„Ž) = 𝑓(π‘₯) + 𝑓′(π‘₯)π‘ β„Ž +2!1𝑓′′(π‘₯)β„Ž2𝑠2+ 1

2!𝑓′′′(π‘₯)β„Ž3𝑠3+ β‹― +

1

𝑣!𝑓𝑣(π‘₯)β„Žπ‘£π‘ π‘£+ π‘œ(β„Žπ‘£)

Dengan π‘œ(β„Žπ‘£) adalah sisa dari orde yang lebih rendah dari β„Žπ‘£ ketika β„Ž β†’ 0 sehingga ekspansi taylor orde 2 untuk fungsi𝑓(π‘₯ + π‘ β„Ž) adalah :

𝑓(π‘₯ + π‘ β„Ž) = 𝑓(π‘₯) + 𝑓′(π‘₯)π‘ β„Ž + 1 2!𝑓

β€²β€²(π‘₯)β„Ž2𝑠2+ π‘œ(β„Žπ‘£)

33 𝐸[𝑓̂(π‘₯)] = ∫ 𝐾(𝑠) [𝑓(π‘₯) + 𝑓′(π‘₯)β„Žπ‘  +12𝑓′′(π‘₯)β„Ž2𝑠2+ π‘œ(β„Ž2)] 𝑑𝑠 𝐸[𝑓̂(π‘₯)] = 𝑓(π‘₯) ∫ 𝐾(𝑠)𝑑𝑠 + 𝑓′(π‘₯)β„Ž ∫ 𝑠𝐾(𝑠)𝑑𝑠 +12𝑓′′(π‘₯)β„Ž2∫ 𝑠2𝐾(𝑠)𝑑𝑠 + π‘œ(β„Ž2) ∫ 𝐾(𝑠)𝑑𝑠 𝐸[𝑓̂(π‘₯)] = 𝑓(π‘₯)(1) + 𝑓′(π‘₯)β„Ž(0) +1 2𝑓′′(π‘₯)β„Ž2∫ 𝑠2𝐾(𝑠)𝑑𝑠 + π‘œ(β„Ž2)(1) 𝐸[𝑓̂(π‘₯)] = 𝑓(π‘₯) +1 2𝑓′′(π‘₯)β„Ž2πœ‡2(𝐾) + π‘œ(β„Ž2) (2.26) Kemudian menghitung nilai bias dan variansi dari fungsi 𝑓̂(π‘₯), yaitu (Yuniarti & Hartati, 2017): a. Bias dari 𝑓̂(π‘₯) π΅π‘–π‘Žπ‘  𝑓̂(π‘₯) = 𝐸[𝑓̂(π‘₯)] βˆ’ 𝑓(π‘₯) π΅π‘–π‘Žπ‘  𝑓̂(π‘₯) = 𝑓(π‘₯) +1 2𝑓′′(π‘₯)β„Ž2πœ‡2(𝐾) + π‘œ(β„Ž2) βˆ’ 𝑓(π‘₯) π΅π‘–π‘Žπ‘  𝑓̂(π‘₯) =1 2𝑓′′(π‘₯)β„Ž2πœ‡2(𝐾) + π‘œ(β„Ž2) (2.27) b. Variansi dari 𝑓̂(π‘₯)

Untuk menghitung variansi dari 𝑓̂(π‘₯) dapat menggunakan pendekatan taylor orde 1.

π‘‰π‘Žπ‘Ÿ (𝑓̂(π‘₯)) = 1 𝑛2π‘‰π‘Žπ‘Ÿ(βˆ‘π‘›π‘–=1𝐾(π‘‹π‘–βˆ’ π‘₯)) π‘‰π‘Žπ‘Ÿ (𝑓̂(π‘₯)) = 1 𝑛2βˆ‘π‘›π‘–=1π‘‰π‘Žπ‘Ÿ(𝐾(𝑋𝑖 βˆ’ π‘₯)) π‘‰π‘Žπ‘Ÿ (𝑓̂(π‘₯)) = 1 π‘›π‘‰π‘Žπ‘Ÿ(𝐾(𝑋𝑖 βˆ’ π‘₯)) π‘‰π‘Žπ‘Ÿ (𝑓̂(π‘₯)) = 1 𝑛{𝐸[𝐾2(π‘‹π‘–βˆ’ π‘₯)] βˆ’ (𝐸[𝐾(𝑋𝑖 βˆ’ π‘₯)])2} π‘‰π‘Žπ‘Ÿ (𝑓̂(π‘₯)) = 1 𝑛{1 β„Ž2∫ 𝐾2(π‘¦βˆ’π‘₯ β„Ž ) 𝑓(𝑦)𝑑𝑦 βˆ’ (𝑓(π‘₯) + π‘œ(β„Ž))2}

34

Mensubstitusikan 𝑠 =π‘¦βˆ’π‘₯

β„Ž maka 𝑑𝑦 = β„Žπ‘‘π‘ , sehingga diperoleh : π‘‰π‘Žπ‘Ÿ (𝑓̂(π‘₯)) = 1 π‘›β„Ž2∫ 𝐾2(𝑠)𝑓(π‘₯ + π‘ β„Ž)β„Žπ‘‘π‘  βˆ’1 𝑛(𝑓(π‘₯) + π‘œ(β„Ž))2 π‘‰π‘Žπ‘Ÿ (𝑓̂(π‘₯)) = 1 π‘›β„Žβˆ« 𝐾2(𝑠)𝑑𝑠𝑓(π‘₯ + π‘ β„Ž) βˆ’1 𝑛(𝑓(π‘₯) + π‘œ(β„Ž))2 π‘‰π‘Žπ‘Ÿ (𝑓̂(π‘₯)) = 1 π‘›β„Žπ‘…(𝐾)𝑓(π‘₯) + π‘œ(β„Ž) βˆ’1 𝑛(𝑓(π‘₯) + π‘œ(β„Ž))2 π‘‰π‘Žπ‘Ÿ (𝑓̂(π‘₯)) = 1 π‘›β„Žπ‘…(𝐾)𝑓(π‘₯) + π‘œ 1 π‘›β„Ž (2.28) 2.10 Estimator Shibata

Estimator untuk regresi non parametrik kernel dengan menggunakan pemilihan bandwidth shibata dengan mendefinisikan fungsi loss.

Definisi fungsi loss

𝐿(β„Ž) = π‘›βˆ’1βˆ‘π‘›π‘—=1[π‘š(𝑋𝑗) βˆ’ π‘šΜ‚β„Ž(𝑋𝑗)]2 (2.29) Nilai rata-rata dari fungsi loss adalah 𝑅(β„Ž) = 𝐸[𝐿(β„Ž)] yang disebut dengan Risk.

𝑅(β„Ž) = 𝐸 (π‘›βˆ’1βˆ‘π‘›π‘—=1[π‘š(𝑋𝑗) βˆ’ π‘šΜ‚β„Ž(𝑋𝑗)]2) (2.30) Fungsi 𝑅(β„Ž) atau 𝐿(β„Ž) merupakan kriteria yang digunakan untuk mengukur kebaikan estimator. Nilai terkecil dari kriteria adalah suatu indikasi dari estimator yang terbaik. Perhitungan lain yang berhubungan dengan 𝑅(β„Ž) adalah salah satu prediksi risk yang disebut dengan prediksi mean square error yang berhubungan dengan 𝑅(β„Ž) yaitu :

𝑝(β„Ž) = 𝜎2+ 𝑅(β„Ž) (2.31)

35

meminimumkan 𝑝(β„Ž) juga akan meminimumkan 𝑅(β„Ž). Sehingga untuk mengestimasi nilai 𝑝(β„Ž) adalah dengan mean square error.

𝑀𝑆𝐸(β„Ž) = π‘›βˆ’1βˆ‘π‘›π‘—=1(π‘Œπ‘—βˆ’ π‘šΜ‚β„Ž(𝑋𝑗))2 (2.32) Nilai 𝑀𝑆𝐸(β„Ž) merupakan nilai estimator yang bias terhadap nilai 𝑝(β„Ž), untuk membuktikan bahwa nilai 𝑀𝑆𝐸(β„Ž) bias terhadap nilai 𝑝(β„Ž) dapat dilihat pada uraian berikut :

𝑀𝑆𝐸(β„Ž) = π‘›βˆ’1βˆ‘π‘›π‘—=1(π‘Œπ‘—βˆ’ π‘šΜ‚β„Ž(𝑋𝑗))2

= π‘›βˆ’1βˆ‘π‘›π‘—=1[π‘Œπ‘—2 + π‘šΜ‚β„Ž2(𝑋𝑗) βˆ’ 2 (π‘Œπ‘—π‘šΜ‚β„Ž(𝑋𝑗))] Dengan memperhatikan nilai π‘Œπ‘— = π‘š(𝑋𝑗) + πœ€π‘—, maka :

𝑀𝑆𝐸(β„Ž) = π‘›βˆ’1βˆ‘π‘›π‘—=1[(π‘š(𝑋𝑗) + πœ€π‘—)2+ π‘šΜ‚β„Ž2(𝑋𝑗) βˆ’ 2 (π‘š(𝑋𝑗)) + πœ€π‘—π‘šΜ‚β„Ž(𝑋𝑗)] = π‘›βˆ’1βˆ‘π‘›π‘—=1[π‘š2(𝑋𝑗) + πœ€π‘—2+ 2π‘š(𝑋𝑗)πœ€π‘—+ π‘šΜ‚β„Ž2(𝑋𝑗) βˆ’ 2 (π‘š(𝑋𝑗)π‘šΜ‚β„Ž(𝑋𝑗) + πœ€π‘—π‘šΜ‚β„Ž(𝑋𝑗))] = π‘›βˆ’1βˆ‘π‘›π‘—=1[π‘š2(𝑋𝑗) + πœ€π‘—2+ 2π‘š(𝑋𝑗)πœ€π‘—+ π‘šΜ‚β„Ž2(𝑋𝑗) + (βˆ’2π‘š(𝑋𝑗)π‘šΜ‚β„Ž(𝑋𝑗) βˆ’ 2πœ€π‘—π‘šΜ‚β„Ž(𝑋𝑗))] = π‘›βˆ’1βˆ‘π‘›π‘—=1[πœ€π‘—2+ π‘š2(𝑋𝑗) + π‘šΜ‚β„Ž2(𝑋𝑗) βˆ’ 2π‘š(𝑋𝑗)π‘šΜ‚β„Ž(𝑋𝑗) βˆ’ 2πœ€π‘—π‘šΜ‚β„Ž(𝑋𝑗) + 2π‘š(𝑋𝑗)πœ€π‘—] = π‘›βˆ’1βˆ‘π‘›π‘—=1[πœ€π‘—2+ π‘š2(𝑋𝑗) + π‘šΜ‚β„Ž2(𝑋𝑗) βˆ’ 2π‘š(𝑋𝑗)π‘šΜ‚β„Ž(𝑋𝑗) βˆ’ 2πœ€π‘—π‘šΜ‚β„Ž(𝑋𝑗) βˆ’ π‘š(𝑋𝑗)] (2.33)

36 𝐿(β„Ž) = π‘›βˆ’1βˆ‘π‘›π‘—=1[π‘š(𝑋𝑗) βˆ’ π‘šΜ‚β„Ž(𝑋𝑗)]2 = π‘›βˆ’1βˆ‘[π‘š2(𝑋𝑗) + π‘šΜ‚β„Ž2(𝑋𝑗) βˆ’ 2π‘š(𝑋𝑗)π‘šΜ‚β„Ž(𝑋𝑗)] 𝑛 𝑗=1

Maka persamaan (2.33) menjadi :

𝑀𝑆𝐸(β„Ž) = π‘›βˆ’1βˆ‘π‘—=1𝑛 πœ€π‘—2+ 𝐿(β„Ž) βˆ’ 2π‘›βˆ’1βˆ‘π‘›π‘—=1πœ€π‘—(π‘šΜ‚β„Ž(𝑋𝑗)) βˆ’ π‘š(𝑋𝑗) Dengan melihat bahwa nilai error πœ€π‘— adalah nilai ekspektasi nol dan variansi 𝜎2 maka : 𝐸[𝑀𝑆𝐸(β„Ž)] = π‘›βˆ’1βˆ‘π‘›π‘—=1𝐸(πœ€π‘—2) + 𝐸(𝐿(β„Ž)) βˆ’ 2π‘›βˆ’1𝐸(βˆ‘π‘›π‘—=1πœ€π‘—(π‘šΜ‚β„Ž(𝑋𝑗)) βˆ’ π‘š(𝑋𝑗)) = 𝜎2+ 𝑅(β„Ž) + 𝐸𝐢𝑙𝑛 (2.34) Dengan nilai 𝐸𝐢𝑙𝑛= βˆ’2π‘›βˆ’1𝐸 (βˆ‘π‘›π‘—=1πœ€π‘—(π‘šΜ‚β„Ž(𝑋𝑗)) βˆ’ π‘š(𝑋𝑗)) (2.35) Untuk estimator kernel shibata untuk π‘šΜ‚β„Ž(π‘₯) dari fungsi regresi adalah :

π‘šΜ‚β„Ž(π‘₯) = π‘›βˆ’1βˆ‘ π‘Šβ„Žπ‘–(π‘₯)π‘Œπ‘– 𝑛 𝑖=1 Dimana : π‘Šβ„Žπ‘–(π‘₯) =βˆ‘ 𝐾 ( π‘‹π‘–βˆ’ π‘₯ β„Ž ) 𝑛 𝑖=1 βˆ‘π‘›π‘–=1𝐾 (π‘‹π‘–β„Žβˆ’ π‘₯)

Sehingga dapat diperoleh persamaan untuk estimator shibata dari fungsi regresi adalah(Hafiyusholeh, 2006) :

37

2.11 Pemilihan Bandwidth Optimum

Pada regresi kernel yang menjadi masalah utama adalah pada pemilihan bandwidth yang digunakan untuk menyeimbangkan nilai antara bias dan varians dari fungsi tersebut. Jika nilai bandwidth kecil maka kurva yang dihasilkan kurang mulus tetapi memiliki bias kecil. Sedangkan jika nilai bandwidth besar maka kurva yang dihasilkan terlalu mulus sehingga memiliki bias besar dan varians rendah.

Untuk menghasilkan kurva yang optimal maka dapat dilakukan pemulusan kurva dengan menggunakan bandwidth yang paling optimal. Pemilihan bandwidth optimal dengan menggunakan estimasi shibata.

2.12 Evaluasi Ketepatan Model 2.12.1 Koefisien Determinasi

Koefisien determinasi digunakan untuk mengetahui seberapa besar keterlibatan antara variabel independen terhadap variabel dependennya, sehingga untuk mendapatkan nilai koefisien determinasi dapat dihitung dengan persmaan berikut :

𝑅2 = 𝐽𝐾𝑅 𝐽𝐾𝑇 = 𝐽𝐾𝑅 𝐽𝐾𝑅+𝐽𝐾𝐺 (2.45) Keterangan : 𝐽𝐾𝑅 (π½π‘’π‘šπ‘™π‘Žβ„Ž πΎπ‘’π‘Žπ‘‘π‘Ÿπ‘Žπ‘‘ π‘ƒπ‘’π‘Ÿπ‘™π‘Žπ‘˜π‘’π‘Žπ‘›) = βˆ‘π‘›π‘–=1(𝑦̂1βˆ’ 𝑦̅)2 𝐽𝐾𝐺 (π½π‘’π‘šπ‘™π‘Žβ„Ž πΎπ‘’π‘Žπ‘‘π‘Ÿπ‘Žπ‘‘ πΊπ‘Žπ‘™π‘Žπ‘‘) = βˆ‘π‘› (π‘¦π‘–βˆ’ 𝑦̂1)2 𝑖=1 𝐽𝐾𝑇 (π½π‘’π‘šπ‘™π‘Žβ„Ž πΎπ‘’π‘Žπ‘‘π‘Ÿπ‘Žπ‘‘ π‘‡π‘œπ‘‘π‘Žπ‘™) = 𝐽𝐾𝑅 + 𝐽𝐾𝐺

38

𝑅2 = koefisien determinasi 𝑦𝑖 = data aktual subjek ke-𝑖 𝑦̂1 = hasil estimasi subjek ke-𝑖 𝑦̅ = rat-rata data aktual

Nilai koefisien determinasi berada di titik interval 0 sampai dengan 1. Apabila nilai koefisien determinasi semakin mendekati 1, maka model yang dihasilkan semakin baik. Akan tetapi jika sebaliknya, apabila nilai koefisien determinasi semakin mendekati 0, maka model yang dihasilkan kurang baik(Nanda, Suparti, & Hoyyi, 2016).

2.12.2 MSE (Mean Square Error)

Untuk melihat seberapa besar nilai kegalatan dari suatu estimator dapat dilihat dari nilai MSE (Mean Square Error). Jika semakin kecil nilai MSE maka semakin baik hasil atau model yang diperoleh. Persamaan yang digunakan untuk menghitung nilai MSE adalah (Sungkawa & Megasari, 2011):

𝑀𝑆𝐸 =βˆ‘π‘›π‘–=1𝑒𝑖2 𝑛 β†’ 𝑅𝑀𝑆𝐸 = βˆšβˆ‘π‘›π‘–=1𝑒𝑖2 𝑛 𝑀𝑆𝐸 =βˆ‘π‘› (π‘‹π‘–βˆ’πΉπ‘–)2 𝑖=1 𝑛 (2.46) Keterangan :

𝑒𝑖 = (π‘‹π‘–βˆ’ 𝐹𝑖) = kesalahan pada periode ke-i 𝑋𝑖 = data aktual periode ke-i

39

Dokumen terkait