• Tidak ada hasil yang ditemukan

Kajian Metode Robust Least Trimmed Square (LTS) Dalam Mengestimasi Parameter Regresi Linear Berganda Untuk Data yang Mengandung Pencilan

N/A
N/A
Protected

Academic year: 2017

Membagikan "Kajian Metode Robust Least Trimmed Square (LTS) Dalam Mengestimasi Parameter Regresi Linear Berganda Untuk Data yang Mengandung Pencilan"

Copied!
66
0
0

Teks penuh

(1)

Lampiran 1

Tabel 3.1 Data Sekunder Survival Time

No. ¼½ ¼¾ ¼¿ ¼À »

1. 6.7 62 81 2.59 200 2. 5.1 59 66 1.70 101 3. 7.4 57 83 2.16 204 4. 6.5 73 41 2.01 101 5. 7.8 65 115 4.30 509 6. 6.0 85 28 2.98 87 7. 5.8 38 72 1.42 80 8. 5.7 46 63 1.91 80 9. 3.7 68 81 2.57 127 10. 6.0 67 92 2.50 202 11. 3.7 76 94 2.40 203 12. 6.3 84 83 4.13 329 13. 6.7 51 43 1.89 65 14. 5.8 83 88 3.95 330 15. 11.2 76 90 5.59 574 16. 7.7 62 67 3.40 168 17. 7.4 74 68 2.40 217 18. 3.7 51 41 1.55 34 19. 7.3 68 74 3.56 215 20. 5.6 57 87 3.02 172 21. 5.2 52 76 2.86 109 22. 5.8 96 114 3.95 830 23. 3.4 83 53 1.12 136 24. 8.7 45 23 2.52 58 25. 5.8 72 93 3.30 295 26. 6.3 59 100 2.95 276 27. 5.8 72 93 3.30 104 28. 3.2 64 65 0.74 71 29. 5.3 57 99 2.60 184 30. 2.6 74 86 2.05 118 Sumber : Soemartini. Deteksi Outlier

Keterangan:

= blood clotting = prognostic index = enzyme function test ¹ = liver function test

(2)

Lampiran 2

Perhitungan Menentukan Parameter Regresi Linear Berganda

No. ¼½¾ ¼¾¾ ¼¿¾ ¼À¾ »¾ ¼½» ¼¾» ¼¿» ¼À»

(3)

No. ¼½¼¾ ¼½¼¿ ¼½¼À ¼¾¼¿ ¼¾¼À ¼¿¼À 1. 415,4 542,7 17,353 5.022 160,58 209,79

2. 300,9 336,6 8,67 3.894 100,3 112,2

3. 421,8 614,2 15,984 4.731 123,12 179,28 4. 474,5 266,5 13,065 2.993 146,73 82,41

5. 507,0 897,0 33,54 7.475 279,5 494,5

6. 510,0 168,0 17,88 2.380 253,3 83,44

7. 220,4 417,6 8,236 2.736 53,96 102,24

8. 262,2 359,1 10,887 2.898 87,86 120,33 9. 251,6 299,7 9,509 5.508 174,76 208,17

10. 402,0 552,0 15,00 6.164 167,5 230

11. 281,2 347,8 8,88 7.144 182,4 225,6

12. 529,2 522,9 26,019 6.972 346,92 342,79 13. 341,7 288,1 12,663 2.193 96,39 81,27 14. 481,4 510,4 22,91 7.304 327,85 347,6 15. 851,2 1008 62,608 6.840 424,84 503,1

16. 477,4 515,9 26,18 4.154 210,8 227,8

17. 547,6 503,2 17,76 5.032 177,6 163,2

18. 188,7 151,7 5,735 2.091 79,05 63,55

19. 496,4 540,2 25,988 5.032 242,08 263,44 20. 319,2 487,2 16,912 4.959 172,14 262,74 21. 270,4 395,2 14,872 3.952 148,72 217,36 22. 556,8 661,2 22,91 10.944 379,2 450,3

23. 282,2 180,2 3,808 4.399 92,96 59,36

24. 391,5 200,1 21,924 1.035 113,4 57,96

25. 417,6 539,4 19,14 6.696 237,6 306,9

26. 371,7 630,0 18,585 5.900 174,05 295

27. 417,6 539,4 19,14 6.696 237,6 306,9

28. 204,8 208,0 2,368 4.160 47,36 48,1

29. 302,1 524,7 13,78 5.643 148,2 257,4

30. 192,4 223,6 5,33 6.364 151,7 176,3

(4)

Lampiran 3

Menentukan nilai residual

No. »Ô »XÔ »Ô− »XÔÔ− »XÔ

1. 200 233,800 -33,800 1.142,465

2. 101 93,320 7,680 58,984

3. 204 236,528 -32,528 1.058,098

4. 101 129,058 -28,058 787,269

5. 509 435,025 73,975 5.472,339

6. 87 134,692 -47,692 2.274,547

7. 80 25,819 54,181 2.935,563

8. 80 35,606 44,394 1.970,855

9. 127 154,657 -27,657 764,888

10. 202 275,855 -73,855 5.454,626

11. 203 245,878 -42,878 1.838,531

12. 329 359,303 -30,303 918,296

13. 65 23,776 41,224 1.699,456

14. 330 352,701 -22,701 515,320

15. 574 537,434 36,566 1.337,042

16. 168 224,932 -56,932 3.241,207

17. 217 273,845 -56,845 3.231,395

18. 34 -98,294 132,294 17.501,724

19. 215 270,567 -55,567 3.087,731

20. 172 192,369 -20,369 414,898

21. 109 107,238 1,762 3,103

22. 830 521,867 308,133 94.945,833

23. 136 105,794 30,206 912,376

24. 58 -4,810 62,810 3.945,112

25. 295 306,347 -11,347 128,744

26. 276 277,960 -1,960 3,840

27. 104 306,347 -202,347 40.944,126

28. 71 37,586 33,414 1.116,506

29. 184 223,085 -39,085 1.527,633

30. 118 160,714 -42,714 1.824,525

(5)

Lampiran 4

Deteksi pencilan dengan Leverage(ℎ )

(6)

Lampiran 5

Deteksi pencilan dengan Discrepancy

(7)

Lampiran 6

Deteksi pencilan dengan menggunakan metode DfFITS (Difference in fit Standardized)

No. 2u,

! DfFITS |DfFITS|

(8)

Lampiran 7

Mengestimasi menggunakan metode LTS: Iterasi 1

No. ¼½ ¼¾ ¼¿ ¼À » »XÔÔ− »XÔ:¾ 1. 6,7 62 81 2,59 200 233,800 1.142,465 2. 5,1 59 66 1,70 101 93,320 58,984 3. 7,4 57 83 2,16 204 236,528 1.058,098 4. 6,5 73 41 2,01 101 129,058 787,269 5. 7,8 65 115 4,30 509 435,025 5.472,339 6. 6,0 85 28 2,98 87 134,692 2.274,547 7. 5,8 38 72 1,42 80 25,819 2.935,563 8. 5,7 46 63 1,91 80 35,606 1.970,855 9. 3,7 68 81 2,57 127 154,657 764,888 10. 6,0 67 92 2,50 202 275,855 5.454,626 11. 3,7 76 94 2,40 203 245,878 1.838,531 12. 6,3 84 83 4,13 329 359,303 918,296 13. 6,7 51 43 1,89 65 23,776 1.699,456 14. 5,8 83 88 3,95 330 352,701 515,320 15. 11,2 76 90 5,59 574 537,434 1.337,042 16. 7,7 62 67 3,40 168 224,932 3.241,207 17. 7,4 74 68 2,40 217 273,845 3.231,395 18. 3,7 51 41 1,55 34 -98,294 17.501,724 19. 7,3 68 74 3,56 215 270,567 3.087,731 20. 5,6 57 87 3,02 172 192,369 414,898 21. 5,2 52 76 2,86 109 107,238 3,103 22. 5,8 96 114 3,95 830 521,867 94.945,833 23. 3,4 83 53 1,12 136 105,794 912,376 24. 8,7 45 23 2,52 58 -4,810 3.945,112 25. 5,8 72 93 3,30 295 306,347 128,744 26. 6,3 59 100 2,95 276 277,960 3,840 27. 5,8 72 93 3,30 104 306,347 40.944,126 28. 3,2 64 65 0,74 71 37,586 1.116,506 29. 5,3 57 99 2,60 184 223,085 1.527,633 30. 2,6 74 86 2,05 118 160,714 1.824,525 S 178.2 1.976 2.259 81,42 6.179 6.179 201.057,033

Dimana untuk memperoleh jumlah data pada iterasi kedua dengan:

ℎ = ‡ ˆ ‡(¹I )ˆ =17,5 ≈ 18 data. Sedangkan nilai ∑dN =201.057,033. Dan model regresi linear berganda pada iterasi 1 adalah:

(9)
(10)

Lampiran 8

Iterasi 2

No. ¹ h 8 − h :

1. 5,2 52 76 2,86 109 102,489 42,394 2. 6,3 59 100 2,95 276 254,389 467,034 3. 5,1 59 66 1,70 101 92,83551 66,659 4. 5,8 72 93 3,30 295 283,9873 121,279 5. 5,6 57 87 3,02 172 178,3381 40,172 6. 5,8 83 88 3,95 330 332,5531 6,518 7. 3,7 68 81 2,57 127 135,6398 74,647 8. 6,5 73 41 2,01 101 151,0395 2.503,954 9. 3,4 83 53 1,12 136 103,0099 1.088,344 10. 6,3 84 83 4,13 329 345,0836 258,682 11. 7,4 57 83 2,16 204 230,3445 694,034 12. 3,2 64 65 0,74 71 28,70136 1.789,175 13. 6,7 62 81 2,59 200 226,3314 693,341 14. 11,2 76 90 5,59 574 537,434 1.337,042 15. 5,3 57 99 2,60 184 197,0933 171,435 16. 6,7 51 43 1,89 65 50,82487 200,934 17. 2,6 74 86 2,05 118 131,2249 174,899 18. 3,7 76 94 2,40 203 213,1429 102,878 S 100,5 1.207 1.409 47,63 3.595 3.595,000 9.794,411

Dimana untuk memperoleh jumlah data pada iterasi ketiga dengan:

ℎ = ‡ Lj ‡(¹I )ˆ = 11,5 ≈ 12 data. Sedangkan nilai ∑dN =9.794,411. Dan model regresi linear bergandanya adalah:

(11)
(12)

Lampiran 9

Iterasi 3

No. ¼½ ¼¾ ¼¿ ¼À » »XÔÔ− »XÔ:¾ 1. 5,8 83 88 3,95 330 325,491 20,331 2. 5,6 57 87 3,02 172 179,986 63,783 3. 5,2 52 76 2,86 109 101,532 55,771

4. 5,1 59 66 1,70 101 99,877 1,260

5. 3,7 68 81 2,57 127 124,910 4,366

6. 3,7 76 94 2,40 203 204,874 3,512

7. 5,8 72 93 3,30 295 284,235 115,895 8. 5,3 57 99 2,60 184 201,603 309,869

9. 2,6 74 86 2,05 118 116,704 1,680

10. 6,7 51 43 1,89 65 66,597 2,549

11. 6,3 84 83 4,13 329 339,649 113,406 12. 6,3 59 100 2,95 276 263,541 155,219

S 62,1 792 996 33,42 2.309 2.309,000 847,642

Model regresi linear bergandanya adalah:

h = -649 + 48,3 5,06 3,06 1,42 ¹

(13)

DAFTAR PUSTAKA

Draper, N. dan Smith, H. 1992. Analisis Regresi Terapan. Edisi Kedua. Bambang Sumantri. Jakarta: Gramedia Pustaka Utama.

Huber, Peter, J., and Ronchetti, Elvezio, M. 2009. Robust Statistics. A John Wiley and Sons, Inc., Publication. Hoboken. New Jersey.

Musafirah, Raupong, Nasrah. 2010. Perbandingan Metode Robust Least Trimmed Square (LTS) Dengan Metode Scale Dalam Mengestimasi Parameter Regresi Linear Berganda Untuk Data Pencilan. Universitas Hasanuddin Oktarinanda, Arista . Jurnal Ilmiah. Perbandingan LTS dan Scale Dalam

Mengestimasi Parameter Regresi Linear Berganda. Universitas Hasanuddin.

Rousseeuw, P.J., & A. M. Leroy. 1987. Robust Regression and Outlier Detection. John Wiley & Sons Inc: New York.

Ronald, E. Walpole. 1982. Pengantar Statistika. PT. Gramedia Pustaka Utama Jakarta.

Santoso, S. 2000. Buku Latihan SPSS Statistik Parametrik. Elex Media Komputindo. Jakarta

Sembiring. R.K . Analisis Regresi. ITB. Bandung

Siregar, Sofyan. 2015. Statistika Terapan Untuk Perguruan Tinggi. PT.Kharisma Putra Utama. Jakarta

Siregar, Sofyan. Ir. 2014. Statistik Parametrik untuk Penelitian Kuantitatif. PT. Bumi Aksara. Jakarta

Suyanti, Sukestiryano, YL. Jurnal Ilmiah.2014. Deteksi Outlier Menggunakan Diagnosa Regresi Berbasis Estimator Parameter Robust. Universitas Negeri Semarang.

(14)

BAB 3

HASIL DAN PEMBAHASAN

3.1. Least Trimmed Square (LTS)

Sebelum membahas mengenai least trimmed square (LTS), akan dibahas terlebih dahulu sifat-sifat ke-equivariant-an yang harus dimiliki oleh suatu estimator (equivariant dalam statistik merujuk pada transformasi sebagaimana mestinya. Kebalikan dari equivariant yaitu invariant yang merujuk pada kuantitas yang tetap tidak berubah), yaitu: regresi equivariant, skala equivariant, dan affine equivariant. Sifat-sifat tersebut diperlukan agar hasil transformasi tetap dapat diartikan sama dengan data sebelum ditransformasi. Suatu estimator T disebut sebagai regresi equivariant jika memenuhi:

(–(+ , L + + 7); = 1,2, ⋯ , !—) = (–(+ , L ); = 1,2, ⋯ , !—) + 7 (3.1)

Dengan 7 merupakan sebarang vektor kolom. Regresi equivariant

digunakan dalam mendeskripsikan bagaimana studi Monte Carlo dilakukan dimulai ˜ = 00, yang berarti hasil transformasi valid pada sebarang vektor

parameter. Suatu estimator T disebut sebagai skala equivariant jika memenuhi:

(–(+ , ™L ); = 1,2, ⋯ , !— = ™ – + , L ; = 1,2, ⋯, !— (3.2)

untuk sebarang konstanta ™, skala equivariant menyebabkan bahwa kecocokan secara esensial independen dari pemilihan satuan pengukuran pada variabel terikat L . Sedangkan, suatu estimator adalah affine equivariant jika memenuhi:

(15)

untuk sebarang matrik persegi A yang nonsingular. Dimana affine equivariant menjelaskan transformasi linear dari + akan berpengaruh langsung pada

estimator , karena LM = + ˜ = (+ š)(šD ˜). Sehingga dengan demikian

peubah bebas dapat menggunakan sistem kordinat lainnya tanpa berpengaruh pada hasil estimasi LM.

Sifat Umum Estimator Regresi LTS

Estimator LTS mempunyai sifat regresi equivariant, skala equivariant, dan affine equivariant.

Regrsi Equivariant : ∑ ((L + 7 − + –7 + ˜—) )dN :/= ∑d9N L − + ˜ :/ Skala Equivariant : ∑dN ™L − + –™˜— :/ = ™ ∑d9N L − + ˜ :/ Affine Equivariant : ∑dN L –+ š—–šD ˜— :/ = ∑d9N L − + ˜ :/ dengan

7 = vektor kolom sebarang ™ = konstanta sebarang

š = matriks bujur sangkar non-singular

˜ = Transformasi (T)

Teorema 3.1. Sebarang regresi equivariant dari estimator memenuhi:

/∗ , ‹ ≤•‡

›œ• C ˆI €

/ (3.5

pada seluruh sampel ‹.

Menurut Rousseeuw least trimmed square (LTS) didefinisikan sebagai:

min¡X∑/N ] :/ (3.6)

Sebelumnya dengan menyusun residual kuadrat dari yang terkecil sampai dengan yang terbesar, yaitu:

:/ ≤ :/ ≤ ⋯ ≤ :/

Dengan ℎ = ‡/ˆ + 1, sehingga LTS akan memiliki breakdown point

yang sama dengan Y•‡

› CˆD[I €

(16)

[] menyatakan bagian bilangan bulat terbesar yang kurang dari atau sama

dengan bilangan bulat tersebut. Selain itu, untuk ℎ = ‡/ˆ + ‡([I )ˆ LTS yang

mungkin mencapai nilai maksimum dari teorema 3.1.

Sifat ke-robust-an dari LTS didasarkan pada breakdown point-nya yang didefinisikan oleh Rousseeuw. Nilai breakdown point dari metode LTS yang didefinisikan pada persamaan 3.5 dengan ℎ = ‡/ˆ + ‡([I )ˆ sama

dengan: /∗( , ‹) =•‡

(›œ•) C ˆI €

/`

Bukti: Asumsikan bahwa semua pengamatan dengan variabel 8+ , + , ⋯ , +[: = 0 dihapuskan dan pengamatan-pengamatannya merupakan dalam keadaan umum. Yang dimaksud dalam keadaan umum adalah jika sebarang , dari variabel bebas menentukan ˜ secara unik.

Langkah pertama adalah dengan menunjukkan bahwa /∗ , ‹ ≥ •‡›œ•C ˆI €

/` karena sampel ‹ = – + , L ; = 1,2, ⋯ , !— terdiri dari n titik dalam kondisi yang umum, hal ini akan memenuhi:

¤ = inf –¦ > 0;terdapat suatu , − 1 dimensi subruang dari § L = 0 ,

sedemikian hingga §′ meliputi sekurang-kurangnya , dari + — yang selalu bernilai positif, dengan §′ adalah himpunan dari semua variabel bebas dengan

jarak terhadap § tidak lebih dari ¦. Andaikan ˜ meminimumkan persamaan

3.5 untuk ‹, dan dinotasikan dengan e yang berkorespondensi dengan hyperplane yang diberikan dengan persamaan L = +˜ . Diberikan c =

Œ^+ |] | dengan ] = L − + ˜. Sekarang akan dikontruksikan sebarang

sampel terkontaminasi ‹0 = – +0, L0 ; = 1,2, ⋯, !— dengan menyimpan

! − ‡/D[ ˆ = ‡/I[I ˆ pengamatan-pengamatan dari ‹ dan dengan

(17)

yang berkorespondensi merupakan hal yang berbeda dari e . Tanpa

kehilangan keumumannya dapat diasumsikan bahwa ˜′ ≠ ˜ , karena itu e′ ≠ e.

Dengan teorema dimensi dari aljabar linear, irisan dari e ∩ e′

mempunyai dimensi , − 1. Jika ,](e ∩ e′ merupakan proyeksi vertical dari

e ∩ e′ terhadap L = 0 , sehingga diasumsikan paling banyak , − 1 dari +

yang baik (bukan pencilan) dapat terletak pada 8,] e ∩ e′ :¬. Sekarang

didefinisikan š sebagai himpunan pengamatan-pengamatan baik yang tersisa. Kemudian misalkan sebarang +m, Lm termasuk di š dan ]m= Lm− +m˜ dan

]m0= Lm− +m˜0. Kontruksikan vertical plane 2-dimensi -m melalui +m, Lm dan tegak lurus terhadap ,] e ∩ e0 . Sebelumnya akan dikontruksikan nilai

residual pada -m yaitu sebagai berikut menurut Rousseeuw:

|] | = |+ ˜ − L | ≥ ®|+ ˜| − |L |® dengan |+ ˜| > ¤|tan ~ | , dengan ~

merupakan sudut dalam •−±,±€ yang dibentuk antara e dengan garis

horizontal pada -m. Oleh karena itu, |~| merupakan sudut antara garis tegak

lurus terhadap e dan 0,1 , karena itu:

|~| = ^]™™6•²| −˜, 1 0,1‖−˜, 1‖‖0,1‖ ³ = ^]™™6•²−0| 1

´1 + ‖˜‖ ³

Dan akhirnya diperoleh |tan ~ | = ‖˜‖.

Berdasarkan pernyataan diatas, maka:

| m0 − m| = |+m˜0− +m˜| > ¤|tan ~0 − tan ~ |

≥ ¤®|tan ~0 | − |tan ~ |®

= ¤|‖˜0‖ − ‖˜‖|

Karena

‖˜0− ˜‖ ≤ ‖˜‖ + ‖˜0‖ = 2‖˜‖ + ‖˜0‖ − ‖˜‖ ≤ |‖˜0‖ − ‖˜‖| + 2‖˜‖

Berdasarkan pertidaksamaan diatas diperoleh:

(18)

dengan m dan m0 adalah residual yang berhubungan dengan e dan e0

berkorespondensi dengan titik +m, Lm . Sekarang diperoleh jumlah ℎ residual kuadrat pertama dari sampel baru ‹0 yang berhubungan dengan ˜ yang

sebelumnya, dimana sekurang-kurangnya nilai ‡ /I[I ˆ ≥ ℎ dari

residual-residual ini menjadi sama seperti sebelumnya, yaitu kurang dari atau sama

dengan ℎc . Karena ˜0 berkorespondensi dengan ‹0 berdasarkan pernyataan ini diperoleh:

∑d L0− +0˜0 :/≤ ℎc

N (3.7)

Jika diasumsikan bahwa:

‖˜0− ˜‖ ≥ 2‖˜‖ + c 1 + √ℎ

¤

Maka untuk semua ^ di š memenuhi

| m0 − m| > ¤ ‖˜0− ˜‖ − 2‖˜‖ ≥ c 1 + √ℎ

Jadi,

| m0| ≥ | m0 − m| − | m| > c81 + √ℎ: − c = c√ℎ

Sekarang perhatikan bahwa ! − |š| ≤ ℎ − 1. Oleh karena itu, himpunan ℎ

dari +0, L0 harus terdiri sekurangnya satu dari +m, Lm , maka:

∑d L0− +0˜0 :/ m0 > ℎc

N (3.8)

Suatu kontradiksi. Ini menyebabkan bahwa

‖˜0− ˜‖ < 2‖˜‖ + c 1 + √ℎ

¤ < ∞

Untuk semua sampel ‹0.

Langkah kedua adalah mendapatkan pertidaksamaan sebaliknya yaitu

/∗ , ‹ ≤•‡

›œ• C ˆI €

(19)

Cara lain menginterpretasikan persamaan 3.5 adalah dengan mengasumsikan

bernilai terbatas jika nilainya lebih dari (! + , − 1) pengamatan dan tidak

terkontaminasi nilai dari h. Dimana ℎ menghasilkan nilai yang maksimum dari breakdown point. Di sisi lain, jumlah pengamatan yang tidak baik ! −|š| harus tetap kurang dari ℎ dan |š| − 1 ≥ ! − ℎ dan |š| − 1 ≥ ℎ − ,, yang

menghasilkan ℎ = ‡/ˆ + ‡[I ˆ. Pada umumnya, ℎ mungkin bergantung pada

beberapa proporsi trimming ~ , dengan menggunakan ℎ = 2! 1 − ~ 3 +

2~ , + 1 3~ atau ℎ = 2! 1 − ~ 3 + 1. Maka dengan breakdown point /

sama dengan proporsi ~. Untuk ~ mendekati 50%, maka akan didapatkan LTS estimator, sedangkan untuk ~ mendekati 0% maka diperoleh OLS estimator.

Suatu estimator LTS juga akan memenuhi sifat kecocokan yang tepat yang dinyatakan sebagai berikut:

Jika terdapat beberapa ˜ sedemikian hingga cendrung lebih dari ! + , − 1

dari suatu observasi yang memenuhiL = + ˜ secara tepat dan dalam posisi

umum, maka penyelesaian LTS sama dengan ˜ apapun bentuk observasinya.

LTS mempunyai kekonvergenan !DFC dengan efisiensi keasimptotikan terhadap distribusi normal.

Langkah-langkah penentuan estimasi dengan menggunakan LTS adalah sebagai berikut:

1. Bentuk ! − ℎ + 1 subsampel dengan tiap subsampel terdiri dari ℎ

observasi.

2. Setiap subsampel dihitung:

LM =1ℎ S L:/

d

N

LM /DdI = 1

ℎ S L:/

/

(20)

3. Hitung jumlah kuadrat dari tiap subsampel:

„( )= S·L:/− LM( )¸ d

N

„(/DdI )= S ·L:/− LM(/DdI )¸

/

( N/DdI )

4. Solusi yang dipilih adalah LM(9) yang memberikan nilai „(9) paling kecil.

3.2.Contoh Ilustrasi Kasus

Data yang digunakan dalam penelitian ini merupakan data sekunder dengan empat variabel bebas yaitu: blood clotting(+ ), prognostic index(+ ), enzyme function test (+ ), liver function test (+¹) dan survival time ( ), dengan jumlah data ! = 30 seperti pada tabel 3.1.

Tabel 3.1. Data Regresi Linear Berganda

No. » ¼½ ¼¾ ¼¿ ¼À No. » ¼½ ¼¾ ¼¿ ¼À

(21)

3.2.1. Estimasi Parameter Regresi Dengan Ordinary Least Square

Berdasarkan data pada tabel 3.1 maka akan ditentukan persamaan regresi linear berganda sebagai berikut:

= + + + + … + +

Dapat ditulis dengan notasi matrix yaitu:

= P +

Dengan P adalah suatu vektor kolom "-unsur dari penduga kuadrat

terkecil biasa parameter regresi dan adalah suatu vektor kolom ! + 1 dari

! residual.

Menduga parameter model regresi linear berganda menggunakan metode ordinary least square. Prosedur OLS biasa dilakukan dengan memilih nilai parameter yang tidak diketahui sehingga jumlah kuadrat kesalahan diperoleh ∑ sekecil mungkin, sehingga dapat dinyatakan

dengan:

S = S8 − P − P − P − ⋯ − P :

Berdasarkan perhitungan pada lampiran 2 dan 3 diperoleh

nilai-nilai yang akan disubsitusikan untuk memperoleh nilai-nilai P , P , P , P dan

P¹ ke dalam persamaan berikut:

∑ = ! P + P ∑ +P ∑ + P ∑ + P¹¹

∑ = P ∑ + P ∑ + P ∑ + P ∑ + P¹∑ ¹

∑ = P ∑ + P ∑ + P ∑ + P ∑ + P¹∑ ¹

∑ = P ∑ + P ∑ + P ∑ + P ∑ + P¹∑ ¹

∑ ¹ = P ∑ ¹ + P ∑ ¹ + P ∑ ¹ + P ∑ ¹ + P¹∑ ¹

Sehingga diperoleh persamaan sebagai berikut:

6.179 = 30 P + 178,2 P + 1.976 P + 2.259 P + 81,42 P¹

(22)

541.877 = 2.259 P + 13.430,6P + 151.311 P + 185.761P + 6.479,03P¹ 20.582,08 = 81,42 P + 517,636 P + 5.538,47P + 6.479,03 P + 252,292 P¹

Berdasarkan persamaan yang telah dijabarkan maka diperoleh persamaan regresi linear berganda yaitu:

h = −682 + 37,2 − 5,42 + 3,80 − 8,8 ¹

3.2.2. Menghitung Nilai Residual

Nilai residual dapat dihitung dengan mengurangkan variabel terikat

terhadap variabel penduga. Perhitungan dapat dilihat pada lampiran 4.

Nilai residual yang distudenkan yaitu:

p =

•´1 − ℎ ≈ p/D[D

Dengan:

• =/D[

= 201.057,033

• = 7.740,696

= √7.740,696

• = 87,981

dimana : ℎ = [

/ =

= 0,26

Maka diperoleh nilai p:

p = tB

j´ DdBB

= tB

(23)

= tB

ÈË,ÊÇ

Dengan memasukkan nilai residualnya maka diperoleh p sampai

dengan p¹ sebagai berikut:

0.447; 0,101; 0,430; 0,371; 0,977; 0,630; 0,716; 0,587; 0,365; 0,976; -0,567; -0,400; 0,545; -0,300; 0,483; -0,752; -0,751; 1,748; -0,734; -0,269; 0,023; 4,071; 0,399; 0,830; -0,150; -0,026; -2,674; 0,442; -0,516; -0,564

Berdasarkan nilai = 0,766 yang artinya hanya 76,6% variabel bebas , , dan ¹ yang mempengaruhi variabel terikat .

Kesimpulan

Jika p > pd |l/Ì dianggap sebagai data pencilan. Dimana pd |l/Ì=

pÍ,/D[D = p , Ë. D¹D = p , Ë. Ë= 1,699. Maka data yang mengandung pencilan yaitu:

• Pengamatan ke-18 dengan 1,748 > 1,699

• Pengamatan ke-22 dengan 4,071 > 1,699

• Pengamatan ke-27 dengan ±2,674 > 1,699

3.2.3. Uji Normalitas Dari Residual

Hipotesis:

e = Sampel berasal dari populasi yang berdistribusi normal

e = Sampel tidak berasal dari populasi yang berdistribusi normal

(24)

Gambar 3.1 Normal Plot dari Residual Persamaan

Residual yang dihasilkan oleh persamaan h = −682 37,2 5,42 3,80 - 8,8 ¹ tidak berdistribusi normal dimana terdapat titik yang menjauh dari garis regresinya pada Gambar 3.1 dimana titik

tersebut merupakan pencilan pada himpunan data. Berdasarkan uji normalitas tidak terpenuhi karena nilai --value-nya 0,018 lebih kecil dari

nilai ~ yaitu 0,05. Oleh karena itu persamaan yang diperoleh tidak dapat

digunakan karena tidak memenuhi asumsi metode OLS yaitu asumsi uji normalitas.

3.2.4. Uji Asumsi Multikolinearitas

Pengujian selanjutnya adalah uji multikoliniearitas sebagai uji asumsi yang perlu dipenuhi dalam regresi berganda.

Hipotesis

e = model regresi memiliki masalah multikolinearitas e = model regresi tidak memiliki masalah multikolinearitas

(25)

Tabel 3.3 Nilai Tolerance dan VIF

Model Collinearity Statistics Tolerance VIF (constant)

¼½ .347 2.878

¼¾ .591 1.692

¼¿ .577 1.734

¼À .231 4.338

Intepretasi Data

Dari tabel 3.3 terlihat bahwa variabel nilai tolerance nya adalah .347 dan VIF nya adalah 2.878, nilai tolerance nya adalah .591 dan VIFnya adalah 1.692, nilai tolerance nya adalah .577dan nilai VIFnya 1.734 dan

¹ nilai tolerance nya .231 dan VIFnya 4.338.

Kesimpulan

Dari tabel 3.3 terlihat bahwa semua variabel bebas mempunyai nilai tolerance lebih dari 0,1 dan memiliki nilai VIF kurang dari 10 sehingga bisa diduga bahwa antar variabel bebas tidak terjadi persoalan multikolinearitas. Untuk itu pada penelitian ini digunakan semua variabel prediktor untuk pemodelan. Karena antar variabel tidak mengandung multikolinearitas maka langkah selanjutnya yaitu pendeteksian pencilan.

3.2.5. Deteksi Pencilan

Pada penelitian ini, untuk mendeteksinya digunakan scatter plot, metode

leverage values, discrepancy (externally studientized residual) dan metode

DfFITS (difference in fit residual).

1. Scatter Plot

(26)

Gambar 3.1.1Scatter Plot antara Residual ( ) dan nilai prediksi

2. Leverage

Leverage value disebabkan adanya data pencilan pada variabel bebas (independent). Deteksi yang digunakan adalah dengan melihat nilai ℎ dan dengan membandingkan nilai cutoffnya. Data ℎ yang lebih besar dari cutoff nya merupakan pencilan. Nilai centroid (mean) variabel bebas dan nilai ℎ yang melebihi nilai cutoff ([I )

/ dengan ,

merupakan banyaknya variabel bebas dan ! adalah banyaknya data.

(27)

0,40 0,35 0,30 0,25 0,20 0,15 0,10 0,05 300 200 100 0 -100 -200 HI1 R E S I1

Scatterplot of RES I1 vs HI1

Gambar 3.1.2Scatter Plot antara Leverage(ℎ ) dan nilai prediksi ( )

3. Discrepancy

Penentuan nilai pencilan berdasarkan nilai Externally studientized residuals berdasarkan penentuan nilai cutoffnya yang mengikuti distribusi pdengan o = ! - , - 1. Jika nilai p lebih besar dari nilai pTm}Vn dengan derajat kepercayaan ~, maka data tersebut memiliki nilai discrepancy yang besar dan dikategorikan sebagai pencilan. Untuk data pada tabel 3.1 nilai pTm}Vn dengan derajat kepercayaan ~ =0.05 adalah ±1.7081. Nilai discrepancynya adalah data ke-18, 22 dan 27 dengan nilai Externally studientized residuals masing-masing adalah 1.7836, 6.4455 dan -2.5748 yang lebih besar dari nilai pTm}Vn.

600 500 400 300 200 100 0 -100 6 4 2 0 -2 tITS1 T R E S 2

Scatterplot of TRES2 vs tITS1

(28)

Dari plot pda gambar 3.1.2 dapat dilihat bahwa terdapat data pencilan yang berpengaruh pada variabel Y. Hasil pendeteksian data diperoleh menggunakan software MINITAB dan pendeteksian terlampir pada lampiran 5.

4. Metode DfFITS (Difference in fit Standardized)

Deteksi pencilanselanjutnya adalah melihat nilai DfFIT (Difference in fit Standardized). Sebelumnya akan disajikan gambar scatter plot yang menyajikan DfFITS dan variabel Unstandartized Predicted Value.

Gambar 3.1.4Scatter Plot antara Difference in fit standartized( ) dan nilai Residual ( )

Dari plot pada gambar 3.1.4 menunjukan bahwa ada titik yang menjauh dari titik lainnya, artinya terdapat data yang teridentifikasi sebagai pencilan. Maka perlu pengecekan data. Selanjutnya pada hasil pengolahan data menggunakan metode DfFITS untuk masing-masing data seperti pada lampiran. Dengan ketentuan jika nilai DfFITS masing-masing

data yang lebih dari 2u[

/ maka dikategorikan sebagai pencilan. Batas nilai

penentuan berdasarkan DfFITS f 0,7303 merupakan data pencilan. Dari

(29)

dilakukan analisis regresi menggunakan metode yang robust untuk data yang menggandung pencilan, agar hasil regresi yang dihasilkan lebih tepat dan efisien.

Langkah selanjutnya adalah melakukan analisis regresi untuk mendapatkan nilai estimasi parameter dari data tersebut menggunakan metode robust Least Trimmed Square (LTS).

3.2.6. Estimasi Least Trimmed Square (LTS)

Mengestimasi mengguanakan metode robust least trimmed square (LTS) memerlukan beberapa iterasi untuk mendapatkan model terbaik. Pada iterasi pertama diperoleh persamaan model regresi linear berganda dengan

menggunakan metode OLS adalah h = −682 + 37,2 - 5,42 3,80 -8,8 ¹ dan nilai residualnya adalah ∑dN =201.057,033.

Karena ℎ = ‡ ˆ + ‡(¹I )ˆ = 17,5 ≈ 18 data, maka pada iterasi

selanjutnya data yang digunakan sebanyak 18 data dengan mengurutkan nilai residual dari terkecil. Estimasi menggunakan bantuan software MINITAB 15,SPSS 21 dan Microsoft Excel dapat dilihat pada lampiran 7.

Selanjutnya dilakukan iterasi ke-2 karena pada iterasi pertama masih terdapat pencilan pada himpunan data. Iterasi ke-2 terdiri dari 18 data diperoleh model regresi linear bergandanya adalah h = −628 + 40,4 5,13 2,94 10,5 ¹ dan ∑dN =9.794,411 . Berdasarkan data pada lampiran 8 terlihat bahwa nilai residual pada iterasi ke-2 lebih baik dari nilai residual pada iterasi pertama. Iterasi ke-2 merupakan iterasi terakhir. Hal ini dikarenakan tidak terdapat pencilan pada iterasi selanjutnya.

(30)

Tabel 3.4. Hasil iterasi least trimmed square (LTS)

Iterasi ? ℎ P(/) P(/) P(/) P(/) P¹(/) S

d

N

1 30 18 -682 37,2 5,42 3,80 8,8 201.057,033 2 18 12 -628 40,4 5,13 2,94 10,5 9.794,411

Dari tabel 3.4. terlihat bahwa ∑dN terkecil adalah pada iterasi

ke-2. Artinya bahwa model regresi linear berganda yang paling baik yang diperoleh dengan metode Least Trimmed Square (LTS) adalah model

h = −682 + 40,4 + 5,13 + 2,94 + 10,5 ¹

3.2.7. Uji Parameter LTS Serentak

Uji parameter serentak digunakan untuk mengetahui ada tidaknya

pengaruh variabel terikat terhadap variabel bebasnya. Hipotesis

[image:30.595.131.495.502.608.2]

e ∶ = = = = ¹= 0 e : ∃ ≠ 0; dimana = 1,2,3,4

Tabel 3.5. Analisis Variansi LTS

Source Jumlah Kuadrat Df RK F Sig

Regression 258.385,200 4 64596,300 85,738 0,000

Residual

Error 9.794,411 13 754,416

Total 268.179,611 17

Taraf signifikansi: ~ = 0,05

Uji statistik

(31)

Kriteria Uji

• Tolak e jika d |l/Ì> (0.05: ,: ! − , − 1)

• Tolak e jika nilai signifikasi < ~

Keputusan

Diperoleh nilai d |l/Ì= 85,738 dan (0.05:,: ! − , − 1) = 3,26. Karena d |l/Ì> (0.05:,: ! − , − 1), dengan demikian e ditolak.

Kesimpulan

Karena e ditolak maka dapat disimpulkan bahwa e diterima dengan e : ∃ ≠ 0; dimana = 1,2,3,4 yang berpengaruh terhadap

model. Berdasarkan tabel 3.5 terlihat bahwa nilai signifikan adalah 0,00 < 0,05 yang artinya bahwa variable bebas memberikan pengaruh secara serentak pada model.

3.2.8. Uji Parsial Parameter LTS

Uji parsial parameter dilakukan untuk mengetahui pengaruh masing-masing variabel bebas terhadap variabel terikatnya.

Hipotesis

[image:31.595.143.518.578.748.2]

e : = 0; untuk suatu = 1,2,3,4 e : ∃ ≠ 0; untuk suatu = 1,2,3,4

Tabel 3.6. Coefficient LTS

Model

Unstandasdize

Coefficient Standartized

Coefficient t Sig B Std.Error

Costant -628,011 78,444 -8,006 0,000

+ 40,427 6,451 0,635 6,267 0,000

+ 5,133 0,779 0,445 6,588 0,000

+ 2,940 0,557 0,417 5,281 0,000

(32)

Taraf signifikansi: ~ = 0,05

Uji statistik

pd |l/Ì=

P

u•po 78 P :

dengan

P adalah estimasi parameter

•po 78 P : adalah estimasi standar deviasi dari

Kriteria Uji

e ditolak jika ®pd |l/Ì® > pÍ/ ,Ó atau tolak e jika nilai signifikansi kurang dari ~.

Keputusan

Berdasarkan tabel 3.6 diperoleh nilai signifikan , , dan

adalah 0,000 dan nilai signifikan ¹ adalah 0,469.

Kesimpulan

Berdasarkan nilai signifikan pada keputusan yang diperoleh parameter memiliki nilai signifikannya 0,00 < 0,05 maka e ditolak. Parameter , dan memiliki nilai signifikan 0,00 < 0,05 maka e

ditolak atau e diterima dimana , , ≠ 0 artinya parameter , dan

mempunyai pengaruh terhadap variabel terikat . Sedangkan untuk

parameter ¹ memiliki nilai signifikan 0,469 > 0,05 maka e diterima

dimana ¹= 0, artinya ¹ tidak memiliki pengaruh terhadap variabel terikat. Jadi variabel bebas + , + , + berpengaruh secara parsial terhadap

model regresi linear berganda. Sedangkan variabel bebas +¹ tidak

(33)

BAB 4

KESIMPULAN DAN SARAN

4.1. Kesimpulan

Mengestimasi parameter regresi linear berganda dapat menggunakan metode Ordinary Least Square (OLS) dimana metode OLS harus memenuhi setiap asumsi dari Best Linear Unbiased Estimator (BLUE). Proses pengestimasian yang tidak memenuhi asumsi BLUE karena adanya pencilan dilihat dari data tidak berdistribusi normal maka metode OLS tidaklah efisien untuk digunakan. Cara mengatasinya dengan menggunakan metode robust least trimmed square dimana nilai-nilai konstanta dan koefisien dari least trimmed square tidak terpengaruh akan adanya data pencilan karena least trimmed square memiliki breakdown point sampai 50%. Dengan breakdown point /∗ sama dengan proporsi ~ untuk ~ mendekati 50%, maka akan didapatkan LTS

estimator, sedangkan untuk ~ mendekati 0% maka diperoleh OLS estimator.

Sifat metode LTS, jika terdapat beberapa ˜ sedemikian hingga cendrung lebih

dari (! + , − 1) dari suatu pengamatan yang memenuhi L = + ˜ secara

tepat dan dalam posisi umum, maka penyelesaian LTS sama dengan ˜ apapun

bentuk pengamatannya. LTS mempunyai kekonvergenan !DFC dengan efisiensi

keasimptotikan terhadap distribusi normal. Estimasi menggunakan least trimmed square menghasilkan persamaan yang lebih baik dilihat berdasakan jumlah kuadrat total yang memiliki nilai semakin kecil. Semakin kecil nilai jumlah kuadrat totalnya maka akan semakin baik garis regresi yang diperoleh.

4.2.Saran

(34)

BAB 2

TINJAUAN PUSTAKA

2.1. Regresi Linear Berganda

Regresi linear berganda adalah regresi dimana variabel terikatnya

dihubungkan atau dijelaskan dengan lebih dari satu variabel bebas

, , …, dengan syarat variabel bebas masih menunjukkan hubungan

yang linear dengan variabel terikat. Hubungan fungsional antara variabel terikat dengan variabel bebas , , … , secara umum dapat

dituliskan sebagai berikut:

• Untuk populasi

= + + + + … + + (2.1)

• Untuk sampel

= + + + + … + + (2.2)

di mana:

= 1,2, ⋯ , !

= variabel terikat pada pengamatan ke-

, , … , = variabel bebas pada pengamatan ke-"variabel ke- , , , … , = parameter regresi

= nilai kesalahan (error)

Apabila terdapat sejumlah ! pengamatan dan " variabel bebas maka

untuk setiap pengamatan atau responden mempunyai persamaannya seperti berikut:

= + + + + … + +

= + + + + … + +

= + + + + … + +

⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮

(35)

Apabila persamaan regresi linear berganda untuk setiap pengamatan dinyatakan dengan notasi matriks maka menjadi:

$ % % % & ⋮ ' ( ( ( ) = $ % % % &11 1 ⋮

1 ⋮ ⋮ ⋮

⋯ ⋯ ⋯ ⋱ ⋯ ⋮ '( ( ( ) $ % % % & ⋮ ' ( ( ( ) + $ % % % & ⋮ ' ( ( ( ) atau

= + (2.3)

dengan:

adalah vektor variabel terikat berukuran ! + 1.

adalah matriks variabel bebas berukuran ! + , − 1 . adalah vektor parameter berukuran , + 1.

adalah vektor error berukuran ! + 1.

Menurut Gujarati penggunaan analisis regresi linear berganda tidak terlepas dari asumsi-asumsi error berikut:

1. Asumsi = 0 menyatakan bahwa rata-rata atau nilai harapan vektor

setiap komponennya bernilai nol. Dengan adalah vektor kolom ! + 1 dan

0 adalah vektor nol. Maka = 0, berarti:

$ % % % & ⋮ /'( ( ( ) = $ % % % & ⋮ / ' ( ( ( )

= 0 (2.4)

2. Asumsi 0 1 merupakan suatu notasi yang mencakup 2 hal, yaitu

varian dan kovarian kesalahan pengganggu.

0 = $ % % % & ⋮ /'( ( ( )

2 , , , ⋯ , /3 (2.5)

Dimana 0 adalah transpose dari vektor kolom , dengan melakukan

(36)

= 0 = 4 ⋮ / ⋮ / ⋯ ⋯ ⋮ ⋯ / / ⋮ /

5 (2.6)

Dengan menggunakan nilai harapan untuk setiap unsur dalam

matriks (2.6) sehingga diperoleh:

0 = 4 ⋮ / / ⋯ ⋯ ⋮ ⋯ / / ⋮ /

5 (2.7)

Karena adanya asumsi tentang homoskedastisitas, yaitu bahwa setiap kesalahan pengganggu mempunyai varian yang sama = 1 , untuk semua dan tidak ada korelasi serial artinya antar kesalahan pengganggu

yang satu dengan yang lainnya bebas, "678 9: = 0.

0 = 410 10 ⋯⋯ ⋮

0 0⋮ ⋯⋱

0 0 ⋮ 1 5

= 1 <

1 0 ⋯ 0 1 ⋯

0 0⋮ ⋯⋱

0 0 ⋮ 1

= = 1 (2.8)

Dengan adalah matriks identitas berukuran ! + !. Matriks (2.7)

dan (2.8) disebut matriks varians-kovarians dari kesalahan penggangu .

Unsur pada diagonal utama dari matrik (2.7) memberikan varians dan unsur diluar diagonal utama memberikan kovarian, berdistribusi normal

dengan mean nol dan varians konstan 1 . ~? 0, 1

Pada rumus parameter regresi dan dalam regresi linear

sederhana dan parameter regresi , , ,⋯, pada regresi linear

berganda, diduga secara berturut-turut dengan , dan , , ,⋯,

(37)

2.2.Koefisien Determinasi Berganda

Menyatakan keeratan hubungan antara variabel terkat dan variabel

bebas , , ⋯ , / pada regresi linear berganda akan dinyatakan dengan

koefisien determinasi berganda. Besarnya koefisien determinasi berganda

dari persamaan regresi linear berganda yaitu:

= 1 −

= ∑ − ∑

dimana:

∑ = ∑ − − − ⋯ −

= ∑ − − − ⋯ − karena = − −

− ⋯ −

= ∑ − ∑ − ∑ −⋯ − ∑

= ∑ ; (dimana ∑ = ∑ = ⋯ = ∑ = 0

= ∑ − − − ⋯ −

= ∑ − ∑ − ∑ − ⋯ − ∑

= ∑ ABCD ∑ABCDEF∑GFBABDEC∑GCBABD⋯DEB∑ GHBAB

∑ABC

= EF∑GFBABIEC∑ GCBABI⋯∓∑ GHBAB ∑ ABC

dimana nilai berada dalam interval 0 ≤ ≤ 1.

Adapun semakin besar nilai artinya semakin baik suatu garis

regresi linear digunakan sebagai suatu pendekatan. Dan apabila nilai sama

dengan 1 (satu) berarti pendekatan tersebut semakin baik.

2.3. Residual

Residual atau sisaan dalam regresi linear sederhana merupakan selisih dari nilai prediksi dengan nilai yang sebenarnya atau = L − LM . Namun

penggunaan jarak = L − LM tidaklah memuskan. Dengan meminimumkan

diperoleh hasil yang umum seperti berikut :

∑ = ∑/ L − LM

N /

(38)

Jika nilai pengamatan terletak dalam garis regresi maka nilai residualnya sama dengan nol. Jadi, jika total jarak atau nilai mutlak dari residual sama dengan nol ∑ | | = 0/N artinya semua nilai pengamatan

berada pada garis regresi. Semakin besar nilai residualnya maka garis regresi semakin kurang tepat digunakan untuk memprediksi. Yang diharapkan adalah total residualnya kecil sehingga garis regresi cukup baik untuk digunakan.

2.4. Metode Ordinary Least Square (OLS)

Metode Ordinary Least Square (OLS) merupakan suatu metode untuk mendapatkan garis regresi yang baik yaitu sedekat mungkin dengan datanya sehingga menghasilkan prediksi yang baik (Widarjono, 2005).

Metode OLS harus memenuhi asumsi-asumsi yang ada dalam proses pengestimasian parameter sehingga hasil estimasinya memenuhi sifat Best Linear Unbiased Estimator (BLUE). Pada dasarnya metode OLS meminimumkan jumlah kuadrat error.

P = $ % % % % &PP

P ⋮ P '(

( ( ( )

⇒ = P + ⇒ = − P (2.10)

Dengan P adalah suatu vektor kolom "-unsur dari estimasi OLS parameter regresi dan adalah suatu vektor kolom ! + 1 dari ! residual.

Untuk mengestimasi parameter model regresi linear berganda digunakan metode OLS. Prosedur metode OLS dilakukan dengan memilih nilai parameter yang tidak diketahui sehingga jumlah error diperoleh ∑ sekecil mungkin, sehingga dapat dinyatakan dengan:

$ % % % & ⋮ /'( ( ( ) = $ % % % & ⋮ /' ( ( ( ) − $ % % % &11 1 ⋮

1 /⋮ ⋮//

(39)

= − − − − ⋯− ∑/

N = ∑/N − − − − ⋯ − (2.11)

Kemudian, untuk menentukan , , , ⋯ , dengan meminimumkan

jumlah kuadrat residualnya ∑/N secara parsial terhadap P , P , P , ⋯, P

dan samakan dengan 0 maka dapat dituliskan: R ∑

R P = 2 S8 − P − P − P − ⋯ − P : −1 = 0

/

N R ∑

R P = 2 S8 − P − P − P − ⋯− P : − = 0

/

N R ∑

R P = 2 S8 − P − P − P − ⋯− P : − = 0

/

N ⋮

R ∑

R P = 2 S8 − P − P − P − ⋯ − P : − = 0

/

N

Jika persamaannya disederhanakan dan disusun maka akan menjadi:

! P + P ∑ +P ∑ + ⋯ + P ∑ = ∑

P ∑ + P ∑ + P ∑ + ⋯ + P ∑ = ∑

P ∑ + P ∑ + P ∑ + ⋯ + P ∑ = ∑ (2.12)

P ∑ + P ∑ + P ∑ + ⋯ + P ∑ = ∑

dimana persamaan 2.12 disebut sebagai persamaan normal

Dengan menjumlahkan persamaan = P + P + P + ⋯ + P untuk seluruh pengamatan ! memberikan persamaan pertama dalam persamaan (2.12) kemudian mengalikannya dengan pada kedua sisinya dan

menjumlahkan untuk seluruh ! maka dihasilkan persamaan kedua. Begitu

(40)

Dinyatakan dalam bentuk matriks, persamaan normal akan menjadi:

$ % % % & !

∑ ⋮ ∑ ∑ ∑ ∑ ⋮ ∑ ∑ ∑ ∑ ⋮ ∑ ⋯ ⋯ ⋯ ⋮ ⋯ ∑ ∑ ∑ ⋮ ∑ '( ( ( ) $ % % % % & PP

P ⋮ P '(

( ( ( ) = $ % % %

& 1 1 ⋯

⋮ ⋮ ⋯⋮ ⋯ 1 ⋮ /' ( ( ( ) $ % % % & ⋮ /' ( ( ( )

T P = T (2.13)

Persamaan (2.13) diperoleh dari menurunkan persamaan mariks terhadap P,

sehingga diperoleh: U VWV

UEX = −2 T + 2 T P , kemudian samakan hasil dengan 0, sehingga

diperoleh:

−2 T + 2 T P = 0

2 T P = 2 T

T P = T ; kali dengan T D sehingga diperoleh

T D T P = T D T

P = T D T

P = T D T (2.14)

Dengan T D = 4

! ∑ / ⋯ ∑ / ∑ / ⋯ ⋮ ∑ / ⋮ ∑ / / ⋯ ⋯ ∑ ∑ / / ⋮ ∑ / 5

Untuk menunjukkan bahwa ∑/N minimum, maka hasil turunan

pertama dari jumlah kuadrat residualnya harus diturunkan sekali lagi sehingga menghasilkan turunan kedua, dan nilainya harus lebih besar dari nol. Maka dapat dituliskan:

R ∑

R P =

R R PY

R8 T − 2 PT T + PT T P:

R P Z

= R PR 8−2 T + 2 T P:

(41)

Dipastikan bahwa turunan kedua dari ∑/N terhadap P haruslah bernilai positif.

Sehingga nilai ∑/N akan minimum apabila nilai 2 T lebih besar dari nol.

Karena matriks T adalah turunan positif dengan semua unsur diagonalnya

berbentuk kuadrat, maka turunan kedua dari ∑/N terhadap P bernilai positif

yang artinya P = T D T minimum.

2.5.Pencilan (Outliers)

Pencilan adalah suatu data yang menyimpang dari sekumpulan data yang lain. Pencilan diartikan pula sebagai pengamatan yang tidak mengikuti sebagian besar pola dan terletak jauh dari pusat data. (Ferguson, 1961)

Pengamatan yang dikategorikan sebagai pencilan mempunyai nilai residual yang relatif besar untuk ukuran residual pada ketepatan pengamatan. Diasumsikan bahwa hubungan antara dua variabel + dan L diperkirakan

dengan garis lurus. Berdasarkan model regresi linear berganda pada persamaan (2.1) dengan dan , , ⋯ , adalah parameter regresi untuk diestimasi.

Nilai kesalahan ( ) yang tidak diperhatikan dan diasumsikan berdistribusi

normal.

2.5.1. Jenis Pencilan

Model regresi menggambarkan hubungan dari beberapa variabel bebas

( , , ⋯ , / dengan variabel terikat ( , , ⋯ , / . Model regresi

diperoleh dengan menggunakan metode estimasi ordinary least square (OLS). Metode OLS didasarkan pada asumsi bahwa terjadinya kesalahan pada model yang dihasilkan yang seharusnya berdistribusi normal. Karena dengan residual berdistribusi normal metode OLS memberikan estimasi parameter yang optimal bagi model regresi.

(42)

diperoleh menjadi tidak efisien. Keberadaan pencilan pada data mungkin terdapat pada variabel bebasnya ( ) ataupun variabel terikatnya ( ).

Pencilan pada arah-L akan memberikan nilai residual yang sangat

besar (positif atau negatif). Hal ini disebabkan karena data pencilan mempunyai jarak yang sangat besar terhadap garis OLS. Sedangkan data pencilan pada arah-+ memberikan pengaruh yang sangat besar pada estimator metode OLS karena pencilan pada arah-+ disebut sebagai titik

leverage.

Secara umum, suatu pengamatan + ,L dikatakan suatu titik

leverage ketika + terletak jauh dari sebagian besar data pengamatan dalam sampel. Sebagai catatan, suatu titik leverage tidak memasukkan nilai L ke dalam perhitungan, jadi titik + , L tidak harus menjadi

pencilan pada regresi. Ketika + , L dekat terhadap garis regresi yang

ditentukan dengan sebagian besar data, maka hal tersebut dapat diasumsikan sebagai titik leverage yang baik. Oleh karena itu, untuk menyimpulkan bahwa + , L adalah suatu titik leverage hanya merujuk pada kepotensialnya besar mempengaruhi koefisien-koefisien regresi (karena pencilannya hanya + ). Titik + ,L tidak selalu dilihat sebagai

penyebab pengaruh yang besar terhadap koefisien-koefisien regresi, karena bisa saja titik + , L tepat pada garis yang ditentukan

kecendrungannya dengan sejumlah besar himpunan data lainnya.

Regresi linear berganda + , + , ⋯ , + terletak pada suatu ruang berdimensi ,. Suatu titik leverage tetap didefinisikan sebagai suatu titik 8+ , ⋯ , + [, L : dimana 8+ ,⋯ , + [: merupakan titik-titik yang terpisah dari himpunan data. Suatu titik leverage yang berpotensial berpengaruh besar pada koefisien regresi OLS, bergantung pada nilai aktual dari L ,

(43)

2.5.2. Deteksi Pencilan

Langkah awal yang harus dilakukan dalam mendeteksi pencilan yaitu dengan melihat kemungkinan bahwa pencilan merupakan data yang

berpengaruh (terkontaminasi). Data pencilan dapat dikenali dengan memeriksa data mentahnya (raw) secara visual atau dari diagram pencar pada variabel bebas (Jacob, 2003: 394). Jika terdapat lebih dari dua variabel bebas, beberapa pencilan akan sangat sulit untuk dideteksi dengan pemeriksaan visual. Oleh karena itu, dibutuhkan bantuan lain pada pemeriksaan visual yang dapat membantu dalam pendeteksian pencilan.

Dalam statistik, data pencilan harus dilihat terhadap posisi dan

sebaran data yang lainnya sehingga akan dievaluasi apakah data pencilan tersebut perlu dihapus atau tidak. Ada berbagai macam metode yang dapat digunakan untuk mendeteksi adanya data pencilan yang berpengaruh dalam koefisien regresi diantaranya adalah metode grafis, boxplot, scatter plot, leverage values, discrepancy, cook’s distance, DfBETA(s), Goodness of FIT,dan metode DfFITS. Namun pada skripsi ini pendeteksian pencilan yang akan dibahas menggunakan scatter plot, metode leverage values, discrepancy, dan metode DfFITS .

2.5.2.1. Leverage Values

Pendeteksian dengan menggunakan leverage values hanya menggambarkan pengamatan yang terjadi pada variabel bebas. Leverage values menginformasikan seberapa jauh pengamatan tersebut dari nilai mean himpunan data variabel bebas. Jika hanya terdapat satu variabel bebas, leverage dapat dituliskan seperti:

\ 7 ]^_ = ℎ =/+ GBD`aC

∑bC (2.15)

(44)

meannya. Jika pengamatan ke- bernilai cb, maka bentuk kedua dari persamaan (2.15) akan 0 dan ℎ akan memiliki nilai kemungkinan yang

minimum

/. Misalkan pengamatan ke- nilai pada jauh dari cb, maka nilai leverage akan naik. Nilai maksimum dari ℎ adalah 1 nilai mean dari leverage untuk !-pengamatan dalam suatu sampel adalah cdBB= I

/ , dengan " merupakan jumlah variabel bebas.

Penjabaran perhitungan leverage yang dijelaskan merupakan hitungan untuk pengamatan satu variabel bebas, dapat digeneralisasi untuk pengamatan dengan variabel bebas lebih dari satu. Untuk pengamatan dengan banyak variabel bebas, hal yang menarik adalah seberapa jauh nilai-nilai untuk setiap " variabel untuk pengamatan ke- , , , ⋯, ,

dari centroid variabel bebas. Centroid merupakan mean dari data, c , c , ⋯, c . Perhitungan nilai ℎ untuk pengamatan ini dengan mengguanakan persamaan:

e = 0 D 0 (2.16)

dengan e merupakan matriks ! + ! dan merupakan matriks ! + " + 1 . Dimana ! merupakan banyaknya data, dan " merupakan jumlah koefisien ( variabel bebas ditambah 1 sebagai konstanta . Diagonal

dari e berisi nilai leverage. Jadi, leverage untuk pengamatan ke- , ℎ merupakan nilai dari baris ke- dan kolom ke- dari e.

Penentuan nilai yang memiliki leverage yang besar didasarkan pada nilai cutoff. Nilai ℎ yang melebihi nilai cutoff dideteksi sebagai pencilan. Adapun nilai cutoff yang telah ditentukan menurut Jacob Cohen adalah I

/ untuk data yang jumlahnya ! > 15, sedangkan untuk data

yang jumlahnya ! ≤ 15 digunakan cutoff I

(45)

2.5.2.2. Discrepancy

Mengidentifikasi pencilan menggunakan discrepancy yang banyak digunakan adalah dengan Externally Studientized Residuals. Externally studientized residuals dengan memisalkan jika data pencilan sebuah pengamatan dihapuskan dari himpunan data. Misalkan h nilai yang

merupakan prediksi pengamatan ke- , tetapi pengamatan ke- dihapuskan

dari himpunan data. Pencilan berkontribusi secara substansial terhadap estimasi variansi residual sekitar garis regresi dan disimbolkan dengan c iVj klmn . Sedangkan c iVj klmn untuk variansi residual dengan pengamatan ke- yang merupakan pencilan dihapuskan dari himpunan data. Misalkan o sebagai perbedaan antara data asli, , dengan nilai

prediksi untuk pengamatan ke- yang berasal dari himpunan data dengan

pengamatan ke- yang dihapuskan yaitu o = − h . Externally studientized residuals untuk pengamatan ke- , p dihitung dengan:

p = kB

qrsB (2.17)

dimana o merupakan nilai residual yang dihapuskan:

o = tB

DdBB (2.18)

dan nilai standar residual juga dapat dihitung dengan:

kB= u

`qvwxBsyz{ B

DdBB (2.19)

Jika persamaan (2.18) dan (2.19) dimasukkan kedalam persamaan (2.17) maka akan menjadi:

p = tB

u`qvwxBsyz{ B DdBB

(2.20)

(46)

nilai p > p|m}Vn dengan derajat kepercayaan ~ , maka data tersebut

memiliki nilai discrepancy yang besar dan dikategorikan sebagai pencilan.

2.5.2.3. Metode DfFITS

Difference fitted value FITS merupakan metode yang menampilkan nilai perubahan dalam harga yang diprediksi bilamana kasus tertentu dikeluarkan, yang sudah distandarkan. Perhitungan DfFITS di rumuskan sebagai berikut :

= p • dBB DdBB€

F

C (2.21)

dimana p adalah studentized deleted residual untuk pengamatan ke- dan ℎ adalah nilai pengaruh untuk kasus ke- dengan:

p = u•‚ƒ Dd/D D BB DtBCW

(2.22)

adalah residual ke- dan JKG adalah jumlah kuadrat galat.

Suatu data yang mempunyai nilai absolute DfFITS lebih besar dari 2u I/ maka didefinisikan sebagai pencilan, dengan " banyaknya variabel

bebas dan ! banyaknya observasi (Soemartini: 2007).

2.6. Regresi Robust

Regresi robust merupakan metode yang penting untuk menganalisis suatu himpunan data yang mengandung pencilan. Regresi robust digunakan untuk mendeteksi pencilan dan memberikan hasil yang resisten terhadap adanya data pencilan. Menurut Aunuddin 1999, regresi robust tujuannya untuk mengatasi adanya data ekstrim serta meniadakan pengaruhnya terhadap hasil pengamatan tanpa terlebih dahulu melakukan identifikasi.

(47)

a. Sama baiknya dengan metode ordinary least square ketika semua asumsi terpenuhi dan tidak terdapat titik data yang berpengaruh.

b. Dapat menghasilkan model regresi yang lebih baik daripada ordinary least square ketika asumsi tidak terpenuhi dan terdapat titik data yang berpengaruh.

c. Perhitungan cukup sederhana dengan melakukan iterasi sampai memperoleh estimasi terbaik yang mempunyai standar error parameter yang paling kecil ataupun konvergen ke nol.

2.7. Least Trimmed Square (LTS)

Estimasi least trimmed square adalah dengan high breakdown point yang dikenalkan oleh Roesseuw (1984). LTS merupakan suatu metode estimator parameter regresi robust untuk meminimumkan jumlah kuadrat h residual (fungsi objektif) dan sebagai metode alternatif robust untuk mengatasi kelemahan metode OLS, yaitu dengan menggunakan sebanyak ℎ ℎ ≤ ! .

„…Tq = S :/

d

N

di mana:

„…Tq : Estimasi least trimmed square

h : ‡/ˆ + ‡ [Inˆ

: kuadrat error yang diurutkan dari yang terkecil ke terbesar < < < … < < … < d < … < /

Jumlah h menunjukkan sejumlah subset data dengan kuadrat fungsi objektif terkecil. Nilai h pada persamaan diatas akan membangun breakdown point yang besar sebanding dengan 50%. Untuk mendapatkan nilai residual pada LTS, digunakan algoritma LTS menurut Rousseeuw dan Van Driessen

(48)

= 8 − P − P − P − ⋯ − P :

Setelah itu menghitung ∑dNŠ dengan ℎ = ‡/ˆ + ‡([In)ˆ pengamatan

dengan nilai terkecil. Tahapan-tahapan dilakukan sampai diperoleh nilai

residual terkecil dan konvergen.

2.8. Breakdown Point

Breakdown point dari suatu regresi estimator adalah salah satu cara yang dapat digunakan untuk mengukur ke-robust-an suatu estimator. Breakdown point merupakan proporsi minimal dari banyaknya pencilan dibandingkan seluruh data pengamatan. Salah satu regresi robust yang mempunyai breakdown point adalah regresi robust dengan metode Least Trimmed Square (LTS). Metode estimasi LTS mempunyai breakdown point 50%. Breakdown point 50% adalah breakdown point yang tinggi.

Definisi T adalah sebuah estimator, Z adalah sebuah sampel dari ! pengamatan dimana (‹) = P. Misalkan ‹0 bagian ‹ dimana Œ dari ! pengamatan yang mengandung pencilan. Bias maksimal yang menyebabkan data menjadi rusak yaitu

^•(Œ; , ‹) = sup ’W || (‹

0) − (‹)||

Maka breakdown point( /∗) dapat didefinisikan dengan

/∗( , ‹) = Œ ! ”Œ! ; ^• (Œ; , ‹) ^o^\^ℎ ! ! p •

Untuk OLS , dapat dilihat jika adanya pencilan cukup diperhatikan pada T untuk semua batas. Oleh karena itu, breakdown point sama dengan:

(49)

BAB 1

PENDAHULUAN

1.1. Latar Belakang

Regresi linear berganda merupakan salah satu metode statistik yang digunakan untuk memodelkan dan menyelidiki hubungan antara satu variabel terikat (dependent ) dengan dua atau lebih variabel bebas (independent ). Mendapatkan model regresi linear berganda dapat diperoleh dengan melakukan estimasi terhadap parameter-parameternya dengan menggunakan metode tertentu. Salah satu metode yang dapat digunakan untuk mengestimasi parameter-parameter adalah metode kuadrat terkecil (Ordinary Least Square/OLS). Metode OLS harus memenuhi asumsi-asumsi yang ada dalam proses pengestimasian parameter sehingga hasil estimasinya memenuhi sifat Best Linear Unbiased Estimator (BLUE). Beberapa asumsinya antara lain adalah residual harus berdistribusi normal, variansnya homogen dan tidak terjadi multikolonieritas. Apabila data tidak memenuhi salah satu asumsi misalnya disebabkan adanya pencilan, maka penduga OLS yang diperoleh menjadi tidak efisien.

Pencilan (outlier) adalah data yang tidak mengikuti pola umum. Pencilan disebabkan karena adanya sumber data yang berbeda dan error pada saat pengukuran dan pengumpulan data. Adanya pencilan dapat menggangu proses analisis data, sehingga dapat mengakibatkan varians menjadi besar dan interval kepercayaan memiliki rentang yang lebar. Jika terdapat pencilan maka OLS tidak akurat untuk mengestimasi parameter. Untuk mengatasi masalah data yang mengandung pencilan salah satu metode yang dapat digunakan adalah metode regresi robust.

(50)

besar data. Suatu estimator robust mempunyai kemampuan mendeteksi pencilan sekaligus menyesuaikan estimasi parameter regresi. Metode robust memiliki delapan macam metode yaitu M-Estimator, Least Trimmed Square (LTS), Scale Estimator, MM-Estimator, Least Mean Square Estimator, Weigth Estimator, L-Estimator dan Ridge Estimator.

Metode robust estimasi LTS memiliki kemampuan yang lebih baik dibandingkan dengan metode-metode lainnya karena mampu mengatasi pencilan yang disebabkan oleh variabel bebas maupun variabel terikatnya dengan menggunakan algoritma LTS yang lebih mudah. Metode LTS merupakan penaksir dengan high breakdown point. Dimana konsep dari high breakdown point yaitu untuk mengetahui kemampuan suatu penaksir dalam menghasilkan nilai taksiran yang resisten terhadap adanya pencilan dalam jumlah tertentu. Dalam proses estimasinya, LTS hanya akan memangkas sebaran data berdasarkan jumlah pencilan yang teramati sehingga menghasilkan fungsi objektif yang mengecil dan konvergen ke nol (0). Adapun tujuan yang ingin dicapai yakni mendapatkan nilai parameter model regresi linear berganda yang robust terhadap kehadiran pencilan. Metode LTS tidak membuang bagian data pencilan tetapi menemukan model fit dari himpunan data (Rousseeuw, 1984).

Menentukan metode yang lebih efisien ada berbagai kriteria yang bisa ditetapkan sebagai acuannya, namun pada penelitian ini akan dilihat dari kriteria nilai (koefisien determinasi) dan nilai residualnya. Jika nilai

besar atau mendekati 1 berarti variabel-variabel bebas memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variansi variabel terikat sebaliknya jika nilai mendekati 0 maka semakin kecil (tidak baik) nilai

(51)

Peneliti akan mengkaji metode least trimmed square dalam proses mengestimasi parameter regresi linear berganda untuk mengetahui tingkat efisiensinya dengan judul tugas akhir yaitu “Kajian Metode Robust Least Trimmed Square (LTS) dalam Mengestimasi Parameter Regresi Linear Berganda Untuk Data Yang Mengandung Pencilan”.

1.2. Perumusan Masalah

Berdasarkan latar belakang yang telah diuraikan, permasalahan dalam penelitian ini adalah mengkaji metode robust Least Trimmed Square (LTS) dalam mengestimasi parameter pada model regresi linear berganda yang

datanya mengandung pencilan. Dengan menentukan efisiensi metode Least Trimmed Square (LTS) terhadap data yang mengandung pencilan. Metode LTS sebagai salah satu metode penduga parameter regresi robust terhadap data yang mengandung pencilan.

1.3.Batasan Masalah

Pada skripsi ini, untuk menghindari pemecahan masalah yang akan melebar maka batasan masalahnya adalah:

1. Hanya mengkaji metode robust least trimmed square dalam mengestimasi parameter regresi linear berganda untuk data yang mengandung pencilan. 2. Pengidentifikasian adanya pencilan hanya menggunakan metode leverage

values, discrepancy dan metode DfFITS.

1.4. Tujuan Penelitian

Berdasarkan permasalahan yang telah dirumuskan, tujuan dilakukannya penelitian adalah:

(52)

2. Mengetahui cara mengidentifikasi data pencilan dengan menggunakan leverage values, discrepancy dan metode DfFITS.

1.5. Manfaat Penelitian

Manfaat dari penelitian ini adalah:

1. Mengetahui efisiensi penggunan metode robust least trimmed square (LTS) dalam mengestimasi parameter regresi linear berganda untuk data yang mengandung pencilan.

2. Dapat mengetahui cara pengidentifikasian pencilan dengan menggunakan

metode leverage values, discrepancy dan metode DfFITS

1.6.Metodologi Penelitian

Dalam penelitian ini penulis melakukan studi literatur dan mencari bahan dari buku dan internet yang membahas mengenai metode robust least trimmed square, mengestimasi parameter regresi linear berganda untuk data yang mengandung pencilan dalam sebuah pengamatan. Adapun langkah-langkahnya adalah:

a. Mengkaji metode robust least trimmed square (LTS) dalam mengestimasi parameter regresi linear berganda.

b. Melakukan pengamatan terhadap data yang mengandung pencilan.

c. Melakukan estimasi parameter regresi linear berganda untuk data yang

mengandung pencilan dari hasil pengamatan.

(53)

KAJIAN METODE ROBUST LEAST TRIMMED SQUARE (LTS) DALAM MENGESTIMASI PARAMETER REGRESI LINEAR BERGANDA

UNTUK DATA YANG MENGANDUNG PENCILAN

ABSTRAK

Menentukan parameter regresi linear berganda dapat menggunakan metode Ordinary Least Square (OLS). Metode OLS harus memenuhi asumsi dari Best Linear Unbiased Estimator (BLUE) untuk menghasilkan model persamaan regresi linear berganda yang baik dimana dapat dilihat berdasarkan nilai residualnya (kuadrat sisanya). Saat mengestimasi menggunakan metode OLS jika terdapat pencilan pada himpunan data maka metode OLS tidak efektif untuk menghasilkan model persamaan regresi linear berganda yang baik. Metode robust least trimmed square (LTS) merupakan metode alternative yang dapat digunakan apabila terdapat pencilan pada himpunan data. Metode robust least trimmed square bertujuan untuk menghasilkan model persamaan regresi linear berganda yang efisien tanpa menghilangkan pencilan tersebut. Model persamaan regresi linear berganda yang baik setelah melakukan estimasi menggunakan metode robust least trimmed square (LTS) yaitu dengan melihat nilai residualnya (kuadrat sisanya) yang semakin kecil atau konvergen ke nol.

(54)

ASSESSMENT METHOD ROBUST LEAST TRIMMED SQUARE (LTS) TO ESTIMATION MULTIPLE LINEAR REGRESSION PARAMETERS

FOR DATA THAT CONTAIN OUTLIERS

ABSTRACT

Determining parameters of multiple linear regression can use the method of ordinary least squares (OLS). OLS must meet the assumption of Best Linear Unbiased Estimator (BLUE) to produce a multiple linear regression model was good which can be seen based on the residual value (the square of the rest). When using the OLS estimate if there are outliers in the data set then OLS is not effective to produce multiple linear regression model was good. Robust method of least trimmed square (LTS) is an alternative method that can be used if there are outliers in the data set. Robust method of least trimmed square method aims to generate a multiple linear regression model that efficiently without removing the outliers. Multiple linear regression model was good after a robust estimation method least trimmed square (LTS) by looking at the residual value (the remaining squares) are getting smaller or converging to zero.

(55)

KAJIAN METODE ROBUST LEAST TRIMMED SQUARE (LTS) DALAM MENGESTIMASI PARAMETER REGRESI LINEAR BERGANDA

UNTUK DATA YANG MENGANDUNG PENCILAN

SKRIPSI

ADE AFFANY 120803016

DEPARTEMEN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA

(56)

KAJIAN METODE ROBUST LEAST TRIMMED SQUARE (LTS) DALAM MENGESTIMASI PARAMETER REGRESI LINEAR BERGANDA

UNTUK DATA YANG MENGANDUNG PENCILAN

SKRIPSI

Diajukan untuk melengkapi tugas dan memenuhi syarat mencapai gelar Sarjana Sains

ADE AFFANY 120803016

DEPARTEMEN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA

(57)

PERSETUJUAN

Judul : Kajian Metode Robust Least Trimmed Square

(LTS) Dalam Mengestimasi Parameter Regresi Linear Berganda Untuk Data Yang Mengandung Pencilan

Kategori : Skripsi

Nama : Ade Affany

Nomor Induk Mahasiswa : 120803016

Program Studi : Sarjana (S1) Matematika

Departemen : Matematika

Fakultas : Matematika Dan Ilmu Pengetahuan Alam Universitas Sumatera Utara

Disetujui di Medan, Juli 2016

Komisi Pembimbing :

Pembimbing 2, Pembimbing 1,

Drs. Pengarapen Bangun, M.Si Dr. Pasukat Sembiring, M.Si NIP. 19560815 198503 1 005 NIP. 19531113 198503 1 002

Disetujui Oleh

Departemen Matematika FMIPA USU Ketua,

(58)

Gambar

Tabel 3.1 Data Sekunder Survival Time
Tabel 3.1. Data Regresi Linear Berganda
Gambar 3.1 Normal Plot dari Residual Persamaan
Tabel 3.3 Nilai Tolerance dan VIF
+6

Referensi

Dokumen terkait

Ada beberapa metode dalam regresi robust yang dapat digunakan untuk menangani data pencilan, salah satunya adalah metode Least Trimmed Squares (LTS).Olehnya itu, penulis

Berdasarkan hasil yang diperoleh pada penelitian ini, regresi robustpenaksir LTSmemberikan hasil yang lebih baik daripada penaksir LMS dan metode OLS dengan kriteria

Ada beberapa metode dalam regresi robust yang dapat digunakan untuk mengatasi data outlier , diantaranya Least Median of Square (LMS), Least Trimmed Squares

Hasil penelitian ini menunjukkan bahwa metode LTS ( Least Trimmed Square ) hanya tegar terhadap pencilan sebesar 20% dari jumlah data keseluruhan dan tidak tegar terhadap

Analisis Regresi Robust pada Data Mengandung Pencilan dengan Menggunakan Metode Least Median Square ; Hufron Haditama; 051810101096; 2011; 33 Halaman; Jurusan Matematika

Analisis Regresi Robust pada Data Mengandung Pencilan dengan Menggunakan Metode Least Median Square ; Hufron Haditama; 051810101096; 2011; 33 Halaman; Jurusan Matematika

Regresi Robust disarankan dapat mengatasi masalah pencilan dalam data untuk mengestimasi parameter, salah satunya adalah Metode Momen (MM) yang digunakan untuk

Persamaan regresi linier berganda yang mengandung pencilan dengan menggunakan estimasi regresi robust MM-estimator yang diperoleh dalam tugas akhir ini adalah:. Robust Regression