• Tidak ada hasil yang ditemukan

Jurnal EKSPONENSIALVolume 1, Nomor 2, September 2010 ISSN MEAN DISTRIBUSI NORMAL MULTIVARIAT ABSTRACT

N/A
N/A
Protected

Academic year: 2021

Membagikan "Jurnal EKSPONENSIALVolume 1, Nomor 2, September 2010 ISSN MEAN DISTRIBUSI NORMAL MULTIVARIAT ABSTRACT"

Copied!
12
0
0

Teks penuh

(1)

MEAN DISTRIBUSI NORMAL MULTIVARIAT

Drs. Haeruddin, M.Si

Staf Pengajar Program Studi Statistika FMIPA Universitas Mulawarman

ABSTRACT

The central problem studied in this thesis is that of estimating the mean of a multivariat normal distribution under quadratic loss. It is the problem of constructing a minimax shringkage estimator when vague or conflicting prior information can be given that more than one estimator from a broad class might be effective estimators, is proposed. These estimators use the data to emulate the behavior and risk properties of the most effective estimator under consideration. Unbiased estimates of risk and cufficient condition for minimaxity are provided. Bayesian motivations link this construction to posterior means of mixturepriors. To illustrate the theory, minimax multiple shrinkage Stein etimators are constructed which can adaptively shrink the data towards any number of point subspaces.

Key words : multivariat normal distribution, minimax shringkage estimator

PENDAHULUAN

Inferensi statistic bertujuan bukan untuk mengambil keputusan, tetapi menggunakan data statistic untuk memberikan pengertian tentang fenomena yang diperhatikan. Teori inferensi statistik diketahui sebagai teori berkaitan dengan penarikan inferensi mengenai populasi. Dalam menaksir parameter populasi yang tidak diketahui telah dibedakan menjadi dua pendekatan yaitu pendekatan klasik dan pendekatan Teori Keputusan.

Dalam memilih estimator untuk menaksir parameter populasi yang sering digunakan dalam statistik klasik diantaranya prinsip maksimum Likelihood. Sedangkan dalam Teori Keputusan adalah prinsip Bayes, prinsip Minimaks dan prinsip Invarian.

Yang menjadi persoalan dalam penaksiran parameter populasi adalah menentukan estimator terbaik bagi parameter tersebut. Dalam statistik klasik kriterianya dapat ditempuh dengan menyelidiki sifat-sifat variansi minimum, ketidakbiasan, kecukupan dan sebagainya. Konsep inadmissibilitas dapat dilakukan untuk menyeleksi estimator terbaik dalam teori keputusan.

Pengalaman telah membuktikan bahwa sebagian besar variable random yang kontinu diberbagai bidang aplikasi yang beraneka ragam umumnya memiliki distribusi yang dapat didekati dengan distribusi normal atau dapat menggunakannya sebagai model teoritisnya. Guna pengembangan lebih jauh, penulis untuk selanjutnya menulis berkaitan dengan estimasi mean distribusi normal multivariate.

Telah diketahui bawah mean sampel merupakan estimator alami yang merupakan estimator maksimum Likelihood yang tak bias, cukup dan mempunyai variansi minimum. Namun demikian, dalam Teori Keputusan estimator tersebut tidak optimal. Stein telah menunjukkan kenyataan yang mengejutkan bahwa mean sampel tidak optimal terhadap fungsi kerugian kuadratik. Selanjutnya, James dan Stein memberikan estimator alternative yang mempunyai fungsi risiko lebih kecil (Anderson, 1984). Estimator tersebut merupakan estimator Bayes minimaks, dengan perolehan risiko sederhana. Estimator tersebut dapat pula dipandang sebagai suatu estimator yang menyusutkan estimator maksimum Likelihood mean sampel kearah suatu target yang dipilih dalam ruang parameter. Berbagai penulis telah mengembangkan estimator tersebut untuk berbagai variasi informasi prior yang menghasilkan berbagai risiko kecil dalam ruang parameter.

Perumusan Masalah

Berdasarkan latar belakang masalah, maka masalah yang akan dibahas dalam tesis ini secara umum adalah bagaimanakah menyeleksi estimator beserta sifat-sifat risiko dari mean distribusi normal multivariate dengan panjang kuadrat vector sesatan sebagai kerugian (loss) bilamana matriks kovarians diketahui sebagai matriks identitas.

(2)

Tujuan Penelitian

Pada prinsipnya penelitian ini berusaha untuk menjawab masalah-masalah yang dipaparkan di atas; secara operasional penelitian ini bertujuan untuk :

a. Menyusun estimator mean distribusi normal multivariat dengan panjang vektor sesatan sebagai kerugian (loss) bilamana matriks kovarians diketahui sebagai matriks identitas.

b. Mempelajari risiki estimator dari mean dan estimator tak bias dari risiko tersebut berkaitan dengan distribusi dalam a.

c. Mempelajari sifat-sifat risiko estimator mean berkaitan dengan distribusi dalam a.

d. Mempelajari estimator Stein dan James-Stein dalam bentuk yang lebih umum sebagai illustrasi teori berkaitan dengan a, b dan c di atas.

Pengertian Dasar

Sebagai pengertian dasar, berikut diuraikan sekilas tentang Teori Keputusan.Konsep-konsep yang digunakan seluruhnya menggunakan ruang sampel, dinyatakan x yang merupakan himpunan bagian Borel dari

P, dan distribusi probabilitas dari variabel random X dianggap terdefinisi pada

himpunan-himpunan bagian borel B dari x yang bergantng pada parameter tak diketahui

~

di ruang parameter

. Misalkan aturan keputusan δ estimator dari

~

. Suatu fungsi kerugian

 

,

~

L

merupakan fungsi terukur Borel yang terbatas di bawah dari

~

dan δ menyatakan mendatangkan kerugian (pada Statistisi) bilamana

~

diestimasi oleh δ. Fungsi risiko berkaitan dengan fungsi kerugian ini adalah

 

,

:

E

L

 

,

R

(2.1)

yang menyatakan bahwa rerata kerugian yang terjadi bilamana

~

diestimasi oleh δ. (Ekspektasi diambil terhadap distribusi

~

X

berparameter

~

). Dalam teori keputusan bagaimana “baik” suatu keputusan (Estimasi) bergantung pada fungsi risikonya. Suatu aturan keputusan δ1 dikatakan lebih

baik dari (mendominasi) aturan keputusan δ2bila

  ~ 2 1 , ,

R

R Dan

R

*,

1

 

R

*,

2

untuk suatu 

~

(2.2)

Suatu aturan keputusan dikatakan admissibel bila tidak ada aturan keputusan yang lebih baik darinya. Jika ada, maka dikatakan inadmissibel. Dalam analisis Bayes, informasi prior dipandang sebagai distribusi probabilitas π pada

, dan π disebut densitas prior dari

~

. Sekarang,

 

~ ~ |

X f

menyatakan densitas probabilitas bersyarat dari

~

X

diberikan

~

, sehingga densitas (subyektif) bersama dari ~

dan ~

X

adalah :

     

,

:

|

~ ~ ~ ~ f x x h  (2.3)

Oleh karena itu,

   

~ ~ ~,

,

|

E L

R  yang merupakan kerugian rerata bersyarat diberikan

~

. (Ekspektasi diambil terhadap distribusi dari

 

~ ~

X

. Selanjutnya distribusi bersyarat dari

~

diberikan

~

x, akan dinyatakan dengan

~ ~

X

, sehingga bila m menyatakan densitas marginal dari

~

X

x

, maka densitas bersama dari

~

dan ~

X

adalah

 

X~, : m

   

x~ ~ |X~ h

(2.4)

Risiko Bayes dari δ didefinisikan oleh

,

:

 

,

~

R

E

r

Dan δ*disebut aturan Bayes bila

  : , , Inf r r D   (2.5)

Dimana D klas aturan keputusan dengan risiko berhingga. Jika L berhingga, maka δ* aturan Bayes

yang dipilih sehingga untuk setiap

~

(3)

 

L

X

E

T

,

|

(2.6)

Jika dan hanya jika dipilih δ*sehingga setiap

~ x x,

  

  

f

x

d

L

,

|

(2.7)

Dimana Π ukuran probabilitas prior pada Θ.

Jika kerugian kuadratik, maka dari sifat (2.7) aturan Bayes adalah

 

X

~

:

E

T

 

~

|

X

~

(2.8) Yang merupakan mean distribusi posterior.

Aturan Bayes yang diperoleh dari (2.8) disebut aturan Bayes formal. Jika π improper prior dan

 



~

0 mx maka aturan δ yang diperoleh dalam (2.6) disebut aturan Bayes teritlak. Dari definisi ini dapat dilihat bahwa aturan Bayes teritlak merupakan aturan Bayes formal.

Suatu aturan δ*dikatakan aturan minimaks bila

 

 

   ~

,

*

:

~

,

~ ~

R

Sup

Inf

R

Sup

D    

(2.9)

Sebagai akibatnya : Aturan

* adalah aturan minimaks jika dan hanya jika

Sup

R

 

D

R

 

,

*

dan

*

*,

~ ~ ~ ~ (2.10) Jika

 aturan Bayes dengan risiko konstan maka

 aturan minimaks. Sehingga diperoleh implikasi, berikut : Jika

 merupakan estimator minimaks maka setiap estimator yang menominasi δπmerupakan estimator minimaks.

Estimator Stein dan Estimator James-Stein Misalkan

1

,...,

'

~

X

X

p

X

, yang berdisrtibusi X | ~ Np

 

,Ip ~ ~ ~

(2.11)

Denan mean tak diketahui

~

1,...,

p

' dan matriks identitas Ip sebagai matriks kovarians.

Misalkan informasi prior adalah ~Np

 

0,AIp

~ ~

, A parameter (2.12)

Persoalannya adalah mencari estimator-estimator

 

p p

~

:

 x

untuk ~

terhadap kerugian kuadratik

 

     p i i i L 1 2 2 ~ ~,

:

:

. Maka densitas posterior

2 i i ρ x θ ρ 2 1

e

2

:

|

    

i

x

i , ρ := A 1 A

Dan mean posterior

 

i i

 

i T i i x :E

|X  1B X

(2.13) Untuk B := 1 A 1

 . Karena B tidak diketahui, maka agar

δ

i

 

x

i merupakan estimator untuk

i, akan

diestimasi B selalu distribusi marginal dari Xi berdistribusi normal univariat dengan mean 0 dan

varians A + 1 = B 1

, maka estimator alami untuk B berbentuk 2

~

ˆ

X

B

, α ≥ 0. Dari (2.3) diperoleh

 

i

 

i i i X X X B X               2 ~ 1 ˆ 1 :

Jadi estimator Bayes (formal) untuk :

1,..., p

'

~

(4)

 

:

,...,

' 1 , 0 ~ 2 ~ 1 ~             

   X X X p (2.14) Lemma 2.2.1

Jika fungsi f :

memenuhi

   

 

b a

dx

x

f

a

f

b

f

'

Untuk semua a dan b (a < b) dan bila X ~ N(0,1) sehingga E|f(X)| < ∞, maka

 

f

X

E

Xf

 

X

E

'

(2.15)

Teorema 2.2.2 :

Misalkan Xi, i = 1, …, p (p ≥ 3) independen dengan berdistribusi N(I, 1) dan

1,..., 

' 

p , estimator untuk :

1,...,

' ~

p

 dengan

 

i i i X X X             2 ~ 1

Maka fungsi risiko dari

, dengan fungsi kerugian

 

   p i i i L 1 2 ~,

:

  adalah

 

                        2 ~ 2 2 ~ ~ 1 1 2 2 , X E X E p p R

Untuk mendapatkan estimator James-Stein sebagai estimator yang lebih baik dari estimator maksimum Likelihood adalah sebagai berikut. Misalkan

 

   

0

~ ~, , :

R R g  





~ 2

2

2

1

X

E

p

,

maka

g

 

mencapai ekstrim di α0:= p – 2.

Sehingga dari (2.14) dengan mengambil α0= p – 2 diperoleh estimator James-stein

 

2 ~ ~ ~ 2 1 X X p X JS             

(2.16)

Nilai ekstrim dari

g

 

di α0= p – 2 adalah

  

              2 ~ 2 2 0 1 2 2 2 X E p p g





~ 2

1

2

X

E

p

< 0 (2.17)

Ini berarti bahwa estimator James-Stein lebih baik dari estimator maksimum Likelihood

~

X

, dan dapat dikatakan bahwa δJS mendominasi

~ 0

X

dalam pengertian risiko. Dalam uraian di atas diperoleh pula bahwa

g

 

< 0 untuk 0 <α< 2(p-2). Sehingga dengan demikian diperoleh skibat-akibat berikut dan berlaku

(5)

Akibat 2.2.3 :

Estimator δαyang didefinisikan oleh

 

2 ~ ~ ~ 2 1 X X p X             

 , Mendominasi

0

 

X

~

X

~ bila 0 <α< 2 dan p ≥ 3 (2.18)

. Akibat 2.2.4 :

Estimator James-Stein δJS yang sama dengan δ

α dalam (2.11) dengan α = 1 mendominasi semua

estimator δα untuk α ≠ 1 dan 0 ≤ α ≤ 2 .

Akibat 2.2.4 ini mengatakan bahwa δα, α ≠ 1 inadmissibel untuk mengestimasi ~

bilamana p ≥ 3, khususnya estimator Maksimum Likelihood

 

~ ~ 0

X

X

inadmissibel. Teorema 2.2.5 :

Suatu estimator yang berbentuk

seperti dalam (2.11) merupakan estimator minimaks.Pandang pengaruh penyusutan dari estimator James-Stein. Misalkan

             2 ~ 0 2 1 X p a ,

maka a0< 1. Jika a0 ≥ 0 maka δJS

 

X

~ menyusutkan ~

X

kearah

~

0, tapi bila a0< 0 maka δJS

 

X

~

menyusutkan

~

X

melampaui

~

0. Dalam hal ini, δJS

 

~

X

dapat diperbaiki dengan mengambil a

0 yang

negatif menjadi

~

0, yaitu didefinisikan estimator Stein berikut

 

~ * 2 ~ ~ 2 1 X X p X S             

dengan (2.19) (◦)* = sup [(◦),0] (2.20) Lemma 2.2.6 : Jika ~

X

~ N( ~

,Ip), maka

 

 

2 ~ ~ ~ 2 ~ ~ ~

f

X

X

E

f

X

X

E

(2.21) Teorema 2.2.7 : Estimator Stein

 

             2 ~ ~ 2 1 X p X JS

dari (2.12) mempunyai risiko yang kurang dari risiko δJS

dalam (2.9) dan merupakan estimator minimaks. Motivasi

Dari susunan kanonik yang disajikan dalam bagian yang lain, diperoleh klas estimator, susut dengan sifat minimaks, selanjutnya disebut estimator susut minimaks, yang menyusutkan variabel random

~

X

kearah

~

0. Hal ini diperoleh bilamana informasi prior ~ Np

 

0,AIp

~ ~

. Untuk informasi prior

 

p p v AI N , ~ ~ ~

(2.22)

(6)

 

2

 

~ ~ ~ ~ ~ ~

2

1

X

v

v

v

X

p

X

JS





(2.23) Yang menyusutkan ~

X

kearah target

v

P ~ dan Stein

 

 

~ ~ ~ * 2 ~ ~ ~

2

1

X

v

v

v

X

p

X

S





(2.24)

yang hanya menyusutkan

~

X

kearah

~

v di p.

Estimator di atas dapat dipandang sebagai estimator Bayes Empiris (Efron dan Murris, 1972). Dalam hal ini estimator dalam (2.25) akan berbentuk

 

 

,...,

 

'

~ ~ 1 ~ X X X JS p JS JS

 , dengan

 

X X

S p X Xi i JS i           1 3

Bilamana (2.27)

p

X

X

X

X

S

p i i p i i

 

1 1

,

estimasi dari

p

v

v

p i i

1 ~ dan p – 3 = (p – 1) – 2.

Estimator (2.21) menyusutkan semua Xikearah

X

.

Hasil kerja Stein pada tahun 1958 dan James-Stein pada tahun 1961 berkembang, dan oerkembangannya telah dikemukakan olehbanyak pengarang diantaranya Mc. Hudson (1978) mengangkat model estimator berbentuk

~

X

+

 

~

X

g

untuk suatu fungsi g. Selanjutnya perkembangan estimator ini berfokus pada penggunaan estimator susut minimaks (Berger, 1983). Masing-masing estimator tersebut tidak hanya mendominasi MLE,

 

~

~

X

X

, tapi juga menhasilkan banyak sekali risiko yang kecil dalam daerah tertentu di ruang parameter. Dengan menyeleksi estimator-estimator yang membuat

~

menghampiri daerah baik (region of improvement) yang bersesuaian dengan estimator-estimatoor tersebut, berarti praktis perolehan risiko dapat dicapai. Akan tetapi, karena

~

tidak diketahui dan suatu estimator harus dapat dipilih sebelum melihat data, maka menyeleksi estimator atau equivalen menyeleksi daerah baik merupakan hal yang mendasar berkaitan dengan informasi prior yang tersedia.

Berdasarkan hal ini, telah banyak estimator-estimator susut minimaks berkembang, sumbangan tentang keanekaragaman yang luas dari daerah-daerah risiko terbaik yang bersesuaian dengan berbagai jenis informasi prior yang berbeda telah dikemukakan dan didiskusikan oleh Berger (1982) dan Berger-Berliner (1984).

Dengan demikian, adalah wajar untuk menanyatakan, “Bagaimanakah menyusun suatu estimator susut minimaks dari mean bilamana informasi prior samar-sama (vagua) atau saling bertentanan (conflicting)”.

Identitas Stein

Suatu identitas sederhana mengenai ekspektasi fungsi variabel random normal diberikan dalam Lemma 3.1.1 dan buktinya dapat diuraikan dengan menggunakan integrasi bagian atau teorema Fubini. Lemma 3.1.1 :

Misalkan Y variable random normal N(0,1) dan g: integral taktentu dari fungsi terukur Lebesgue g' (yaitu, g' turunan dari g). Dengan menganggap

E '

g

 

Y

, maka

 

g

Y

E

Yg

 

Y

E

'

(3.1)

(7)

Akibat 3.1.2 :

Jika X ~ N (θ,σ2) dan fungsi

h

:

integral taktentu dari fungsi teukur Lebesgue

h

'

, dan

 

X

h

E '

, maka

 

 

       E X h X X h E ' 2

  Definisi 3.1.3 :

Fungsi h :p  dikatakan hamper terdiferensialkan, bila terdapat fungsi  :h p p

sedemikian, untuk semua zp

~ .

 

 

 

1 0~ ~ ~ ~ ~ ~

.

h

x

t

z

dt

z

x

h

z

x

h

Untuk hampir semua

x

p

~ . Suatu fungsi

p p

g

:

hampir terdiferensialkan bila semua fungsi koordinatnya hampir terdiferensialkan.

Sekarang, Lemma 3.1.1 diperluas ke fungsi-fungsi dari suatu vektor random normal dengan identitas sebagai matrik kovarians dan buktinya menggunakan Akibat 3.1.2.

Lemma 3.1.4 : Misalkan

~

X

variabel random Np

 

,Ip

~

. Jika h :p  merupakan fungsi yang hampir terdiferensialkan dengan

 

~

X

h

E

 , maka

   

~ ~ ~

~ X h X E X h E   

             (3.2)

Lemma-lemma ini kelak digunakan dalam 3.3 untuk memperoleh standa estimator takbias dari risiko. Penyusunan Estimator Susut

Misalkan

~

vektor koordinat random berdimensi-p berdisribusi bersesuaian dengan ukuran probabilitas prior Π. Misalkan

~

X

vektor random di p, berdistribusi normal bersyarat diberikan

~

dengan mean bersyarat

~

, dan matriks Identitas sebagai matriks kovarians. Maka densitas tak bersyarat dari

~

X

terhadap ukuran Lebesgue di p adalah

 

 

 

 

~ 2 1 2 / ~ 2 ~ ~

2

1

:

d

e

x

f

p x (3.3)

terhadap kerugian panjang kuadrat vektor sesatan estimator Bayes

 

~ X

dari ~

, didefinisikan oleh kondisi bahwa

:

 diambil yang meminimumkan

 

 

 

 





  ~ 2 1 -~ 2 1 -~ ~ 2 ~ ~ 2 ~ ~ 2 ~ ~

e

e

 

d

d

X

E

X

E

x x (3.4) Adalah

 

X

~

E

T

 

~

X

~

X

~

E

T

~

X

~

X

~

X

~

log

f

 

X

~

Yang merupakan estimator Bayes untuk

~

. Selanjutnya, estimator

 disebut estimator susut dengan komponen susut

 

~

log

f

X

(8)

Berdasarkan gagasan di atas, berikut diuraikan estimator Stein yang menyusutkan

~

X

kearah suatu ruang bagian targetV p, dimana dim V := p – q dan q ≥ 3.

Misalkan

~ v

X

P

menyatakan proyeksi dari

~

X

dan V didefinisikan oleh

~ ~ ~ ~ ~

min

:

X

v

X

P

X

V v v

 (3.5) dan misalkan

 

2 ~ ~ ~

:

X

P

X

X

S

V jarak kuadrat dari

~

X

ke V, maka estimator Stein akan berbentuk

 

  

~ ~

~ ~ ~ 2 ^ 1 X P X X s q X X v S          

(3.6)

di mana a^b := min (a,b). dan estimator James-Stein adalah

 

 

~ ~

~ ~ ~

2

X

P

X

X

s

q

X

X

v JS

(3.7)

Jika ditulis dalam bentuk

 

~ ~

log

f

X

X

, maka

 

 

 

 

 



 

       

2

2

2

~ 2 1 ~ 2 2 1 ~ ~ ~

S

X

q

e

q

X

S

X

es

q

X

f

x s q S (3.8) dan

   

2 2 1 ~ ~

2

 

q JS

X

es

q

X

f

atau

   

2 2 1 ~ ~    q JS X S X f (3.9)

Risiko Estimator Susut

Sekarang digunakan Lemma 3.1.4 untuk memperoleh estimator takbias dari risiko. Misalkan

 

~ ~

g

X

X

estimator untuk

~

sehingga

g

:

p

p fungsi yang hampir terdeferensialkan dan memenuhi

 

~

X

g

E

i i , i = 1, …, p dan

 

2

~

X

g

E

maka untuk setiap

i

1,...,

p

, berlaku

 

2

2

 

~

 

~

~

1

E

g

X

2

g

X

X

g

X

E

i

i

i

i

i i (3.10) dan kosekuensinya

 

 

 

          ~ 2 ~ 2 ~ ~ ~ g X 1 E g X 2 g X X E i

 (3.11)

Bukti : Berdasarkan (3.3) dengan h = gi, diperoleh

 

X

i

g

i

X

i

E

X

i i

g

i

   

X

g

i

X

X

i i

E

~ ~ 2 2 2 ~

2

X

i i

E

g

i

 

X

E

g

i

 

X

X

i i

E

~ ~ 2 2

2

Dan menurut (3.2) maka

 

 

 

 

~ ~ 2 2 ~

1

E

g

X

2

E

g

X

X

g

X

E

i

i

i

i

i i

 

 

2 ~ 2 ~

1E gi X  igi X   .

(9)

Selanjutnya,

 

 

      p i i i i i i i g X E X g X X E 1 2 ~ 2 ~

 

 

 

 

           

 ~ 2 ~ 1 ~ ~ 2 X 2 g X p E g X 2 g X g E p p i i i i    .

Dapat dilihat bahwa rumus yang terkahir menyatakan

 

2

~

X

g

p

+

 

~

2

g

X

merupakan estimator tak bias risiko estimator

 

~ ~

g

X

X

dari ~

. Teorema 3.1.6 : Misalkan p

 

C

f :   0 dan

 :

f

p

p fungsi-fungsi yang hampir

terdiferensialkan dan

 

~ ~

log

f

X

X

estimator dari ~

. Jika (i) 

 

 

 ~ ~ 2 X f X f Ei , I = 1, …, p (ii)

 

2

~

log

f

X

E

.

maka risiko dari

 

~ ~

log

f

X

X

adalah

 

 

 

 

 

                 ~ 2 2 ~ ~ ~ 2 2 ~ ~ ~ log 2 f X X f X f X f E p X f X E

 

 

 

          2 ~ ~ ~ 2 log 2 f X X f X f E p (3.12)

 

 







~ ~ 2

4

X

f

X

f

E

p

(3.13)

Bukti : Misalkan

g

:

p

p yang didefinisikan oleh

f

f

f

g

:

 log

Maka 2 2 2 2

log

f

f

f

f

f

g

Dan diakibatkan dari persamaan (3.16) bahwa

 

2 ~ ~ ~

log

X

f

X

E

 

 

 

            2 ~ ~ ~ 2 log 2 f X X f X f E p  Karena 2 2

2

1

2

f

f

f

f

f

f

maka

 

 

 







~ ~ 2 2 ~ ~ ~

log

4

f

X

X

f

E

p

X

f

X

E

 .

(10)

Definisi 3.1.7 :

Misalkan

f :

p

 

dan

 :

f

p

p hampir terdiferensialkan, f dikatakan

superharmonik di p bila untuk hampir semua Xp

~ .

 

 

 

0

1 2 ~ 1 ~ 2 ~ 2

  p i i p i i

X

X

f

X

f

X

f

(3.14)

Berikut syarat cukup minimaksitas estimator susut

 

~

~

log

f

X

X

.

Akibat 3.1.8 :

Jika f :p

 

0C dan

 :

f

p

p fungsi yang hampir terdiferensialkan, dan akar

kuadratnya superharmonik dan bahawa i) dan ii) dalam Teorema 3.1.6 Berlaku, maka estimator

 

~

~

log

f

X

X

merupakan estimator minimaks dari

~

, yaitu untuk semua

p

~

.

 

2 ~ ~ ~

log

X

f

X

E

 

2 ~ ~ ~ ~

sup

inf

E

X

 X

g

g

Bukti : ambil sebarang

p

~

, menurut rumus dalam (3.20) diperoleh

 

 

 







~ ~ 2 2 ~ ~ ~

log

4

f

X

X

f

E

p

X

f

X

E

Karena

 

~

X

f

Superharmonik, maka

 

 

 

p

X

f

X

f

E

p

X

f

X

E







~ ~ 2 2 ~ ~ ~

log

4

 

 

2 ~ ~ ~ ~

sup

inf

E

X

g

X

g

Selanjutnya, dibandingkan estimator takbias risiko estimator susut

 

~ X

dari ~

yang diperoleh dari Teorema 3.1.6 dengan risiko posterior (formal). Dari Terorema 3.1.6, estimator takbias dari risiko adalah

 

 

 

 

 

~ 2 2 ~ ~ 2 ~ 2 ~

2

f

X

X

f

X

f

X

f

p

X

(3.15)

Sehingga estimator takbias penurunan risiko dari

 

~

log

f

X

terhadap ~

X

adalah

   

2

 

 

~ ~ 2 ~ 2 2 ~ ~

2

f

X

X

f

X

f

X

f

X

D

(3.16)

Untuk risiko posterior (formal)

 

 

              ~ 2 ~ ~ ~ ~ 2 ~ ~ X X E X log f X X E

 

 

 

 

~ 2 ~ ~ 2

log

f

X

X

f

X

f

p

(3.17)

Kesamaan dalam (3.175) pada dasarnya menggunakan Dalil Pythagoras dalam ruang Hilbert yang sesuai.

(11)

 

 

   

 

~ ~ ~ 2 ~ ~ 2 ~ ~

f

X

X

X

f

X

X

X

E

 

(3.18)

Jadi untuk setiap

~

,

 

 

 

2 ~ ~ ~ ~ 2 ~ ~ X X E X E X EE

       (3.19)

Misalkan diperhatikan dalam kondisi Superharmonik, yaitu bila ukuran prior (formal) Π mempunyai densitas π yang superharmonik terhadap ukuran Lebesgue, maka f yang didefinisikan oleh (3.3) juga superharmonik. Dan (3.18) dan (3.19) berlaku.

Akibat 3.1.9 : Jika

 

 

~ ~ ~ X logf X X

δ   memenuhi kondisi Teorema 3.1.6 dan f superharmonik, maka δ merupakan estimator minimaks.

Estimator takbias penurunan risiko estimator Stein

 

 

 

 

 

             2 , 2 2 , 2 ~ ~ ~ ~ 2 ~ q X S X S q q X S X S q X D

S (3.20) Dan James-Stein

 

 

~ 2 ~ ~

2

X

S

q

X

X

JS

.

Estimator δS dan δJSjuga mendominasi estimator Maksimum Likelihood klasik ~

X

dalam pengertian risiko dan dapat menghasilkan risiko kecil bilamana

~

sangat dekat ke suatu target Vp. Kesimpulan

a) Jika

~

X

berdistribusi normal multivariat dengan panjang kuadrat vektor sesatan sebagai kerugian bilamana matriks kovarians diketahui sebagai matriks identitas, maka dalam mengestimasi mean diperoleh lebih dari satu klas besar estimator mean berbentuk

 

~

~

log

f

X

X

yang lebih baik dari estimator maksimum Likelihood

~

X

berdasarkan informasi prior yang tersedia.

b) Estimator susut

 

~

~

log

f

X

X

menyusutkan estimator maksimum Likelihood

~

X

yang mempunyai sifat minimaks dan resiko kecil diperoleh untuk situasi dimana informasi prior samar-samar atau saling bertentangan.

c) Dari K estimator susut minimaks yang berbentuk

 

X

~

X

~

log

m

k

 

X

~

k

, k = 1, …, K

Diperoleh klas besar estimator susut berbentuk

 

~ ~

log

m

 

X

~

X

,

 

 

~ 1 ~ * X X m

  K k k km w

Dimana w1, …, wKbobot prior positif dengan 1 1 

K i k

w , yang dapat menggabungkan informasi prior parsial tersebut.

d) Estimator dalam c) menyamai kelakuan estimator susut minimaks

 

~

~

log

f

X

X

yaitu, tidak hanya mendominasi MLE

~

X

dan minimaks, tapi juga menghasilkan resiko kecil berkaitan dengan informasi prior parsial tersebut.

(12)

e) Dari c), jika

 ,...,

1

K aturan Bayes, berturut-turut bersesuaian dengan densitas prior

 ,...,

1

K, maka

 

~ ~ log

 

~

*

XX m X

Merupakan estimator Bayes terhadap prior campuran

 

   K k k km w 1 ~

Saran

Sebagai implikasi dari kesimpulan yang diperoleh, maka penulis menyarankan :

a) Diharapkan adanya penelitian lebih lanjut dengan melibatkan takhingga banyaknya estimator-estimator susut yang mempunyai sifat minimaks dengan perolehan risiko kecil, sehingga akan memberikan landasan ilmiah yang lebih luas dan kuat lagi guna mendukung pemakaian pada perkembangan teknologi.

b) Diharapkan adanya penelitian yang serupa dan penelitian berkaitan dalam saran pertama guna memperoleh kasus-kasus dan contoh-contoh yang lebih sederhana agar pemahaman tentang konsep-konsep yang disajikan dapat dengan mudah diaplikasikan dan/atau dipakai oleh pengguna statistik.

Daftar Pustaka

Anderson, T.W. 1984. An Introduction to Multivariate Statistical Analysis. John Wiley & Sons, Inc., New York.

Arnold, S.F. 1981. The Theory of Linier Models and Multivariate Analysis. John Willey & Sons, Inc., New York.

Berger, J.O. 1980. Statistical Decision Theory : Foundations, Conceps and Methods. Spinger-Verlag, Inc., New York.

Berger, J.O. 1982. Selecting a Minimax Estimator of the Multivariate Normal Mean. Ann Statist., 10; 81-92.

Berger, J.O., and Berliner, L.M. 1984. Bayesian Input In Stein estimation and a new minimax

empirical Bayes estimator. J. of Econometrics, 25; 87-108.

Bickel, P. J. 1981. Minimax Etimator, Recurrent Disfusions, and Insolable Boundary Value Problems, Ann. Math. Statist., 42; 855-903.

Casella, G and Strawderman, W.E. 1981. Estimating A Bounded Normal Mean. Ann Statist. 9; 870-878.

Dey, D.K. and Berger, J.O. 1983. On Truncation Shrinkage Estimators In Simultaneous Estimation of

Normal Means. J. Amer. Statist. Assoc. 78; 865-869.

Efron dan Morris, C. 1975. Data Analysis Using Stein’s Estimator and Its Generalization. J. Amer. Statist. Assoc. 70; 311-319.

George, E.I. 1985a. Minimax Multiple Shringkage Estimation. Technical Report #35, Graduate School of Business, University of Chicago.

Hudson, H.M. 1978. A Natural Identity for Exponential Families with Aplications in Muliparameter

Estimation. Ann. Statist, 6; 473-484.

Morris, C.N. 1983. Parametric Empirical Bayes Infernce Theory and Applications. J. Amer. Statist. Assoc. 78: 47-85.

Rubin, D. 1980. Using empirical Bayes Technique in the law school validity studies. J. Amer. Statist. Assoc. 75, 801-827.

Stein, C.M. 1981. Estimation of The Mean of a Multivariate Normal Distribution. Ann. Statis. 9; 1135-1151.

Referensi

Dokumen terkait

Dengan berpartisipasi dalam kegiatan Rekoleksi 2009 yang bertemakan “ Hai Orang Muda Katolik, Bangkit dan Bergeraklah ” mahasiswa Katolik Politeknik Negeri

Secara ontologi, aliran ini bersifat critical realism yang memandang bahwa realitas memang dalam kenyataan sesuai dengan hukum alam, universal, general, akan

Jika tanah tidak mampu menahan air hujan di daerah yang tinggi maka akan terjadi.. Yang bukan merupakan upaya untuk mencegah tanah

Rekapitulasi dan analisa sederhana dilaksanakan oleh Koordinator Ruangan Perawatan anak sebagai informasi awal untuk unit masing-masing, kemudian data akan dilaporkan kepada

Kajian ini bertujuan untuk menguji andaian asas Teori Hipotesis Multipel Lawson (1992) dengan menyiasat corak respon penaakulan yang dipamerkan oleh pelajar sains

PT Henan Putihrai Sekuritas tidak akan bertanggung jawab atas setiap kehilangan dan/atau kerusakan yang disebabkan oleh virus yang ditransmisikan oleh laporan ini atau

[r]

Mahasiswa yang telah lulus ujian tesis, dan telah melakukan perbaikan dengan persetujuan komisi pembimbing, dapat menggandakan naskah tesis tersebut sejumlah tertentu (untuk