MEAN DISTRIBUSI NORMAL MULTIVARIAT
Drs. Haeruddin, M.Si
Staf Pengajar Program Studi Statistika FMIPA Universitas Mulawarman
ABSTRACT
The central problem studied in this thesis is that of estimating the mean of a multivariat normal distribution under quadratic loss. It is the problem of constructing a minimax shringkage estimator when vague or conflicting prior information can be given that more than one estimator from a broad class might be effective estimators, is proposed. These estimators use the data to emulate the behavior and risk properties of the most effective estimator under consideration. Unbiased estimates of risk and cufficient condition for minimaxity are provided. Bayesian motivations link this construction to posterior means of mixturepriors. To illustrate the theory, minimax multiple shrinkage Stein etimators are constructed which can adaptively shrink the data towards any number of point subspaces.
Key words : multivariat normal distribution, minimax shringkage estimator
PENDAHULUAN
Inferensi statistic bertujuan bukan untuk mengambil keputusan, tetapi menggunakan data statistic untuk memberikan pengertian tentang fenomena yang diperhatikan. Teori inferensi statistik diketahui sebagai teori berkaitan dengan penarikan inferensi mengenai populasi. Dalam menaksir parameter populasi yang tidak diketahui telah dibedakan menjadi dua pendekatan yaitu pendekatan klasik dan pendekatan Teori Keputusan.
Dalam memilih estimator untuk menaksir parameter populasi yang sering digunakan dalam statistik klasik diantaranya prinsip maksimum Likelihood. Sedangkan dalam Teori Keputusan adalah prinsip Bayes, prinsip Minimaks dan prinsip Invarian.
Yang menjadi persoalan dalam penaksiran parameter populasi adalah menentukan estimator terbaik bagi parameter tersebut. Dalam statistik klasik kriterianya dapat ditempuh dengan menyelidiki sifat-sifat variansi minimum, ketidakbiasan, kecukupan dan sebagainya. Konsep inadmissibilitas dapat dilakukan untuk menyeleksi estimator terbaik dalam teori keputusan.
Pengalaman telah membuktikan bahwa sebagian besar variable random yang kontinu diberbagai bidang aplikasi yang beraneka ragam umumnya memiliki distribusi yang dapat didekati dengan distribusi normal atau dapat menggunakannya sebagai model teoritisnya. Guna pengembangan lebih jauh, penulis untuk selanjutnya menulis berkaitan dengan estimasi mean distribusi normal multivariate.
Telah diketahui bawah mean sampel merupakan estimator alami yang merupakan estimator maksimum Likelihood yang tak bias, cukup dan mempunyai variansi minimum. Namun demikian, dalam Teori Keputusan estimator tersebut tidak optimal. Stein telah menunjukkan kenyataan yang mengejutkan bahwa mean sampel tidak optimal terhadap fungsi kerugian kuadratik. Selanjutnya, James dan Stein memberikan estimator alternative yang mempunyai fungsi risiko lebih kecil (Anderson, 1984). Estimator tersebut merupakan estimator Bayes minimaks, dengan perolehan risiko sederhana. Estimator tersebut dapat pula dipandang sebagai suatu estimator yang menyusutkan estimator maksimum Likelihood mean sampel kearah suatu target yang dipilih dalam ruang parameter. Berbagai penulis telah mengembangkan estimator tersebut untuk berbagai variasi informasi prior yang menghasilkan berbagai risiko kecil dalam ruang parameter.
Perumusan Masalah
Berdasarkan latar belakang masalah, maka masalah yang akan dibahas dalam tesis ini secara umum adalah bagaimanakah menyeleksi estimator beserta sifat-sifat risiko dari mean distribusi normal multivariate dengan panjang kuadrat vector sesatan sebagai kerugian (loss) bilamana matriks kovarians diketahui sebagai matriks identitas.
Tujuan Penelitian
Pada prinsipnya penelitian ini berusaha untuk menjawab masalah-masalah yang dipaparkan di atas; secara operasional penelitian ini bertujuan untuk :
a. Menyusun estimator mean distribusi normal multivariat dengan panjang vektor sesatan sebagai kerugian (loss) bilamana matriks kovarians diketahui sebagai matriks identitas.
b. Mempelajari risiki estimator dari mean dan estimator tak bias dari risiko tersebut berkaitan dengan distribusi dalam a.
c. Mempelajari sifat-sifat risiko estimator mean berkaitan dengan distribusi dalam a.
d. Mempelajari estimator Stein dan James-Stein dalam bentuk yang lebih umum sebagai illustrasi teori berkaitan dengan a, b dan c di atas.
Pengertian Dasar
Sebagai pengertian dasar, berikut diuraikan sekilas tentang Teori Keputusan.Konsep-konsep yang digunakan seluruhnya menggunakan ruang sampel, dinyatakan x yang merupakan himpunan bagian Borel dari
P, dan distribusi probabilitas dari variabel random X dianggap terdefinisi padahimpunan-himpunan bagian borel B dari x yang bergantng pada parameter tak diketahui
~
di ruang parameter
. Misalkan aturan keputusan δ estimator dari~
. Suatu fungsi kerugian
,
~
L
merupakan fungsi terukur Borel yang terbatas di bawah dari
~
dan δ menyatakan mendatangkan kerugian (pada Statistisi) bilamana~
diestimasi oleh δ. Fungsi risiko berkaitan dengan fungsi kerugian ini adalah
,
:
E
L
,
R
(2.1)yang menyatakan bahwa rerata kerugian yang terjadi bilamana
~
diestimasi oleh δ. (Ekspektasi diambil terhadap distribusi~
X
berparameter~
). Dalam teori keputusan bagaimana “baik” suatu keputusan (Estimasi) bergantung pada fungsi risikonya. Suatu aturan keputusan δ1 dikatakan lebihbaik dari (mendominasi) aturan keputusan δ2bila
~ 2 1 , ,
RR Dan
R
*,
1
R
*,
2
untuk suatu ~
(2.2)Suatu aturan keputusan dikatakan admissibel bila tidak ada aturan keputusan yang lebih baik darinya. Jika ada, maka dikatakan inadmissibel. Dalam analisis Bayes, informasi prior dipandang sebagai distribusi probabilitas π pada
, dan π disebut densitas prior dari~
. Sekarang,
~ ~ |
X fmenyatakan densitas probabilitas bersyarat dari
~
X
diberikan~
, sehingga densitas (subyektif) bersama dari ~
dan ~X
adalah :
,
:
|
~ ~ ~ ~ f x x h (2.3)Oleh karena itu,
~ ~ ~,
,
|
E LR yang merupakan kerugian rerata bersyarat diberikan
~
. (Ekspektasi diambil terhadap distribusi dari
~ ~
X
. Selanjutnya distribusi bersyarat dari~
diberikan~
x, akan dinyatakan dengan
~ ~X
, sehingga bila m menyatakan densitas marginal dari~
X
x
, maka densitas bersama dari~
dan ~X
adalah
X~, : m
x~ ~ |X~ h
(2.4)Risiko Bayes dari δ didefinisikan oleh
,
:
,
~
R
E
r
Dan δ*disebut aturan Bayes bila
: , , Inf r r D (2.5)Dimana D klas aturan keputusan dengan risiko berhingga. Jika L berhingga, maka δ* aturan Bayes
yang dipilih sehingga untuk setiap
~
L
X
E
T
,
|
(2.6)Jika dan hanya jika dipilih δ*sehingga setiap
~ x x,
f
x
d
L
,
|
(2.7)Dimana Π ukuran probabilitas prior pada Θ.
Jika kerugian kuadratik, maka dari sifat (2.7) aturan Bayes adalah
X
~:
E
T
~|
X
~
(2.8) Yang merupakan mean distribusi posterior.
Aturan Bayes yang diperoleh dari (2.8) disebut aturan Bayes formal. Jika π improper prior dan
~
0 mx maka aturan δ yang diperoleh dalam (2.6) disebut aturan Bayes teritlak. Dari definisi ini dapat dilihat bahwa aturan Bayes teritlak merupakan aturan Bayes formal.
Suatu aturan δ*dikatakan aturan minimaks bila
~,
*
:
~,
~ ~R
Sup
Inf
R
Sup
D
(2.9)Sebagai akibatnya : Aturan
* adalah aturan minimaks jika dan hanya jika
Sup
R
D
R
,
*
dan
*
*,
~ ~ ~ ~ (2.10) Jika
aturan Bayes dengan risiko konstan maka
aturan minimaks. Sehingga diperoleh implikasi, berikut : Jika
merupakan estimator minimaks maka setiap estimator yang menominasi δπmerupakan estimator minimaks.Estimator Stein dan Estimator James-Stein Misalkan
1,...,
'
~X
X
pX
, yang berdisrtibusi X | ~ Np
,Ip ~ ~ ~
(2.11)Denan mean tak diketahui
~
1,...,
p
' dan matriks identitas Ip sebagai matriks kovarians.Misalkan informasi prior adalah ~Np
0,AIp~ ~
, A parameter (2.12)Persoalannya adalah mencari estimator-estimator
p p~
:
x
untuk ~
terhadap kerugian kuadratik
p i i i L 1 2 2 ~ ~,
:
:
. Maka densitas posterior
2 i i ρ x θ ρ 2 1
e
2
:
|
ix
i , ρ := A 1 ADan mean posterior
i i
i T i i x :E
|X 1B X
(2.13) Untuk B := 1 A 1 . Karena B tidak diketahui, maka agar
δ
i
x
i merupakan estimator untuk
i, akandiestimasi B selalu distribusi marginal dari Xi berdistribusi normal univariat dengan mean 0 dan
varians A + 1 = B 1
, maka estimator alami untuk B berbentuk 2
~
ˆ
X
B
, α ≥ 0. Dari (2.3) diperoleh
i
i i i X X X B X 2 ~ 1 ˆ 1 :
Jadi estimator Bayes (formal) untuk :
1,..., p
'~
:
,...,
' 1 , 0 ~ 2 ~ 1 ~
X X X p (2.14) Lemma 2.2.1Jika fungsi f :
memenuhi
b a
dx
x
f
a
f
b
f
'
Untuk semua a dan b (a < b) dan bila X ~ N(0,1) sehingga E|f(X)| < ∞, maka
f
X
E
Xf
X
E
'
(2.15)Teorema 2.2.2 :
Misalkan Xi, i = 1, …, p (p ≥ 3) independen dengan berdistribusi N(I, 1) dan
1,...,
'
p , estimator untuk :
1,...,
' ~
p
dengan
i i i X X X 2 ~ 1
Maka fungsi risiko dari
, dengan fungsi kerugian
p i i i L 1 2 ~,
:
adalah
2 ~ 2 2 ~ ~ 1 1 2 2 , X E X E p p R
Untuk mendapatkan estimator James-Stein sebagai estimator yang lebih baik dari estimator maksimum Likelihood adalah sebagai berikut. Misalkan
0~ ~, , :
R R g
~ 22
2
1
X
E
p
,maka
g
mencapai ekstrim di α0:= p – 2.Sehingga dari (2.14) dengan mengambil α0= p – 2 diperoleh estimator James-stein
2 ~ ~ ~ 2 1 X X p X JS
(2.16)Nilai ekstrim dari
g
di α0= p – 2 adalah
2 ~ 2 2 0 1 2 2 2 X E p p g
~ 21
2
X
E
p
< 0 (2.17)Ini berarti bahwa estimator James-Stein lebih baik dari estimator maksimum Likelihood
~
X
, dan dapat dikatakan bahwa δJS mendominasi~ 0
X
dalam pengertian risiko. Dalam uraian di atas diperoleh pula bahwag
< 0 untuk 0 <α< 2(p-2). Sehingga dengan demikian diperoleh skibat-akibat berikut dan berlakuAkibat 2.2.3 :
Estimator δαyang didefinisikan oleh
2 ~ ~ ~ 2 1 X X p X
, Mendominasi
0
X
~
X
~ bila 0 <α< 2 dan p ≥ 3 (2.18). Akibat 2.2.4 :
Estimator James-Stein δJS yang sama dengan δ
α dalam (2.11) dengan α = 1 mendominasi semua
estimator δα untuk α ≠ 1 dan 0 ≤ α ≤ 2 .
Akibat 2.2.4 ini mengatakan bahwa δα, α ≠ 1 inadmissibel untuk mengestimasi ~
bilamana p ≥ 3, khususnya estimator Maksimum Likelihood
~ ~ 0
X
X
inadmissibel. Teorema 2.2.5 :Suatu estimator yang berbentuk
seperti dalam (2.11) merupakan estimator minimaks.Pandang pengaruh penyusutan dari estimator James-Stein. Misalkan 2 ~ 0 2 1 X p a ,
maka a0< 1. Jika a0 ≥ 0 maka δJS
X
~ menyusutkan ~X
kearah~
0, tapi bila a0< 0 maka δJS
X
~menyusutkan
~
X
melampaui~
0. Dalam hal ini, δJS
~X
dapat diperbaiki dengan mengambil a0 yang
negatif menjadi
~
0, yaitu didefinisikan estimator Stein berikut
~ * 2 ~ ~ 2 1 X X p X S
dengan (2.19) (◦)* = sup [(◦),0] (2.20) Lemma 2.2.6 : Jika ~X
~ N( ~
,Ip), maka
2 ~ ~ ~ 2 ~ ~ ~
f
X
X
E
f
X
X
E
(2.21) Teorema 2.2.7 : Estimator Stein
2 ~ ~ 2 1 X p X JS
dari (2.12) mempunyai risiko yang kurang dari risiko δJSdalam (2.9) dan merupakan estimator minimaks. Motivasi
Dari susunan kanonik yang disajikan dalam bagian yang lain, diperoleh klas estimator, susut dengan sifat minimaks, selanjutnya disebut estimator susut minimaks, yang menyusutkan variabel random
~
X
kearah~
0. Hal ini diperoleh bilamana informasi prior ~ Np
0,AIp~ ~
. Untuk informasi prior
p p v AI N , ~ ~ ~
(2.22)
2
~ ~ ~ ~ ~ ~2
1
X
v
v
v
X
p
X
JS
(2.23) Yang menyusutkan ~X
kearah targetv
P ~ dan Stein
~ ~ ~ * 2 ~ ~ ~2
1
X
v
v
v
X
p
X
S
(2.24)yang hanya menyusutkan
~
X
kearah~
v di p.
Estimator di atas dapat dipandang sebagai estimator Bayes Empiris (Efron dan Murris, 1972). Dalam hal ini estimator dalam (2.25) akan berbentuk
,...,
'~ ~ 1 ~ X X X JS p JS JS
, dengan
X X
S p X Xi i JS i 1 3
Bilamana (2.27)
p
X
X
X
X
S
p i i p i i
1 1,
estimasi darip
v
v
p i i
1 ~ dan p – 3 = (p – 1) – 2.Estimator (2.21) menyusutkan semua Xikearah
X
.Hasil kerja Stein pada tahun 1958 dan James-Stein pada tahun 1961 berkembang, dan oerkembangannya telah dikemukakan olehbanyak pengarang diantaranya Mc. Hudson (1978) mengangkat model estimator berbentuk
~
X
+
~
X
g
untuk suatu fungsi g. Selanjutnya perkembangan estimator ini berfokus pada penggunaan estimator susut minimaks (Berger, 1983). Masing-masing estimator tersebut tidak hanya mendominasi MLE,
~
~
X
X
, tapi juga menhasilkan banyak sekali risiko yang kecil dalam daerah tertentu di ruang parameter. Dengan menyeleksi estimator-estimator yang membuat~
menghampiri daerah baik (region of improvement) yang bersesuaian dengan estimator-estimatoor tersebut, berarti praktis perolehan risiko dapat dicapai. Akan tetapi, karena~
tidak diketahui dan suatu estimator harus dapat dipilih sebelum melihat data, maka menyeleksi estimator atau equivalen menyeleksi daerah baik merupakan hal yang mendasar berkaitan dengan informasi prior yang tersedia.
Berdasarkan hal ini, telah banyak estimator-estimator susut minimaks berkembang, sumbangan tentang keanekaragaman yang luas dari daerah-daerah risiko terbaik yang bersesuaian dengan berbagai jenis informasi prior yang berbeda telah dikemukakan dan didiskusikan oleh Berger (1982) dan Berger-Berliner (1984).
Dengan demikian, adalah wajar untuk menanyatakan, “Bagaimanakah menyusun suatu estimator susut minimaks dari mean bilamana informasi prior samar-sama (vagua) atau saling bertentanan (conflicting)”.
Identitas Stein
Suatu identitas sederhana mengenai ekspektasi fungsi variabel random normal diberikan dalam Lemma 3.1.1 dan buktinya dapat diuraikan dengan menggunakan integrasi bagian atau teorema Fubini. Lemma 3.1.1 :
Misalkan Y variable random normal N(0,1) dan g: integral taktentu dari fungsi terukur Lebesgue g' (yaitu, g' turunan dari g). Dengan menganggap
E '
g
Y
, maka
g
Y
E
Yg
Y
E
'
(3.1)Akibat 3.1.2 :
Jika X ~ N (θ,σ2) dan fungsi
h
:
integral taktentu dari fungsi teukur Lebesgueh
'
, dan
X
h
E '
, maka
E X h X X h E ' 2
Definisi 3.1.3 :Fungsi h :p dikatakan hamper terdiferensialkan, bila terdapat fungsi :h p p
sedemikian, untuk semua zp
~ .
1 0~ ~ ~ ~ ~ ~.
h
x
t
z
dt
z
x
h
z
x
h
Untuk hampir semua
x
p~ . Suatu fungsi
p p
g
:
hampir terdiferensialkan bila semua fungsi koordinatnya hampir terdiferensialkan.Sekarang, Lemma 3.1.1 diperluas ke fungsi-fungsi dari suatu vektor random normal dengan identitas sebagai matrik kovarians dan buktinya menggunakan Akibat 3.1.2.
Lemma 3.1.4 : Misalkan
~
X
variabel random Np
,Ip~
. Jika h :p merupakan fungsi yang hampir terdiferensialkan dengan
~X
h
E
, maka
~ ~ ~
~ X h X E X h E
(3.2)Lemma-lemma ini kelak digunakan dalam 3.3 untuk memperoleh standa estimator takbias dari risiko. Penyusunan Estimator Susut
Misalkan
~
vektor koordinat random berdimensi-p berdisribusi bersesuaian dengan ukuran probabilitas prior Π. Misalkan~
X
vektor random di p, berdistribusi normal bersyarat diberikan~
dengan mean bersyarat
~
, dan matriks Identitas sebagai matriks kovarians. Maka densitas tak bersyarat dari~
X
terhadap ukuran Lebesgue di p adalah
~ 2 1 2 / ~ 2 ~ ~2
1
:
d
e
x
f
p x (3.3)terhadap kerugian panjang kuadrat vektor sesatan estimator Bayes
~ X
dari ~
, didefinisikan oleh kondisi bahwa
:
diambil yang meminimumkan
~ 2 1 -~ 2 1 -~ ~ 2 ~ ~ 2 ~ ~ 2 ~ ~e
e
d
d
X
E
X
E
x x (3.4) Adalah
X
~
E
T
~X
~
X
~
E
T
~
X
~X
~
X
~
log
f
X
~
Yang merupakan estimator Bayes untuk
~
. Selanjutnya, estimator
disebut estimator susut dengan komponen susut
~
log
f
X
Berdasarkan gagasan di atas, berikut diuraikan estimator Stein yang menyusutkan
~
X
kearah suatu ruang bagian targetV p, dimana dim V := p – q dan q ≥ 3.Misalkan
~ v
X
P
menyatakan proyeksi dari~
X
dan V didefinisikan oleh~ ~ ~ ~ ~
min
:
X
v
X
P
X
V v v
(3.5) dan misalkan
2 ~ ~ ~:
X
P
X
X
S
V jarak kuadrat dari~
X
ke V, maka estimator Stein akan berbentuk
~ ~
~ ~ ~ 2 ^ 1 X P X X s q X X v S
(3.6)di mana a^b := min (a,b). dan estimator James-Stein adalah
~ ~
~ ~ ~2
X
P
X
X
s
q
X
X
v JS
(3.7)Jika ditulis dalam bentuk
~ ~
log
f
X
X
, maka
2
2
2
~ 2 1 ~ 2 2 1 ~ ~ ~S
X
q
e
q
X
S
X
es
q
X
f
x s q S (3.8) dan
2 2 1 ~ ~2
q JSX
es
q
X
f
atau
2 2 1 ~ ~ q JS X S X f (3.9)Risiko Estimator Susut
Sekarang digunakan Lemma 3.1.4 untuk memperoleh estimator takbias dari risiko. Misalkan
~ ~
g
X
X
estimator untuk~
sehinggag
:
p
p fungsi yang hampir terdeferensialkan dan memenuhi
~X
g
E
i i , i = 1, …, p dan
2
~X
g
E
maka untuk setiapi
1,...,
p
, berlaku
2
2
~
~
~1
E
g
X
2
g
X
X
g
X
E
i
i
i
i
i i (3.10) dan kosekuensinya
~ 2 ~ 2 ~ ~ ~ g X 1 E g X 2 g X X E i
(3.11)Bukti : Berdasarkan (3.3) dengan h = gi, diperoleh
X
ig
iX
i
E
X
i i
g
i
X
g
iX
X
i i
E
~ ~ 2 2 2 ~2
X
i i
E
g
i
X
E
g
i
X
X
i i
E
~ ~ 2 22
Dan menurut (3.2) maka
~ ~ 2 2 ~
1
E
g
X
2
E
g
X
X
g
X
E
i
i
i
i
i i
2 ~ 2 ~
1E gi X igi X .Selanjutnya,
p i i i i i i i g X E X g X X E 1 2 ~ 2 ~
~ 2 ~ 1 ~ ~ 2 X 2 g X p E g X 2 g X g E p p i i i i .Dapat dilihat bahwa rumus yang terkahir menyatakan
2~
X
g
p
+
~2
g
X
merupakan estimator tak bias risiko estimator
~ ~
g
X
X
dari ~
. Teorema 3.1.6 : Misalkan p
Cf : 0 dan
:
f
p
p fungsi-fungsi yang hampirterdiferensialkan dan
~ ~log
f
X
X
estimator dari ~
. Jika (i)
~ ~ 2 X f X f E i , I = 1, …, p (ii)
2
~log
f
X
E
.maka risiko dari
~ ~
log
f
X
X
adalah
~ 2 2 ~ ~ ~ 2 2 ~ ~ ~ log 2 f X X f X f X f E p X f X E
2 ~ ~ ~ 2 log 2 f X X f X f E p (3.12)
~ ~ 24
X
f
X
f
E
p
(3.13)Bukti : Misalkan
g
:
p
p yang didefinisikan olehf
f
f
g
:
log
Maka 2 2 2 2log
f
f
f
f
f
g
Dan diakibatkan dari persamaan (3.16) bahwa
2 ~ ~ ~log
X
f
X
E
2 ~ ~ ~ 2 log 2 f X X f X f E p Karena 2 22
1
2
f
f
f
f
f
f
maka
~ ~ 2 2 ~ ~ ~log
4
f
X
X
f
E
p
X
f
X
E
.Definisi 3.1.7 :
Misalkan
f :
p
dan :
f
p
p hampir terdiferensialkan, f dikatakansuperharmonik di p bila untuk hampir semua Xp
~ .
0
1 2 ~ 1 ~ 2 ~ 2
p i i p i iX
X
f
X
f
X
f
(3.14)Berikut syarat cukup minimaksitas estimator susut
~
~
log
f
X
X
.Akibat 3.1.8 :
Jika f :p
0C dan :
f
p
p fungsi yang hampir terdiferensialkan, dan akarkuadratnya superharmonik dan bahawa i) dan ii) dalam Teorema 3.1.6 Berlaku, maka estimator
~~
log
f
X
X
merupakan estimator minimaks dari~
, yaitu untuk semua
p~
.
2 ~ ~ ~log
X
f
X
E
2 ~ ~ ~ ~sup
inf
E
X
X
g
gBukti : ambil sebarang
p~
, menurut rumus dalam (3.20) diperoleh
~ ~ 2 2 ~ ~ ~log
4
f
X
X
f
E
p
X
f
X
E
Karena
~X
f
Superharmonik, maka
p
X
f
X
f
E
p
X
f
X
E
~ ~ 2 2 ~ ~ ~log
4
2 ~ ~ ~ ~sup
inf
E
X
g
X
gSelanjutnya, dibandingkan estimator takbias risiko estimator susut
~ X
dari ~
yang diperoleh dari Teorema 3.1.6 dengan risiko posterior (formal). Dari Terorema 3.1.6, estimator takbias dari risiko adalah
~ 2 2 ~ ~ 2 ~ 2 ~2
f
X
X
f
X
f
X
f
p
X
(3.15)Sehingga estimator takbias penurunan risiko dari
~
log
f
X
terhadap ~X
adalah
2
~ ~ 2 ~ 2 2 ~ ~2
f
X
X
f
X
f
X
f
X
D
(3.16)Untuk risiko posterior (formal)
~ 2 ~ ~ ~ ~ 2 ~ ~ X X E X log f X X E
~ 2 ~ ~ 2log
f
X
X
f
X
f
p
(3.17)Kesamaan dalam (3.175) pada dasarnya menggunakan Dalil Pythagoras dalam ruang Hilbert yang sesuai.
~ ~ ~ 2 ~ ~ 2 ~ ~f
X
X
X
f
X
X
X
E
(3.18)Jadi untuk setiap
~
,
2 ~ ~ ~ ~ 2 ~ ~ X X E X E X EE
(3.19)Misalkan diperhatikan dalam kondisi Superharmonik, yaitu bila ukuran prior (formal) Π mempunyai densitas π yang superharmonik terhadap ukuran Lebesgue, maka f yang didefinisikan oleh (3.3) juga superharmonik. Dan (3.18) dan (3.19) berlaku.
Akibat 3.1.9 : Jika
~ ~ ~ X logf X Xδ memenuhi kondisi Teorema 3.1.6 dan f superharmonik, maka δ merupakan estimator minimaks.
Estimator takbias penurunan risiko estimator Stein
2 , 2 2 , 2 ~ ~ ~ ~ 2 ~ q X S X S q q X S X S q X D
S (3.20) Dan James-Stein
~ 2 ~ ~2
X
S
q
X
X
JS
.Estimator δS dan δJSjuga mendominasi estimator Maksimum Likelihood klasik ~
X
dalam pengertian risiko dan dapat menghasilkan risiko kecil bilamana~
sangat dekat ke suatu target Vp. Kesimpulana) Jika
~
X
berdistribusi normal multivariat dengan panjang kuadrat vektor sesatan sebagai kerugian bilamana matriks kovarians diketahui sebagai matriks identitas, maka dalam mengestimasi mean diperoleh lebih dari satu klas besar estimator mean berbentuk
~
~
log
f
X
X
yang lebih baik dari estimator maksimum Likelihood~
X
berdasarkan informasi prior yang tersedia.b) Estimator susut
~
~
log
f
X
X
menyusutkan estimator maksimum Likelihood~
X
yang mempunyai sifat minimaks dan resiko kecil diperoleh untuk situasi dimana informasi prior samar-samar atau saling bertentangan.c) Dari K estimator susut minimaks yang berbentuk
X
~X
~log
m
k
X
~k
, k = 1, …, KDiperoleh klas besar estimator susut berbentuk
~ ~log
m
X
~
X
,
~ 1 ~ * X X m
K k k km wDimana w1, …, wKbobot prior positif dengan 1 1
K i kw , yang dapat menggabungkan informasi prior parsial tersebut.
d) Estimator dalam c) menyamai kelakuan estimator susut minimaks
~
~
log
f
X
X
yaitu, tidak hanya mendominasi MLE~
X
dan minimaks, tapi juga menghasilkan resiko kecil berkaitan dengan informasi prior parsial tersebut.e) Dari c), jika
,...,
1
K aturan Bayes, berturut-turut bersesuaian dengan densitas prior ,...,
1
K, maka
~ ~ log
~
*
X X m XMerupakan estimator Bayes terhadap prior campuran
K k k km w 1 ~
SaranSebagai implikasi dari kesimpulan yang diperoleh, maka penulis menyarankan :
a) Diharapkan adanya penelitian lebih lanjut dengan melibatkan takhingga banyaknya estimator-estimator susut yang mempunyai sifat minimaks dengan perolehan risiko kecil, sehingga akan memberikan landasan ilmiah yang lebih luas dan kuat lagi guna mendukung pemakaian pada perkembangan teknologi.
b) Diharapkan adanya penelitian yang serupa dan penelitian berkaitan dalam saran pertama guna memperoleh kasus-kasus dan contoh-contoh yang lebih sederhana agar pemahaman tentang konsep-konsep yang disajikan dapat dengan mudah diaplikasikan dan/atau dipakai oleh pengguna statistik.
Daftar Pustaka
Anderson, T.W. 1984. An Introduction to Multivariate Statistical Analysis. John Wiley & Sons, Inc., New York.
Arnold, S.F. 1981. The Theory of Linier Models and Multivariate Analysis. John Willey & Sons, Inc., New York.
Berger, J.O. 1980. Statistical Decision Theory : Foundations, Conceps and Methods. Spinger-Verlag, Inc., New York.
Berger, J.O. 1982. Selecting a Minimax Estimator of the Multivariate Normal Mean. Ann Statist., 10; 81-92.
Berger, J.O., and Berliner, L.M. 1984. Bayesian Input In Stein estimation and a new minimax
empirical Bayes estimator. J. of Econometrics, 25; 87-108.
Bickel, P. J. 1981. Minimax Etimator, Recurrent Disfusions, and Insolable Boundary Value Problems, Ann. Math. Statist., 42; 855-903.
Casella, G and Strawderman, W.E. 1981. Estimating A Bounded Normal Mean. Ann Statist. 9; 870-878.
Dey, D.K. and Berger, J.O. 1983. On Truncation Shrinkage Estimators In Simultaneous Estimation of
Normal Means. J. Amer. Statist. Assoc. 78; 865-869.
Efron dan Morris, C. 1975. Data Analysis Using Stein’s Estimator and Its Generalization. J. Amer. Statist. Assoc. 70; 311-319.
George, E.I. 1985a. Minimax Multiple Shringkage Estimation. Technical Report #35, Graduate School of Business, University of Chicago.
Hudson, H.M. 1978. A Natural Identity for Exponential Families with Aplications in Muliparameter
Estimation. Ann. Statist, 6; 473-484.
Morris, C.N. 1983. Parametric Empirical Bayes Infernce Theory and Applications. J. Amer. Statist. Assoc. 78: 47-85.
Rubin, D. 1980. Using empirical Bayes Technique in the law school validity studies. J. Amer. Statist. Assoc. 75, 801-827.
Stein, C.M. 1981. Estimation of The Mean of a Multivariate Normal Distribution. Ann. Statis. 9; 1135-1151.