Upload
others
View
2
Download
0
Embed Size (px)
Citation preview
Statystyki próbkoweNiech X = (X1,X2, . . .Xn)′ będzie n elementowym wektoremlosowym.
Średnia z próby:
X̄ =1n
n∑i=1
Xi
Wariancja nieobciążona:
S2 =1
n − 1
n∑i=1
(Xi − X̄ )2
Wariancja obciążona:
S20 =1n
n∑i=1
(Xi − X̄ )2
Statystyki próbkoweNiech X = (X1,X2, . . .Xn)′ będzie n elementowym wektoremlosowym.
Średnia z próby:
X̄ =1n
n∑i=1
Xi
Wariancja nieobciążona:
S2 =1
n − 1
n∑i=1
(Xi − X̄ )2
Wariancja obciążona:
S20 =1n
n∑i=1
(Xi − X̄ )2
Statystyki próbkoweNiech X = (X1,X2, . . .Xn)′ będzie n elementowym wektoremlosowym.
Średnia z próby:
X̄ =1n
n∑i=1
Xi
Wariancja nieobciążona:
S2 =1
n − 1
n∑i=1
(Xi − X̄ )2
Wariancja obciążona:
S20 =1n
n∑i=1
(Xi − X̄ )2
Rozkłady statystyk próbkowych
Lemat 4.1:Niech X1,X2, . . .Xn będzie n elementową próbą losową, a g(x),funkcją dla której Eg(x) oraz Varg(x) istnieją. Wówczas:
E
(n∑
i=1
g(Xi )
)= nE [g(X1)]
oraz
Var
(n∑
i=1
g(Xi )
)= nVar [g(X1)]
Rozkłady statystyk próbkowych
Twierdzenie 4.1:Niech X1,X2, . . .Xn będzie n elementową próbą losową, o średniejEXi = µ, i wariancji VarXi = σ2 <∞ Wówczas:1. EX̄ = µ
2. VarX̄ = σ2
n
3. ES2 = σ2
Rozkłady statystyk próbkowych
Dowód:Korzystając z Lematu 4.1 otrzymujemy:
EX̄ = E
(1n
n∑i=1
Xi
)=1nE
(n∑
i=1
Xi
)=1nnEX1 = µ
co dowodzi równości (1) w Twierdzeniu 4.1.
Analogicznie dowodzimy równości (2):
VarX̄ = Var
(1n
n∑i=1
Xi
)=1n2
Var
(n∑
i=1
Xi
)=1n2
nVarX1 =σ2
n
Rozkłady statystyk próbkowych
Dowód:Korzystając z Lematu 4.1 otrzymujemy:
EX̄ = E
(1n
n∑i=1
Xi
)=1nE
(n∑
i=1
Xi
)=1nnEX1 = µ
co dowodzi równości (1) w Twierdzeniu 4.1.
Analogicznie dowodzimy równości (2):
VarX̄ = Var
(1n
n∑i=1
Xi
)=1n2
Var
(n∑
i=1
Xi
)=1n2
nVarX1 =σ2
n
Rozkłady statystyk próbkowychDowód:Aby dowieść punktu (3) Twierdzenia, najpierw pokażemy, żezachodzi równość
n∑i=1
(Xi − X̄ )2 =n∑
i=1
X 2i − nX̄ 2 (1)
Niech a ∈ R, powyższą równość dowodzimy następująco:
n∑i=1
(Xi − X̄ )2 =n∑
i=1
(Xi − a + a− X̄ )2 =
=n∑
i=1
(Xi − a)2 + 2n∑
i=1
(Xi − a)(a− X̄ ) +n∑
i=1
(a− X̄ )2 =
=n∑
i=1
X 2i − nX̄ 2.
Przyjmując a = 0 otrzymujemy dowodzoną równość.
Rozkłady statystyk próbkowych
Dowód:Zatem korzystając z równania (1) i Lematu 4.1 dostajemy:
ES2 = E
(1
n − 1
n∑i=1
(Xi − X̄ )2)
= E
(1
n − 1
n∑i=1
X 2i − nX̄ 2)
=
=1
n − 1E
(n∑
i=1
X 2i
)− nEX̄ 2 =
=1
n − 1
(n(σ2 + µ2)− n
(σ2
n+ µ2
))= σ2
Estymator
Definicja:Statystykę T (X1,X2, . . .Xn) służącą do oszacowania nieznanegoparametru populacji nazywamy estymatorem. Dla konkretnychwartosci próby X1 = x1,X2 = x2, . . . ,Xn = xn, liczbęT (x1, x2, . . . xn) nazywamy wartością estymatora.
Błąd średniokwadratowy
Za liczbową charakterystykę dokładności estymatora Trzeczywistej funkcji g(θ) podlegającej ocenie, przyjmuje się bładśrednikwadratowy, oznaczany przez BSKθ(T )
Definicja:Błędem średniokwadratowym estymatora T funkcji g(θ) nazywamy
BSKθ(T ) = Eθ[(T − g(θ))2]
Zauważmy, że
BSKθ(T ) = Eθ[(T − Eθ)2] + (Eθ − g(θ))2 = Varθ(T ) + bθ(T )
gdzie bθ(T ) oznacza obciążenie estymatora.
Błąd średniokwadratowy
Za liczbową charakterystykę dokładności estymatora Trzeczywistej funkcji g(θ) podlegającej ocenie, przyjmuje się bładśrednikwadratowy, oznaczany przez BSKθ(T )
Definicja:Błędem średniokwadratowym estymatora T funkcji g(θ) nazywamy
BSKθ(T ) = Eθ[(T − g(θ))2]
Zauważmy, że
BSKθ(T ) = Eθ[(T − Eθ)2] + (Eθ − g(θ))2 = Varθ(T ) + bθ(T )
gdzie bθ(T ) oznacza obciążenie estymatora.
Estymator lepszy, dopuszczalny
Definicja:Estymator T1 jest lepszy od estymatora T2, jeżeli
BSKθ(T1) ¬ BSKθ(T2) dla każdego θ ∈ Θ
i chociażby dla jednej wartości θ spełniona jest nierówność ostra
BSKθ(T1) < BSKθ(T2)
Definicja:Estymator T nazywa się dopuszczalny, jeżeli nie istnieje estymatorlepszy niż T . Wprzeciwnym razie estymator T nazywa sięniedopuszczalny.
Estymator lepszy, dopuszczalny
Definicja:Estymator T1 jest lepszy od estymatora T2, jeżeli
BSKθ(T1) ¬ BSKθ(T2) dla każdego θ ∈ Θ
i chociażby dla jednej wartości θ spełniona jest nierówność ostra
BSKθ(T1) < BSKθ(T2)
Definicja:Estymator T nazywa się dopuszczalny, jeżeli nie istnieje estymatorlepszy niż T . Wprzeciwnym razie estymator T nazywa sięniedopuszczalny.
Estymator lepszy, dopuszczalny
PrzykładNiech X1,X2 będą zmiennymi losowymi takimi, że Eθ(X 2i ) <∞ iniech g(θ) = Eθ(Xi ), i = 1, 2. Który z estymatorów jest lepszy
T (X1,X2) = X1 czy S(X1,X2) =12
(X1 + X2)?
Estymatory spełniają równość:
Eθ(T ) = Eθ(S) = g(θ) równoważnie bθ(T ) = bθ(S).
Jednocześnie:
Varθ(S) =12Varθ(X1) < Varθ(X1) = Varθ(T ),
dla każdego θ ∈ Θ.A zatem: BSKθ(S) < BSKθ(T ), czyli S jest estymatorem lepszymniż T , a T jest estymatorem niedopuszczalnym.
Estymator lepszy, dopuszczalny
PrzykładNiech X1,X2 będą zmiennymi losowymi takimi, że Eθ(X 2i ) <∞ iniech g(θ) = Eθ(Xi ), i = 1, 2. Który z estymatorów jest lepszy
T (X1,X2) = X1 czy S(X1,X2) =12
(X1 + X2)?
Estymatory spełniają równość:
Eθ(T ) = Eθ(S) = g(θ) równoważnie bθ(T ) = bθ(S).
Jednocześnie:
Varθ(S) =12Varθ(X1) < Varθ(X1) = Varθ(T ),
dla każdego θ ∈ Θ.A zatem: BSKθ(S) < BSKθ(T ), czyli S jest estymatorem lepszymniż T , a T jest estymatorem niedopuszczalnym.
Estymator nieobciążony
Definicja:Estymator T (X1,X2, . . . ,Xn) rzeczywistej funkcji g(θ) jestnieobciążony, jeżeli
Eθ[T (X1,X2, . . . ,Xn)] = g(θ) dla każdego θ ∈ Θ
Obciążeniem estymatora T nazywamy:
bθ(T ) = Eθ(T )− g(θ)
Estymator nieobciążony
Definicja:Estymator T (X1,X2, . . . ,Xn) rzeczywistej funkcji g(θ) jestnieobciążony, jeżeli
Eθ[T (X1,X2, . . . ,Xn)] = g(θ) dla każdego θ ∈ Θ
Obciążeniem estymatora T nazywamy:
bθ(T ) = Eθ(T )− g(θ)
Estymator nieobciążony
Przykład:Niech X = (X1,X2, . . . ,Xn)′ będzie wektorem losowym, dlaktórego EθXi = µ. Niech
T (X) =1n
n∑i=1
Xi = X̄ .
Wówczas:Eθ[T (X)] = µ
A zatam średnia próbkowa jest nieobciążonym estymatoremwartości oczekiwanej.
Estymator nieobciążony
Przykład:Niech X1,X2, . . . ,Xn będzie próbą z rozkładu normalnegoN(µ, σ2), µ ∈ R, σ > 0. Rozważmy estymator wariancji postaci:
S2 =1
n − 1
n∑i=1
(Xi − X̄ )2
PonieważE (S2) = σ2
wariancja próbkowa wyrażona powyższym wzorem jestnieobciążonym estymatorem wariancji σ2.
Estymator nieobciążony
Przykład:Innym estymatorem wariancji σ2 jest estymator:
S20 =1n
n∑i=1
(Xi − X̄ )2 =n − 1n
S2,
dla którego:
ES20 = E
(n − 1n
S2)
=n − 1n
σ2,
czyli jest on estymatorem obciążonym.
Estymator nieobciążony
Definicja:Niech T1 i T2 będą dwoma nieobciążonymi estymatorami funkcjig(θ). Powiemy, że estymator T1 jest lepszy od estymatora T2,jeżeli:
Var(T1) ¬ Var(T2), dla każdego θ ∈ Θ
i dla co najmniej jednej wartości θ zachodzi:
Var(T1) < Var(T2).
Estymator nieobciążony
Definicja:Niech T1 i T2 będą dwoma nieobciążonymi estymatorami funkcjig(θ). Powiemy, że estymator T1 jest lepszy od estymatora T2,jeżeli:
Var(T1) ¬ Var(T2), dla każdego θ ∈ Θ
i dla co najmniej jednej wartości θ zachodzi:
Var(T1) < Var(T2).
Estymator nieobciążony
Przykład:Niech X1,X2,X3 będzie daną próbą losową o średniej E (Xi ) = µ iwariancji Var(Xi ) = σ2 i niech T1(X1,X2,X3) = 1
3
∑3i=1 Xi i
T2(X1,X2,X3) = 12X1 + 2
3X2 −16X3 będą dwoma estymatorami
średniej µ. Który z nich jest lepszy?
Sprawdźmy ich nieobciążoność:
E
(13
3∑i=1
Xi
)=133µ = µ
E
(12X1 +
23X2 −
16X3
)=12µ+23µ− 16µ = µ,
a zatem oba estymatory są nieobciążone.
Estymator nieobciążony
Przykład:Niech X1,X2,X3 będzie daną próbą losową o średniej E (Xi ) = µ iwariancji Var(Xi ) = σ2 i niech T1(X1,X2,X3) = 1
3
∑3i=1 Xi i
T2(X1,X2,X3) = 12X1 + 2
3X2 −16X3 będą dwoma estymatorami
średniej µ. Który z nich jest lepszy?Sprawdźmy ich nieobciążoność:
E
(13
3∑i=1
Xi
)=133µ = µ
E
(12X1 +
23X2 −
16X3
)=12µ+23µ− 16µ = µ,
a zatem oba estymatory są nieobciążone.
Estymator nieobciążony
Przykład:Wyznaczmy zatem wariancje tych estymatorów:
Var
(13
3∑i=1
Xi
)=193Var(X1) =
13σ2
Var
(12X1 +
23X2 −
16X3
)=14σ2 +
49σ2 +
136σ2 =
2636σ2,
czyli
Var(T1) =1236
<2636
= Var(T2),
a stąd estymator T1 jest lepszy od T2.
Estymator nieobciążony z jednostajnie minimalną wariancją
Definicja:Niech g(θ) będzie funkcją estymowalną i niech W będzie zbioremjej wszystkich estymatorów nieobciążonych posiadającychskończoną wariancję dla każdego θ ∈ Θ. Statystyka T ∈W jestnazywana estymatorem nieobciążonym o minimalnej wariancjifunkcji g(θ) (estymatorem NJMW), jeżeli:
• Eθ(T2) <∞, dla każdego θ ∈ Θ
• Varθ(T ) = Varθ(U), dla każdego U ∈W i każdego θ ∈ Θ