Web - Amazon

We provide Linux to the World


We support WINRAR [What is this] - [Download .exe file(s) for Windows]

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
SITEMAP
Audiobooks by Valerio Di Stefano: Single Download - Complete Download [TAR] [WIM] [ZIP] [RAR] - Alphabetical Download  [TAR] [WIM] [ZIP] [RAR] - Download Instructions

Make a donation: IBAN: IT36M0708677020000000008016 - BIC/SWIFT:  ICRAITRRU60 - VALERIO DI STEFANO or
Privacy Policy Cookie Policy Terms and Conditions
Estymator - Wikipedia, wolna encyklopedia

Estymator

Z Wikipedii

Estymator jest statystyką służącą do szacowania wartości parametru rozkładu.

Celem zastosowania estymatora jest znalezienie parametru rozkładu cechy w populacji.

Przykładowo badamy rozkład wzrostu ludności w Polsce. Zakładamy, że rozkład tej cechy X w populacji jest rozkładem normalnym, zaś szukaną wielkością jest wartość oczekiwana m. Wartość m jest zatem szukanym parametrem rozkładu cechy X. W celu oszacowania tych wielkości zbieramy dane z próby losowej o liczebności n. Następnym krokiem będzie znalezienie wygodnej statystyki \hat{\theta} z próby, która posłuży do oszacowania parametru m. Rolę takiej statystyki może spełniać wartość średnia z próby. Mówimy zatem, że wartość średnia z próby jest estymatorem wartości oczekiwanej rozkładu normalnego. Obliczoną przez nas na podstawie konkretnej próby wartość średnią nazywamy oceną parametru.

Spis treści

[edytuj] Definicja formalna

Niech

\mathcal{P}=\{P_\theta \colon \theta \in \Theta\}

będzie rodziną rozkładów prawdopodobieństwa określonych na przestrzeni próby \mathcal{X}, indeksowaną parametrem \theta\; (w szczególności może to być wektor parametrów rzeczywistych). P_\theta\; opisuje wielowymiarowy łączny rozkład wszystkich obserwacji w próbie X\;.

Zagadnienie estymacji punktowej polega na takim skonstruowaniu pewnej statystyki \hat{\theta}(X)\colon \mathcal{X} \to \mathbf{R}^k zwanej estymatorem, aby wartości \hat{\theta}(X) były bliskie (w jakimś ustalonym sensie) wartości \theta\;. W szczególności, jeśli estymowany jest tylko jeden z parametrów rozkładu (czyli jedna ze współrzędnych wektora \theta\;), to odległość między \hat{\theta}(X) i \theta\; liczona jest tylko dla tej współrzędnej.

Ponieważ każda ze zmiennych losowych X_i\; ma rozkład identyczny z rozkładem cechy X\; w populacji generalnej, a rozkład ten zależy od parametru \theta\;, estymatory są zmiennymi losowymi, mającymi rozkład również zależny od parametru \theta\;.

Estymacja przedziałowa w jednowymiarowym przypadku polega na skonstruowaniu dwóch statystyk \overline{\theta}(X) i \underline{\theta}(X) takich, że zachodzi:

P\left( \theta \in [\underline{\theta}(X),\overline{\theta}(X)]\right) \geqslant \gamma

gdzie \gamma\; jest ustalonym prawdopodobieństwem (tzw. poziom ufności). Przedział [\underline{\theta}(X),\overline{\theta}(X)] to przedział ufności na poziomie \gamma\;.

O estymacji z zadaną precyzją mówi się jeśli nałożone jest górne ograniczenie na wielkość \overline{\theta}(X)-\underline{\theta}(X).

Oceną parametru lub estymatą nazwiemy każdą realizację estymatora (zmiennej losowej \hat{\theta}).

Oczywiście ocena parametru będzie prawie zawsze różnić się od oryginalnej wartości parametru \theta\;. Wprowadza się zatem miarę błędu estymacji:
Błąd szacunku

d = \hat{\theta} - \theta

[edytuj] Własności estymatorów

Definicja estymatora pozostawia dużą dowolność w wybraniu danej statystyki do szacowania parametru, nie pozwalając jednocześnie na ocenę która ze statystyk jest "dobrym" estymatorem. Aby sprawdzić, czy dana statystyka jest dobrym kandydatem na estymator parametru, powinniśmy sprawdzić, czy spełnia ona zestaw własności charakteryzujących estymator.

[edytuj] Nieobciążoność

Estymator jest nieobciążony, jeśli wartość oczekiwana rozkładu estymatora jest równa wartości szacowanego parametru:

E\ (\hat{\theta})\ =\ \theta

Jeśli różnica pomiędzy wartością oczekiwaną rozkładu estymatora a wartością szacowanego parametru jest zależna funkcyjnie od estymatora:

E\ (\hat{\theta})\ - \ \theta \ =\ b\ (\hat{\theta})

to estymator nazywamy obciążonym, zaś samą różnicę nazywamy obciążeniem estymatora.

[edytuj] Asymptotyczna nieobciążoność

Estymator nazywamy asymptotycznie nieobciążonym, jeśli obciążenie estymatora dąży do zera przy rosnącej liczebności próby:

\lim_{n \to \infty} b\ (\hat{\theta})\ =\ 0

Każdy estymator nieobciążony jest oczywiście estymatorem asymptotycznie nieobciążonym.

[edytuj] Zgodność

Estymator nazywamy zgodnym, jeśli jest stochastycznie zbieżny do szacowanego parametru:

\lim_{n \to \infty} P \ \{|\hat{\theta}-\theta| < \epsilon\} = 1

Oznacza to, że jeśli rośnie liczebność próby, rośnie też prawdopodobieństwo, że oszacowanie przy pomocy estymatora będzie przyjmować wartości coraz bliższe wartości szacowanego parametru. Inaczej: zwiększając liczebność próby, zmniejszamy ryzyko popełnienia błędu.

[edytuj] Efektywność

Spośród zbioru wszystkich nieobciążonych estymatorów \hat{\theta}_1,\hat{\theta}_2,\dots,\hat{\theta}_r najefektywniejszym nazywamy estymator o najmniejszej wariancji.

Definicja ta jest bardzo niewygodna, ponieważ do wyznaczenia najefektywniejszego estymatora potrzebna jest znajomość wariancji wszystkich estymatorów nieobciążonych danego parametru rozkładu. W praktyce o wiele łatwiej jest skorzystać z nierówności Rao-Cramera.

[edytuj] Asymptotyczna efektywność

Estymator \hat{\theta} jest asymptotycznie najefektywniejszy, jeśli przy wzrastającej liczebności próby wariancja estymatora \hat{\theta} dąży do wariancji estymatora najefektywniejszego \hat{\theta}^*:

\lim_{n \to \infty} \frac{D^2(\hat{\theta})}{D^2(\hat{\theta}^*)} = 1

gdzie D^2(\hat{\theta}) oznacza wariancję estymatora.

[edytuj] Dostateczność

Estymator \hat{\theta} jest dostateczny, jeśli można, ze względu na niego dokonać faktoryzacji (rozłożenia na iloczyn) łącznej funkcji gęstości f(x) wektora wyników próby X=(X_1,X_2,\dots,X_n)

f\ (x,\theta)\ =\ f(\hat{\theta},\theta) g(x,\hat{\theta})

gdzie g(x,\hat{\theta}) jest funkcją niezależną od parametru θ

[edytuj] Metody wyznaczania estymatorów

Jeśli nie jest oczywiste jaką statystykę należy wybrać jako kandydata na estymator, z pomocą przychodzą różnorodne metody ich wyznaczania.

[edytuj] Metoda momentów

Etap 1.

Przedstawiamy momenty (zwykłe lub centralne) jako funkcje parametrów rozkładu:

\begin{matrix}
\eta_1 & = & f_1(\theta_1, & \theta_2, & \dots, & \theta_r),\\
\eta_2 & = & f_2(\theta_1, & \theta_2, & \dots, & \theta_r),\\
\vdots\\
\eta_r & = & f_r(\theta_1, & \theta_2, & \dots, & \theta_r),
\end{matrix}

Momenty wybieramy w taki sposób, aby powstały w ten sposób układ równań miał jednoznaczne rozwiązanie.

Etap 2.

Rozwiązujemy układ równań względem parametrów θi i w miejsce momentów z populacji ηi wstawiamy momenty z próby Mi

[edytuj] Metoda największej wiarogodności

(W literaturze stosowana jest zarówno pisownia "wiarogodności", jak i "wiarygodności").

Etap 1.

Wyznaczamy funkcję wiarogodności próby zgodnie ze wzorami:

L(x_1, ..., x_n; \theta_1, ..., \theta_r) = \prod_{i=1}^{n} f(x_i; \theta_1, ..., \theta_r) dla rozkładów ciągłych

L(x_1, ..., x_n; \theta_1, ..., \theta_r) = \prod_{i=1}^{n} p(x_i; \theta_1, ..., \theta_r) dla rozkładów skokowych

gdzie f oznacza funkcję gęstości rozkładu, zaś p funkcję prawdopodobieństwa.

Etap 2.

Wyznaczamy lnL (funkcja lnL(θ) i L(θ) osiągają maksimum dla tej samej wartości, a często zamiast lnL(θ) wygodniej jest używać logarytmu funkcji wiarygodności).

Etap 3.

Wyznaczamy pochodne cząstkowe \frac {\partial \ln L} {\partial \theta_i} dla i = 1,...,r. Gdy L(θ) jest dyskretna nie możemy różniczkować, wyliczamy \frac {L(n+1)} {L(n)} . Wiarogodność wtedy jest jest maksymalizowana przez najmniejsze n przy którym ten stosunek jest \le 1.

Etap 4.

Rozwiązujemy układ równań \frac {\partial \ln L} {\partial \theta_i} = 0 względem θi

Rozwiązanie układu stanowią estymatory szukanych parametrów.

[edytuj] Wady

Alternatywne podejście do statystyki, tzn. statystyka subiektywna, bayesowska, gradacyjna i metody rangowe ogranicza stosowanie estymatorów. Wskazuje się, że estymatory tak naprawdę dobierane są ad-hoc, a wszystkie ważne kryteria takie jak nieobciążoność i minimalna wariancja zależą od wyboru układu odniesienia, a kryteria doboru estymatora przy danym rozkładzie zależą od "kosztów" błędnego oszacowania – jeśli np. przeszacowane o 1 kosztuje nas tyle co niedoszacowanie o 5, nieobciążony estymator będzie złym wyborem.

Na przykład jeśli badamy rozmiary baniek mydlanych (idealnie kulistych) i wyniki pomiarów to:

Numer pomiaru Średnica [cm] Pole przekroju [cm2] Objętość [cm3]
1 2 1 \frac 1 3 \cdot \pi
2 4 10 \frac 2 3 \cdot \pi
3 6 36 \cdot \pi
4 8 16π 85 \frac 1 3 \cdot \pi

Mamy teraz kilka możliwości:

  • możemy przyjąć za wymiar podstawowy średnicę, wybrać estymator dla średnicy, i obliczyć pozostałe wymiary na podstawie średnicy,
  • możemy zrobić to samo z polem przekroju,
  • lub objętością,
  • lub estymować każdy wymiar osobno

Wyniki to:

Metoda Średnica Pole przekroju Objętość
Średnica 5 6,25 π 20,83 π
Pole przekroju 5,48 7,5 π 27,29 π
Objętość 5,84 8,55 π 33,33 π
Niezależnie 5 7,5 π 33,33 π

Czyli estymator nieobciążony dla każdego z wymiarów daje "obciążone" wyniki dla pozostałych, a estymowanie każdego wymiaru z osobna prowadzi do niezachowania zależności między wymiarami.

Metoda stosowana w statystyce subiektywistycznej wymusza na nas:

  • Przyjęcie explicite założeń co do rozkładu, czyli rozkładu a priori (co w przeciwnym wypadku musimy zrobić niejawnie, np. w powyższym przykładzie wybierając jeden z wymiarów). Na tej podstawie z reguły Bayesa wyprowadzamy wzór na rozkład a posteriori parametrów modelu (w statystyce klasycznej żaden z tych dwóch rozkładów nie jest dopuszczalny, choć są czasem stosowane niejawnie).
  • Przyjęcie explicite funkcji kosztu. Na podstawie funkcji kosztu oraz rozkładu a posteriori wyliczamy jedyny możliwy w tym przypadku estymator.

[edytuj] Ucięty rozkład normalny

Istnieją też relatywnie proste rozkłady w których lepiej jest przyjąć rozkład obciążony od nieobciążonego. Przyjmijmy, że zmienna X ma rozkład normalny o znanej wariancji i nieznanej (ale należącej do znanego przedziału) wartości oczekiwanej, ale odczyty Y z naszych urządzeń pomiarowych wszystkie wartości ujemne przedstawiają jako 0. Przyjmijmy że dla danych zawierających tylko liczby dodatnie estymator zwraca dodatnie oszacowanie parametru. Jest to bardzo pożądana cecha. Estymator musiałby jednak zwracać coś również dla odczytów zawierających wyłącznie zera – przyjmijmy że dla k odczytów będących samymi zerami zwraca zk.

Załóżmy że wartość oczekiwana wynosi φ. Chcemy jednak żeby estymator był nieobciążony – w tym celu, jeśli zk < φ, niedoszacowania w wyniku wylosowania samych zer mogą być równoważone przez przeszacowania w wyniku wylosowania jakiegoś niezerowego wyniku. Jeśli jednak z_k \ge \phi to nie istnieje żaden estymator nieobciążony, gdyż niezależnie od wyniku pomiarów estymator zwróci oszacowanie wyższe od φ. A zatem żeby estymator był nieobciążony, to dla każdego k oszacowanie zk musi być nie większe od najmniejszej możliwej wartości parametru, a ponieważ w rozkładzie normalnym szansa na odczyt innej wartości niż zero jest niezerowa (choć może być bardzo mała), to żeby równoważyć estymację zk musi być ostro mniejsze od najmniejszej możliwej wartości parametru. Szacowanie odczytu serii kolejnych zer na wartość mniejszą od najmniejszej dopuszczalnej zdecydowanie nie jest pożądaną własnością estymatora.

Lepiej jest więc przyjąć jakiś estymator obciążony – np. estymator Bayesowski powstały przez przyjęcie wszystkich wartości parametru za równie prawdopodobne oraz funkcji kosztu za kwadrat różnicy między parametrem a jego estymacją. Taki estymator będzie bardzo bliski średniej arytmetycznej dla wyników dodatnich (nie będzie ściśle równy średniej ze względu na istnienie górnej granicy możliwych wartości parametru), a dla serii zer przyjmie rozsądniejsze wartości, zaczynając powyżej połowy ujemnego przedziału (być może w przedziale dodatnim) dla niskich k i obniżając się powoli asymptotycznie do najmniejszej dopuszczalnej wartości dla przedziału ujemnego.

[edytuj] Obserwacje odstające

Zobacz więcej w osobnym artykule: Estymacja odporna.

Estymatory z zasady wyznaczają jeden z parametrów rozkładu, a zatem zakładają pewną określony rozkład lub klasę rozkładów, do których ma należeć rozkład danej zmiennej losowej. Na ogół jest to rozkład normalny, lub (w przypadku wielowymiarowych zmiennych losowych) wielowymiarowy rozkład normalny.

W praktyce jednak dane na ogół zawierają tzw. obserwacje odstające (ang. outliers), czyli wartości, które dostały się do zbioru przypadkowo i nie odzwierciedlają rzeczywistości. Mogą to być efekty błędnego zrozumienia pytania przez osobę ankietowaną, zaburzeń w procesie pomiaru, itp.. Można milcząco zakładać, że dobrze przeprowadzony eksperyment nigdy nie wyprodukuje elementów odstających, jednak w praktyce zbiory bez elementów odstających zdarzają się bardzo rzadko.

Elementy odstające zaburzają w sposób nieprzewidywalny rozkład z próby danej zmiennej losowej. Nawet jeden element odstający może sprawić, że niektóre estymatory i inne statystyki mogą dać całkowicie błędne wartości.

Przykładowo szczególnym przypadkiem estymacji jest znajdowanie parametrów regresji liniowej za pomocą metody najmniejszych kwadratów. Metoda ta w przypadku dodania do zbioru danych nawet jednego elementu znacznie oddalonego od prostej regresji może całkowicie zmienić wynik. Tendencja rosnąca może nagle stać się malejącą, korelacja dodatnia, ujemną, itp.

Niektóre metody obejścia tego problemu:

[edytuj] Zobacz też

[edytuj] Bibliografia

  • W. Krysicki, J. Bartos, W. Dyczka, K. Królikowska, M. Wasilewski: Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, część 2. Statystyka matematyczna. Warszawa: PWN, 2006. ISBN 83-01-14292-8. 

Our "Network":

Project Gutenberg
https://gutenberg.classicistranieri.com

Encyclopaedia Britannica 1911
https://encyclopaediabritannica.classicistranieri.com

Librivox Audiobooks
https://librivox.classicistranieri.com

Linux Distributions
https://old.classicistranieri.com

Magnatune (MP3 Music)
https://magnatune.classicistranieri.com

Static Wikipedia (June 2008)
https://wikipedia.classicistranieri.com

Static Wikipedia (March 2008)
https://wikipedia2007.classicistranieri.com/mar2008/

Static Wikipedia (2007)
https://wikipedia2007.classicistranieri.com

Static Wikipedia (2006)
https://wikipedia2006.classicistranieri.com

Liber Liber
https://liberliber.classicistranieri.com

ZIM Files for Kiwix
https://zim.classicistranieri.com


Other Websites:

Bach - Goldberg Variations
https://www.goldbergvariations.org

Lazarillo de Tormes
https://www.lazarillodetormes.org

Madame Bovary
https://www.madamebovary.org

Il Fu Mattia Pascal
https://www.mattiapascal.it

The Voice in the Desert
https://www.thevoiceinthedesert.org

Confessione d'un amore fascista
https://www.amorefascista.it

Malinverno
https://www.malinverno.org

Debito formativo
https://www.debitoformativo.it

Adina Spire
https://www.adinaspire.com