Suficiență (statistici)

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare

În statistici , suficiența unei analize statistice (înțeleasă ca funcție a unui eșantion de observații) definește în mod formal capacitatea acestei funcții de a reprezenta sintetic informațiile conținute în eșantion. O funcție care are această caracteristică este definită, pornind de la opera lui Ronald Fisher , o statistică suficientă .

Definiție formală

O definiție formală a conceptului de suficiență este după cum urmează:

Având în vedere o variabilă aleatorie , cu parametru necunoscut , și o statistică , este suficient pentru dacă distribuția condițională a probabilității Data nu depinde de .

Definiția de mai sus reprezintă o formalizare a ideii că o statistică suficientă rezumă toate informațiile despre populația conținute într-un eșantion - variabilă aleatorie . Cu toate acestea, în practică, este mai ușor să lucrați cu următorul criteriu de factorizare , propus inițial de Fisher însuși:

Este densitatea probabilității variabilei aleatorii ; este suficientă statistică pentru dacă și numai dacă există două funcții , astfel încât:

O modalitate de a interpreta expresia de mai sus este să vă imaginați diferite în așa fel încât valoarea statisticii este constant; ce efect ar avea acest lucru asupra inferenței cu privire la valoarea parametrului ? Dacă criteriul de factorizare este îndeplinit, nici unul, deoarece dependența funcției de probabilitate din este neschimbat.

Exemple

  • De sine sunt variabile aleatorii Bernoulli independente caracterizate prin parametru , variabila aleatorie adaugă:
este suficientă statistică pentru .
Acest lucru poate fi văzut luând în considerare distribuția comună a probabilității:
Deoarece observațiile sunt independente, cele de mai sus pot fi scrise ca:
Adunând puterile Și avem:
care satisface criteriul de factorizare, unde este pur și simplu funcția constantă 1. Observați că parametrul este estimat (aici ) interacționează cu numai prin .
  • De sine sunt independente și distribuite uniform pe interval , functia:
este suficientă statistică pentru .
Acest lucru poate fi văzut luând în considerare distribuția comună a probabilității:
Deoarece observațiile sunt independente, cele de mai sus pot fi scrise ca:
unde este este funcția Heaviside step . Acest lucru poate fi scris ca:
astfel încât criteriul de factorizare să fie încă satisfăcut; tot în acest caz .

Teorema Rao-Blackwell

Întrucât distribuția condiționată a Data nu depinde de , acest lucru este valabil și pentru așteptarea condiționată a Data , unde este este o funcție care îndeplinește condițiile de regularitate care asigură existența valorii așteptate . În consecință, această valoare condiționată așteptată este ea însăși o statistică și poate fi utilizată în scopuri de estimare. De sine este orice fel de estimator pentru , de obicei așteptarea condiționată este un estimator mai bun . Un mod de a face această afirmație mai precisă este dat de teorema Rao-Blackwell . Este adesea posibil să se construiască un prim estimator de aproximare , și apoi calculați valoarea condiționată așteptată , obținând un estimator care este, din diferite puncte de vedere, optim.

Elemente conexe

Alte proiecte

Matematica Portalul de matematică : accesați intrările Wikipedia care se ocupă de matematică