Probabilitate a posteriori

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare

În statisticile bayesiene , probabilitatea posterioară a unui eveniment aleatoriu sau a unei propuneri incerte este probabilitatea condițională care este atribuită după ce informațiile relevante sau fondul referitor la acel eveniment aleator sau propunerea incertă au fost luate în considerare. În mod similar, distribuția de probabilitate posterioară este distribuirea unei cantități necunoscute, tratată ca o variabilă aleatorie , condiționată de informațiile evidențiate de un experiment sau de un proces de colectare a informațiilor relevante (de exemplu, o inspecție, un sondaj de constatare a faptelor etc.) .

Definiție

Probabilitatea posterioară este probabilitatea parametrilor date fiind cunoștințele de : .

Acesta diferă de funcția de probabilitate, care este probabilitatea de a deține o cunoaștere dată odată ce parametrii sunt dați: .

Cu toate acestea, cele două concepte sunt conectate între ele:

Să presupunem că avem o credință a priorifuncția de distribuție a probabilității este și date observate cu o verosimilitate , atunci probabilitatea posterioară este definită ca

[1]

Probabilitatea posterioară poate fi scrisă într-o formă mnemonică, cum ar fi

.

Exemplu

Să luăm în considerare o școală mixtă formată din 60% băieți și 40% fete. Fetele poartă pantaloni sau fuste în număr egal, băieții toți poartă pantaloni. Un observator vede un student de la distanță (la întâmplare); tot ce poate spune este că poartă pantaloni. Care este probabilitatea ca elevul să fie fată? Răspunsul corect poate fi dedus prin aplicarea teoremei lui Bayes.

Evenimentul G este locul în care studentul văzut este o fată, iar evenimentul T este locul în care studentul văzut poartă pantaloni. Pentru a calcula P ( G | T ) trebuie mai întâi să știm:

  • P ( G ), adică probabilitatea ca elevul să fie o fată, indiferent de orice altă informație. Deoarece observatorul vede un elev la întâmplare, el sugerează că fiecare elev are aceeași probabilitate de a fi observat ca și ceilalți și că procentul de fete dintre elevi este de 40%, atunci probabilitatea căutată este de 0,4.
  • P ( B ), adică probabilitatea ca elevul să nu fie fată (adică să fie băiat) indiferent de orice altă informație ( B este evenimentul complementar față de G ). Această probabilitate este de 60%, sau 0,6.
  • P ( T | G ), adică probabilitatea ca elevul să poarte pantaloni, având în vedere informațiile a priori că este fată. Deoarece este probabil ca o fată să poarte pantaloni sau fustă, această probabilitate este de 0,5.
  • P ( T | B ), aceasta este probabilitatea ca un student să poarte pantaloni dacă a priori este băiat. Acest lucru este sigur pentru care este egal cu 1.
  • P ( T ), adică probabilitatea ca un student (ales la întâmplare) să poarte pantaloni indiferent de orice altă informație. Deoarece P ( T ) = P ( T | G ) P ( G ) + P ( T | B) P ( B) (prin teorema probabilității absolute ), acesta este 0,5 × 0,4 + 1 × 0,6 = 0,8 .

Odată obținute toate aceste informații, probabilitatea ca observatorul să fi observat o fată după ce a văzut un student purtând pantaloni poate fi calculată prin înlocuirea valorilor din formulă:

Calcul

Distribuția de probabilitate posterioară a unei variabile aleatorii dată de valoarea alteia poate fi calculată cu teorema lui Bayes prin înmulțirea distribuției de probabilitate a priori cu funcția de probabilitate și apoi împărțirea la o constantă de normalizare după cum urmează:

ceea ce dă funcția densității probabilității pentru o variabilă aleatorie X dată Y = y , unde

  • este densitatea a priori a lui X ,
  • este funcția de probabilitate ca funcție a lui x ,
  • este constanta de normalizare și
  • este densitatea posterioară a lui X dată Y = y .

Clasificare

În contextul clasificării statistice, probabilitățile posterioare reflectă incertitudinea în atribuirea unei observații unei anumite clase. În timp ce metodele de clasificare statistică prin definiție generează probabilități posterioare, cursanții automați oferă de obicei valori de apartenență care nu induc nicio încredere probabilistică. Este de dorit să transformați sau să convertiți valorile apartenenței la valori de probabilitate de apartenență la o anumită clasă, deoarece aceste clase sunt, în comparație cu prima, mai ușor de procesat în procesarea ulterioară.

Notă

  1. ^ Christopher M. Bishop, Pattern Recognition and Machine Learning , Springer, 2006, pp. 21–24, ISBN 978-0-387-31073-2 .

Bibliografie

Elemente conexe

linkuri externe