În teoria probabilității și statisticile, problema studierii fenomenelor cu comportament necunoscut, dar, în număr mare , atribuită fenomenelor cunoscute și bine studiate, este foarte vie. Pentru aceasta, ei vin la salvarea diferitelor teoreme de convergență ale variabilelor aleatorii, care studiază exact condițiile în care anumite secvențe de variabile aleatoare ale unei anumite distribuții tind spre alte distribuții.
Cele mai importante rezultate realizabile sub formă de convergență a variabilelor aleatorii sunt teorema limită centrală , care afirmă că, pe măsură ce mărimea eșantionului crește, distribuția probabilității mediei sale este mai mult sau mai puțin similară cu cea a unuiGauss și legea numere mari , ceea ce justifică utilizarea eșantionului mediu ca estimare a valorii așteptate a legii fiecărei observații individuale.
Există mai multe tipuri de convergență. Fiecare dintre aceste condiții va fi expusă aici pentru variabilele aleatoare reale univariate, dar se generalizează fără prea multe dificultăți pentru variabilele aleatoare multivariate.
Convergență în distribuție
O succesiune de variabile aleatorii {\ displaystyle (X_ {n}) _ {n \ in \ mathbb {N}}} cu funcții de distribuție {\ displaystyle F_ {n}} se spune că este convergent în distribuție sau convergent în drept la variabila aleatorie {\ displaystyle X} cu funcție de distribuție {\ displaystyle F} , acesta este {\ displaystyle X_ {n} {\ stackrel {d} {\ rightarrow}} X} , dacă există următoarea limită
- {\ displaystyle \ lim _ {n \ to \ infty} F_ {n} (x) = F (x)}
în fiecare moment {\ displaystyle x \ in \ mathbb {R}} in care {\ displaystyle F} este continuu. Acesta este tipul de convergență utilizat în teorema limitei centrale .
Atâta timp cât {\ displaystyle F_ {X} (x) = P (X \ leq x)} , ceea ce implică convergența în distribuție este că așa {\ displaystyle n} probabilitatea ca secvența să ia valori mai mici sau egale cu {\ displaystyle x} (adică presupune valori într-un anumit interval) va fi întotdeauna mai asemănător cu probabilitatea ca {\ displaystyle X} presupuneți valori în același interval. Rețineți că acest lucru nu necesită acest lucru {\ displaystyle X} Și {\ displaystyle X_ {n}} asumă aceleași valori. Din această observație rezultă că {\ displaystyle X} Și {\ displaystyle X_ {n}} pot fi definite pornind de la spații de probabilitate modelând diferite experimente aleatorii.
Exemple
- {\ displaystyle X_ {n} = {1 \ peste n}} converge la {\ displaystyle X = 0} . Este într-adevăr adevărat
- {\ displaystyle F_ {n} (x) = I _ {[1 / n, + \ infty)} = \ left \ {{\ begin {matrix} 0, x <{1 \ over n} \\ 1, x \ geq {1 \ over n} \ end {matrix}} \ right.}
prin urmare
- {\ displaystyle \ lim _ {n \ to \ infty} F_ {n} (x) = F_ {X} (x) = I _ {[0, + \ infty)} = \ left \ {{\ begin {matrix } 0, x <0 \\ 1, x \ geq 0 \ end {matrix}} \ right.}
- O succesiune de variabile aleatorii uniforme discrete în {\ displaystyle \ {0, {1 \ over n}, {2 \ over n}, \ ldots, 1 \}} converge la variabila aleatorie uniformă continuă în {\ displaystyle [0,1]} . Acest lucru este remarcabil având în vedere trecerea dintre clase profund distincte, și anume cea a vc discretă și cea a vc continuă. Conversa este, de asemenea, validă: fiecare variabilă continuă aleatoare poate fi discretizată într-o succesiune de variabile aleatoare discrete, la fel cum o funcție măsurabilă este interpretată ca limita unei succesiuni de funcții simple .
Teoreme
- {\ displaystyle X_ {n} {\ stackrel {d} {\ rightarrow}} X} dacă și numai dacă pentru fiecare funcție continuă și mărginită {\ displaystyle g (x)} merita {\ displaystyle \ lim _ {n \ to \ infty} E [g (X_ {n})] = E [g (X)]}
- De sine {\ displaystyle X_ {n} {\ stackrel {d} {\ rightarrow}} X} și unirea susținătorilor {\ displaystyle X_ {n}} este limitat atunci{\ displaystyle E [X_ {n}] \ rightarrow E [X]}
- De sine {\ displaystyle X_ {n} {\ stackrel {d} {\ rightarrow}} X} Și {\ displaystyle h} atunci este o funcție continuă {\ displaystyle h (X_ {n}) {\ stackrel {d} {\ rightarrow}} h (X)}
- De sine {\ displaystyle X_ {n}} este o variabilă {\ displaystyle k} - variat, {\ displaystyle X_ {n} = (X_ {n, 1}, ..., X_ {n, k})} Și {\ displaystyle X_ {n} {\ stackrel {d} {\ rightarrow}} X} asa de {\ displaystyle X_ {n, i} {\ stackrel {d} {\ rightarrow}} X_ {i}} pentru fiecare {\ displaystyle i = 1, ..., k}
Convergență în probabilitate
După cum sa menționat mai devreme, convergența în distribuție oferă informații referitoare doar la distribuția variabilei aleatoare limită, în timp ce nu putem spune nimic despre valorile reale studiate. Acesta este motivul pentru care se introduce o noțiune mai puternică de convergență.
Vom spune apoi că o succesiune de variabile aleatorii {\ displaystyle (X_ {n}) _ {n \ in \ mathbb {N}}} converge în probabilitate la variabila aleatorie {\ displaystyle X} , în simboluri {\ displaystyle X_ {n} {\ stackrel {p} {\ rightarrow}} X} , dacă pentru fiecare {\ displaystyle \ varepsilon> 0}
- {\ displaystyle \ lim _ {n \ to \ infty} P (| X_ {n} -X | <\ varepsilon) = 1} [1]
sau echivalent
- {\ displaystyle \ lim _ {n \ to \ infty} P (| X_ {n} -X | \ geq \ varepsilon) = 0}
Alegut formal {\ displaystyle \ varepsilon> 0} , {\ displaystyle \ delta> 0} există {\ displaystyle N} astfel încât pentru fiecare {\ displaystyle n \ geq N}
- {\ displaystyle P (| X_ {n} -X | <\ varepsilon) \ geq 1- \ delta} .
Acest tip de convergență este utilizat în legea slabă a numărului mare .
Ceea ce susține definiția convergenței în probabilitate este că așa {\ displaystyle n} , probabilitatea ca valorile asumate de secvență să difere de valorile asumate de {\ displaystyle X} mai puțin un plus {\ displaystyle \ varepsilon} oricât de mic vrei, se apropie din ce în ce mai mult de 1.
Teoreme
- {\ displaystyle X_ {n} {\ stackrel {p} {\ rightarrow}} X} dacă și numai dacă {\ displaystyle X_ {n} -X {\ stackrel {p} {\ rightarrow}} 0} .
- {\ displaystyle X_ {n} {\ stackrel {p} {\ rightarrow}} X} (variabile k-variate) dacă și numai dacă {\ displaystyle X_ {n, i} {\ stackrel {p} {\ rightarrow}} X_ {i}} pentru fiecare {\ displaystyle i = 1, ..., k} .
- De sine {\ displaystyle X_ {n} {\ stackrel {p} {\ rightarrow}} X} , asa de {\ displaystyle X_ {n} {\ stackrel {d} {\ rightarrow}} X} .
- De sine {\ displaystyle X_ {n} {\ stackrel {d} {\ rightarrow}} X} Și {\ displaystyle X} este degenerat (adică este o constantă vc), atunci {\ displaystyle X_ {n} {\ stackrel {p} {\ rightarrow}} X} .
- De sine {\ displaystyle X_ {n} {\ stackrel {p} {\ rightarrow}} X} Și {\ displaystyle g} atunci este o funcție continuă {\ displaystyle g (X_ {n}) {\ stackrel {p} {\ rightarrow}} g (X)} .
Convergență aproape sigură
O succesiune de variabile aleatorii {\ displaystyle (X_ {n}) _ {n \ in \ mathbb {N}}} se spune că converge aproape sigur (sau aproape peste tot) la variabila aleatorie {\ displaystyle X} , în simboluri {\ displaystyle X_ {n} {\ stackrel {qc} {\ rightarrow}} X} sau {\ displaystyle X_ {n} {\ stackrel {qo} {\ rightarrow}} X} , de sine
- {\ displaystyle P (\ lim _ {n \ to \ infty} X_ {n} = X) = 1} .
Deoarece funcția de probabilitate {\ displaystyle P} este definit pe evenimente sau seturi de rezultate, formula anterioară poate fi rescrisă ca
- {\ displaystyle P (\ {\ omega \ in \ Omega | \ lim _ {n \ to \ infty} X_ {n} (\ omega) = X (\ omega) \}) = 1} .
Adică, având în vedere spațiul de probabilitate {\ displaystyle (\ Omega, \ Sigma, P)} , limita
- {\ displaystyle \ lim _ {n \ to \ infty} X_ {n} (\ omega) = X (\ omega)}
există pentru fiecare {\ displaystyle \ omega \ în U} tc {\ displaystyle P (U) = 1} .
Ceea ce pretinde definiția este că vc {\ displaystyle X_ {n}} Și {\ displaystyle X} ele vor diferi, în limită, numai la evenimentele cu probabilitate zero. Aceasta este cea mai puternică noțiune de convergență, deoarece exprimă faptul că, pe măsură ce mărimea eșantionului crește, este un eveniment aproape sigur că realizările eșantionului vor tinde să coincidă cu observațiile variabilei aleatorii {\ displaystyle X} . Acesta este tipul de convergență utilizat înlegea puternică a numărului mare .
Teoreme
- {\ displaystyle X_ {n} {\ stackrel {qc} {\ rightarrow}} X} dacă și numai dacă {\ displaystyle X_ {n} -X {\ stackrel {qc} {\ rightarrow}} 0} .
- {\ displaystyle X_ {n} {\ stackrel {qc} {\ rightarrow}} X} (variabile k-variate) dacă și numai dacă {\ displaystyle X_ {n, i} {\ stackrel {qc} {\ rightarrow}} X_ {i}} pentru fiecare {\ displaystyle i = 1, ..., k} .
- {\ displaystyle X_ {n} {\ stackrel {qc} {\ rightarrow}} X} dacă și numai dacă pentru fiecare {\ displaystyle \ varepsilon> 0, \ lim _ {m \ to \ infty} P (\ bigcap _ {n \ geq m} (| X_ {n} -X | <\ varepsilon)) = 1} .
- De sine {\ displaystyle X_ {n} {\ stackrel {qc} {\ rightarrow}} X} , asa de {\ displaystyle X_ {n} {\ stackrel {p} {\ rightarrow}} X} [2] .
- Din cea anterioară obținem {\ displaystyle X_ {n} {\ stackrel {qc} {\ rightarrow}} X \ Rightarrow X_ {n} {\ stackrel {d} {\ rightarrow}} X} , atâta timp cât {\ displaystyle X_ {n} {\ stackrel {p} {\ rightarrow}} X \ Rightarrow X_ {n} {\ stackrel {d} {\ rightarrow}} X}
Convergență în media r-a
O succesiune de variabile aleatorii {\ displaystyle (X_ {n}) _ {n \ in \ mathbb {N}}} se spune că converge în media r-a sau în norma r-a , la variabila aleatorie {\ displaystyle X} , cu {\ displaystyle r> 0} , dacă [3] :
{\ displaystyle \ lim _ {n \ to \ infty} E (| X_ {n} -X | ^ {r}) = 0}
De sine {\ displaystyle r = 1} , {\ displaystyle X_ {n}} se spune că converge în medie spre {\ displaystyle X} . De sine {\ displaystyle r = 2} , convergența se spune în media pătratică .
Conform abordării axiomatice a lui Kolmogorov , această convergență este echivalentă cu convergența din norma L p .
Teoreme
- De sine {\ displaystyle X_ {n} \ rightarrow X} în medie r-th cu {\ displaystyle r> 0} , asa de {\ displaystyle X_ {n} \ rightarrow X} în probabilitate [2]
- De sine {\ displaystyle X_ {n} \ rightarrow X} în medie r-th cu {\ displaystyle r> 0} , asa de {\ displaystyle X_ {n} \ rightarrow X} aproape sigur dacă nu există o succesiune
- De sine {\ displaystyle X_ {n} \ rightarrow X} în medie r-e {\ displaystyle r> s \ geq 1} , asa de {\ displaystyle X_ {n} \ rightarrow X} în medie s-a
Notă
Bibliografie
- ( EN ) Jean Jacod, Philip Protter, Probability Essentials , Springer, 2000, ISBN 3-540-43871-8 .