În statistici, testul F pentru compararea a două varianțe este un test de ipoteză bazat pe distribuția Fisher-Snedecor F și vizează testarea ipotezei că două populații care urmează ambele distribuții normale au aceeași varianță .
Metodă
Dacă populațiile X și Y respectă distribuțiile normale, respectiv {\ displaystyle {\ mathcal {N}} (\ mu _ {X}, \ sigma _ {X} ^ {2})} Și {\ displaystyle {\ mathcal {N}} (\ mu _ {Y}, \ sigma _ {Y} ^ {2})} , asa de
- campionii {\ displaystyle X_ {1}, X_ {2}, \ ldots, X_ {n}} Și {\ displaystyle Y_ {1}, Y_ {2}, \ ldots, Y_ {m}} primul izonomic pentru X și al doilea isonomic pentru Y se presupune că sunt independenți;
- estimatorii varianțelor observate {\ displaystyle S_ {X} ^ {2}} Și {\ displaystyle S_ {Y} ^ {2}} sunt variabile aleatoare independente;
- variabilele aleatorii {\ displaystyle {\ tfrac {n-1} {\ sigma _ {X} ^ {2}}} S_ {X} ^ {2}} Și {\ displaystyle {\ tfrac {m-1} {\ sigma _ {Y} ^ {2}}} S_ {Y} ^ {2}} urmează respectiv distribuțiile chi-pătrat {\ displaystyle \ chi ^ {2} (n-1)} Și {\ displaystyle \ chi ^ {2} (m-1)} ;
- raportul {\ displaystyle F = {\ tfrac {\ sigma _ {Y} ^ {2}} {\ sigma _ {X} ^ {2}}} {\ frac {S_ {X} ^ {2}} {S_ {Y } ^ {2}}}} urmează distribuția Fisher-Snedecor {\ displaystyle {\ mathcal {F}} (n-1, m-1)} .
Variabilă de decizie
Sub ipoteza {\ displaystyle H_ {0} = (\ sigma _ {X} ^ {2} = \ sigma _ {Y} ^ {2})} , adică dacă cele două populații au aceeași varianță, atunci variabila aleatorie
- {\ displaystyle F = {\ frac {S_ {X} ^ {2}} {S_ {Y} ^ {2}}}}
urmează distribuția Fisher-Snedecor
- {\ displaystyle {\ mathcal {F}} (n-1, m-1)}
parametrilor n-1 și m-1 , unde n și m sunt numerele celor două eșantioane.
Alegerea numărătorului nu influențează testul: sub ipoteza nulă variabila aleatorie {\ displaystyle 1 / F} urmează distribuția {\ displaystyle {\ mathcal {F}} (m-1, n-1)} .
Testul
Ca regiune de acceptare, la nivelul de semnificație α, se ia intervalul dintre cuantilele ordinii {\ displaystyle {\ frac {\ alpha} {2}}} Și {\ displaystyle 1 - {\ frac {\ alpha} {2}}} , în timp ce regiunea de respingere este cea exclusă:
- {\ displaystyle {\ mathcal {A}} =] f _ {\ frac {\ alpha} {2}}, f_ {1 - {\ frac {\ alpha} {2}}} [; \ qquad {\ mathcal { R}} =] 0, f _ {\ frac {\ alpha} {2}} [\ \ cup \] f_ {1 - {\ frac {\ alpha} {2}}}, \ infty [}
O valoare aparținând gamei {\ displaystyle] 0, f _ {\ frac {\ alpha} {2}} [} sugerează că varianța lui X este mai mică decât varianța lui Y , în timp ce o valoare aparținând intervalului {\ displaystyle] f_ {1 - {\ frac {\ alpha} {2}}}, \ infty [} sugerează inversul.
Econometrie
În multe cazuri, statistica F poate fi calculată cu un proces mai simplu:
- {\ displaystyle F = {\ frac {\ left ({\ frac {{\ mbox {SSR}} _ {1} - {\ mbox {SSR}} _ {2}} {p_ {2} -p_ {1} }} \ right)} {\ left ({\ frac {{\ mbox {SSR}} _ {2}} {n-p_ {2}}} \ right)}}} [1]
unde SSR i este suma pătratelor reziduale (Suma reziduurilor pătrate ) ale modelului i .
În econometrie se aplică și următoarea formulă de multiplicare a matricii :
- {\ displaystyle F = {\ frac {(R {\ hat {\ beta}} - r) ({\ hat {RVar ({\ widehat {\ beta}}) R '}}) ^ {- 1} (R {\ hat {\ beta}} - r)} {q}}}
unde este:
- {\ displaystyle R} este matricea constrângerilor;
- {\ displaystyle r} este parametrul egalității;
- {\ displaystyle ({\ hat {RVar ({\ widehat {\ beta}}) R '}}) ^ {- 1}} este inversul matricei cu covarianțele ;
- {\ displaystyle q} este numărul de constrângeri ale {\ displaystyle H_ {0}} .
Instrumentele sunt de obicei relevante dacă F ≥ 10
Un tabel cu valorile critice ale testului F poate fi găsit aici .
Aplicarea la compararea diferitelor statistici {\ displaystyle \ chi ^ {2}}
În analiza datelor, testul F este frecvent utilizat pentru a compara rezultatele obținute cu două metode diferite și evaluate cu estimatorul {\ displaystyle \ chi ^ {2}} . [2] Dacă aveți două variabile{\ displaystyle \ chi _ {1} ^ {2}} Și{\ displaystyle \ chi _ {2} ^ {2}} în urma distribuției de {\ displaystyle \ chi ^ {2}} la {\ displaystyle \ nu _ {1}} Și {\ displaystyle \ nu _ {2}} grade de libertate, respectiv, putem construi variabila {\ displaystyle f} :
{\ displaystyle f = {\ frac {\ chi _ {1} ^ {2} / \ nu _ {1}} {\ chi _ {2} ^ {2} / \ nu _ {2}}}}
care va fi distribuit conform Distribuției F :
{\ displaystyle p (f; \ nu _ {1}, \ nu _ {2}) = {\ frac {\ Gamma [(\ nu _ {1} + \ nu _ {2}) / 2]} {\ Gamma [\ nu _ {1} / 2] \ Gamma [\ nu _ {2} / 2]}} \ left ({\ frac {\ nu _ {1}} {\ nu _ {2}}} \ right ) ^ {\ nu _ {1} / 2} {\ frac {f ^ {1/2 (\ nu _ {1} -2)}} {(1 + f \ nu _ {1} / \ nu _ { 2}) ^ {1/2 (\ nu _ {1} + \ nu _ {2})}}} \ quad} .
Pentru a înțelege dacă{\ displaystyle \ chi _ {1} ^ {2}} Și{\ displaystyle \ chi _ {2} ^ {2}} sunt consecvente, prin urmare, folosim integralul distribuției probabilității pentru {\ displaystyle f} :
{\ displaystyle P_ {f} ({f ^ {0}; \ nu _ {1}, \ nu _ {2}}) = \ int _ {f ^ {0}} ^ {\ infty} p (f, \ nu _ {1}, \ nu _ {2}) df}
unde este {\ displaystyle f ^ {0}} este valoarea specială a {\ displaystyle f} obținut.
Valoarea a {\ displaystyle P_ {f}} dă probabilitatea de a găsi o valoare de {\ displaystyle f} egal cu {\ displaystyle f ^ {0}} sau mai mare din datele aleatorii dacă{\ displaystyle \ chi _ {1} ^ {2}} Și{\ displaystyle \ chi _ {2} ^ {2}} Sunt de acord.
De obicei testul F utilizat pentru i {\ displaystyle \ chi ^ {2}} comparați două potriviri aplicate acelorași date pentru a înțelege dacă una este mai bună decât cealaltă. Dacă valoarea lui {\ displaystyle P_ {f}} este mai mic decât nivelul de încredere ales (de exemplu, 5%), există o diferență semnificativă în bunătatea celor două potriviri.
Notă
linkuri externe