Modelul probit este reprezentat cu roșu punctat.
În statistici și econometrie , modelul probit este un model de regresie neliniar utilizat atunci când variabila dependentă este dihotomică . Obiectivul modelului este de a stabili probabilitatea cu care o observație poate genera una sau cealaltă valoare a variabilei dependente; poate fi folosit și pentru clasificarea observațiilor, pe baza caracteristicilor acestora, în două categorii. [1]
Modelul a fost propus pentru prima dată de Chester Ittner Bliss în 1934 , [2] extins în anul următor de Ronald Fisher care a introdus o metodă iterativă pentru estimarea parametrilor folosind metoda maximă probabilitate .
Alegerea funcției
Funcția probit. Inversul acestei funcții este utilizat în modelul probit.
Un model de regresie în care variabila dependentă este dihotomică, adică o variabilă care poate avea 0 și 1 ca singure valori sau care le pot fi atribuite, calculează probabilitatea ca această variabilă să dobândească valoarea 1.
- {\ displaystyle \ mathbb {E} \ left [Y \ mid X = x \ right] = 1 \ Pr \ left (Y = 1 \ mid X = x \ right) +0 \ Pr \ left (Y = 0 \ mid X = x \ right) = \ Pr \ left (Y = 1 \ mid X = x \ right)}
Având în vedere această limitare a valorilor de {\ displaystyle Y} , funcția care trebuie adoptată pentru regresie trebuie să fie neliniară cu intervalul {\ displaystyle C = \ left [0,1 \ right]} , o caracteristică pe care o dețin funcțiile de defalcare . [1] Nevoia de neliniaritate derivă din faptul că funcția, pentru a rămâne în intervalul dat, trebuie să aibă mai întâi o derivată neconstantă, deci dependentă de regresori. În caz contrar, funcția ar fi o linie dreaptă și domeniul său ar deveni {\ displaystyle \ mathbb {R}} . De fapt, să presupunem următorul model liniar:
- {\ displaystyle \ Pr \ left (Y = 1 \ mid X = x \ right) = \ beta _ {0} + \ beta _ {1} X}
unde derivatul
- {\ displaystyle {\ frac {\ partial} {\ partial X}} \ Pr \ left (Y = 1 \ mid X = x \ right) = \ beta _ {1}}
este constantă și egală cu parametrul {\ displaystyle \ beta _ {1}} . Pe baza semnului acestui parametru, funcția va crește dacă este pozitivă sau va scădea dacă este negativă, dar nu este posibil să avem ca interval {\ displaystyle C} deoarece acest lucru ar necesita o derivată dependentă de valoarea lui {\ displaystyle X} . Dacă luăm în considerare următorul model:
- {\ displaystyle \ Pr \ left (Y = 1 \ mid X = x \ right) = \ F \ left (\ alpha _ {0} + \ alpha _ {1} X \ right)}
unde derivatul
- {\ displaystyle {\ frac {\ partial} {\ partial X}} \ Pr \ left (Y = 1 \ mid X = x \ right) = \ f \ left (\ alpha _ {0} + \ alpha _ {1 } X \ dreapta) \ alpha _ {1}}
este, de asemenea, dependent de variabilă {\ displaystyle X} , este posibil, ca și {\ displaystyle X} , variază panta curbei, limitându-o la intervalul dat. Pentru modelul probit este utilizat ca funcție {\ displaystyle F} funcția de distribuție a distribuției normale standard, adică inversa funcției probit. [1]
Definiție
Modelul de regresie probit pentru populație este: [1]
- {\ displaystyle \ mathbb {E} \ left [Y \ mid \ mathbf {X} \ right] = \ Pr \ left (Y = 1 \ mid X_ {1}, \ ldots, X_ {k} \ right) = \ Phi \ left (\ beta _ {0} + \ beta _ {1} X_ {1} + \ ldots + \ beta _ {k} X_ {k} \ right) = \ Phi \ left (\ mathbf {X} ^ {T} {\ boldsymbol {\ beta}} \ right)}
unde este:
- {\ displaystyle Pr} indică probabilitatea;
- {\ displaystyle Y} este variabila dependentă dihotomică cu o distribuție Bernoulli {\ displaystyle Y \ sim {\ mathcal {Be}} \ left (\ Phi \ left (\ mathbf {X} ^ {T} {\ boldsymbol {\ beta}} \ right) \ right)} ;
- {\ displaystyle \ mathbf {X}} este vectorul variabilelor independente sau regresorilor {\ displaystyle X_ {1}, \ ldots, X_ {k}} ;
- {\ displaystyle {\ boldsymbol {\ beta}}} este vectorul parametrilor {\ displaystyle \ beta _ {0}, \ ldots, \ beta _ {k}} ;
- {\ displaystyle \ Phi} este funcția de distribuție a distribuției normale standard.
Varianța
Varianța variabilei dependente depinde de vectorul regresorilor {\ displaystyle \ mathbf {X}} . Intr-adevar
- {\ displaystyle Var \ left (Y \ mid \ mathbf {X} \ right) = \ mathbb {E} \ left [Y ^ {2} \ mid \ mathbf {X} \ right] - \ mathbb {E} \ left [Y \ mid \ mathbf {X} \ right] ^ {2} = \ Phi \ left (\ mathbf {X} ^ {T} {\ boldsymbol {\ beta}} \ right) \ cdot \ left (1- \ Phi \ left (\ mathbf {X} ^ {T} {\ boldsymbol {\ beta}} \ right) \ right)} .
Efect marginal
Efectul asupra variabilei dependente {\ displaystyle Y} dat de o schimbare într-un regresor {\ displaystyle X_ {j}} , numit efect marginal, se calculează ca derivată a valorii așteptate a {\ displaystyle Y} în comparație cu {\ displaystyle X_ {j}} :
- {\ displaystyle {\ frac {\ partial} {\ partial X_ {j}}} \ mathbb {E} \ left [Y \ mid \ mathbf {X} \ right] = \ Phi \ left (\ mathbf {X} ^ {T} {\ boldsymbol {\ beta}} \ right) = \ phi \ left (\ mathbf {X} ^ {T} {\ boldsymbol {\ beta}} \ right) \ cdot \ beta _ {j}}
unde este {\ displaystyle \ phi} este funcția densității probabilității distribuției normale standard e {\ displaystyle \ beta _ {j}} este parametrul care înmulțește regresorul {\ displaystyle X_ {j}} . [1] Pentru calcularea derivatei, regresorul trebuie să fie continuu.
Ilustrația metodei
Pentru fiecare probă de observare{\ displaystyle i = 1, \ ldots, n} ai o determinare {\ displaystyle Y} și de {\ displaystyle k} determinări {\ displaystyle X_ {1}, \ ldots, X_ {k}} . Modelul caută o relație neliniară, utilizând funcția de distribuție normală standard, între variabila dependentă și {\ displaystyle k} variabile independente, estimând valoarea coeficienților {\ displaystyle \ beta _ {0}, \ ldots, \ beta _ {k}} folosind metoda de maximă probabilitate. [1]
Estimarea parametrilor
Vectorul parametrilor {\ displaystyle {\ boldsymbol {\ beta}}} se estimează de obicei cu metoda maximă probabilitate , cu care se obțin estimatori eficienți , consecvenți și distribuiți în mod normal dacă eșantionul statistic este suficient de mare. [3] Aceste proprietăți permit calcularea testului t pe un parametru, a testului F în cazul restricțiilor multiple și a intervalelor de încredere . [3]
Funcția de probabilitate
În modelul probit variabila dependentă {\ displaystyle Y} este dihotomic și cu distribuție {\ displaystyle Y \ sim {\ mathcal {Be}} \ left (p \ right)} . Luați în considerare un eșantion de {\ displaystyle n} observații unde fiecare dintre ele este identificat{\ displaystyle i = 1, \ ldots, n} . Pentru definiția modelului, probabilitatea ca această variabilă să fie 1 pentru o observație dată {\ displaystyle i} Și
- {\ displaystyle \ Pr \ left (Y_ {i} = 1 \ mid X_ {1i}, \ ldots, X_ {ki} \ right) = \ Phi \ left (\ beta _ {0} + \ beta _ {1} X_ {1i} + \ ldots + \ beta _ {k} X_ {ki} \ right) = p_ {i}} ,
în timp ce probabilitatea să fie 0 este
- {\ displaystyle \ Pr \ left (Y_ {i} = 0 \ mid X_ {1i}, \ ldots, X_ {ki} \ right) = 1- \ Phi \ left (\ beta _ {0} + \ beta _ { 1} X_ {1i} + \ ldots + \ beta _ {k} X_ {ki} \ right) = 1-p_ {i}} .
Distribuția condițională a probabilității pentru fiecare element {\ displaystyle i} poate fi scris ca
- {\ displaystyle \ Pr \ left (Y_ {i} = y_ {i} \ mid X_ {1i}, \ ldots, X_ {ki} \ right) = p_ {i} ^ {y_ {i}} \ left (1 -p_ {i} \ right) ^ {1-y_ {i}}} .
Acum luăm în considerare întregul eșantion și presupunem și pentru fiecare observație {\ displaystyle i} , {\ displaystyle \ left (X_ {1i}, X_ {2i}, \ ldots, X_ {ki}, Y_ {i} \ right)} sunt independente și distribuite identic . Astfel, rezultă că distribuția comună a probabilității {\ displaystyle Y_ {1}, \ ldots, Y_ {n}} este produsul probabilităților condiționale ale fiecărei observații:
- {\ displaystyle \ Pr \ left (Y_ {1} = y_ {1}, \ ldots, Y_ {n} = y_ {n} \ mid X_ {1i}, \ ldots, X_ {ki} \ right) =}
- {\ displaystyle = \ Pr \ left (Y_ {1} = y_ {1} \ mid X_ {11}, \ ldots, X_ {k1} \ right) \ cdot \ ldots \ cdot \ Pr \ left (Y_ {n} = y_ {n} \ mid X_ {1n}, \ ldots, X_ {kn} \ right) =}
- {\ displaystyle = p_ {1} ^ {y_ {1}} \ left (1-p_ {1} \ right) ^ {1-y_ {1}} \ cdot \ ldots \ cdot p_ {n} ^ {y_ { n}} \ left (1-p_ {n} \ right) ^ {1-y_ {n}} = \ prod _ {i = 1} ^ {n} p_ {i} ^ {y_ {i}} \ left (1-p_ {i} \ dreapta) ^ {1-y_ {i}}} .
Definiția modelului probit este acum preluată și înlocuită în locul {\ displaystyle p_ {i}} , obținând astfel funcția de probabilitate [4]
- {\ displaystyle {\ mathcal {L}} _ {probit} \ left (\ beta _ {0}, \ ldots, \ beta _ {k}; Y_ {1}, \ ldots, Y_ {n} \ mid X_ { 1i}, \ ldots, X_ {ki} \ right) = \ prod _ {i = 1} ^ {n} \ left [\ Phi \ left (\ beta _ {0} + \ beta _ {1} X_ {1i } + \ ldots + \ beta _ {k} X_ {ki} \ right) \ right] ^ {Y_ {i}} \ left [1- \ Phi \ left (\ beta _ {0} + \ beta _ {1 } X_ {1i} + \ ldots + \ beta _ {k} X_ {ki} \ right) \ right] ^ {1-Y_ {i}}} .
Metoda de maximă probabilitate
Pentru a calcula estimatorii {\ displaystyle {\ hat {\ beta}} _ {0}, {\ hat {\ beta}} _ {1}, \ ldots, {\ hat {\ beta}} _ {k}} parametrii {\ displaystyle \ beta _ {0}, \ beta _ {1}, \ ldots, \ beta _ {k}} este convenabil să calculați funcția log-probabilitate, deoarece în acest fel este posibilă eliminarea productivității. Logaritmul este apoi aplicat funcției de probabilitate:
- {\ displaystyle {\ mathcal {l}} _ {probit} \ left (\ beta _ {0}, \ ldots, \ beta _ {k}; Y_ {1}, \ ldots, Y_ {n} \ mid X_ { 1i}, \ ldots, X_ {ki} \ right) = \ ln {\ mathcal {L}} _ {probit} \ left (\ beta _ {0}, \ ldots, \ beta _ {k}; Y_ {1 }, \ ldots, Y_ {n} \ mid X_ {1i}, \ ldots, X_ {ki} \ right) =}
- {\ displaystyle = \ sum _ {i = 1} ^ {n} Y_ {i} \ ln \ left [\ Phi \ left (\ beta _ {0} + \ beta _ {1} X_ {1i} + \ ldots + \ beta _ {k} X_ {ki} \ right) \ right] + \ sum _ {i = 1} ^ {n} \ left (1-Y_ {i} \ right) \ ln \ left [1- \ Phi \ left (\ beta _ {0} + \ beta _ {1} X_ {1i} + \ ldots + \ beta _ {k} X_ {ki} \ right) \ right]} .
Estimatorii calculați cu metoda de maximă probabilitate maximizează funcția anterioară rezolvând următoarea problemă:
- {\ displaystyle \ left \ {{\ hat {\ beta}} _ {0}, {\ hat {\ beta}} _ {1}, \ ldots, {\ hat {\ beta}} _ {k} \ right \} _ {MV} = \ arg \ max _ {\ beta _ {0}, \ ldots, \ beta _ {k}} {\ mathcal {l}} _ {probit} \ left (\ beta _ {0} , \ ldots, \ beta _ {k}; Y_ {1}, \ ldots, Y_ {n} \ mid X_ {1i}, \ ldots, X_ {ki} \ right)} . [5]
Pentru a simplifica scrierea să luăm în considerare {\ displaystyle {\ boldsymbol {\ beta}}} un vector al parametrilor {\ displaystyle \ beta _ {0}, \ beta _ {1}, \ ldots, \ beta _ {k}} , {\ displaystyle \ phi} derivatul de {\ displaystyle \ Phi} , adică funcția densității probabilității distribuției normale standard și {\ displaystyle n} numărul de observații din eșantion. Există două condiții pentru maximizare: prima ordine în care prima derivată în raport cu parametrii trebuie setată egală cu zero pentru a găsi extremele, a doua plasează în schimb a doua derivată, din nou în raport cu parametrii, mai mică decât zero la determina concavitatea functiei.
- {\ displaystyle {\ frac {\ partial} {\ partial {\ boldsymbol {\ beta}}}} {\ mathcal {l}} _ {probit} \ left ({\ boldsymbol {\ beta}}; \ mathbf {y } \ right) = 0 \ Longleftrightarrow \ sum _ {i = 1} ^ {n} \ left \ {{\ frac {y_ {i} - \ Phi \ left (\ mathbf {x} _ {i} '{\ boldsymbol {\ beta}} \ right)} {\ Phi \ left (\ mathbf {x} _ {i} '{\ boldsymbol {\ beta}} \ right) \ left [1- \ Phi \ left (\ mathbf { x} _ {i} '{\ boldsymbol {\ beta}} \ right) \ right]}} \ cdot \ phi \ left (\ mathbf {x} _ {i}' {\ boldsymbol {\ beta}} \ right ) \ right \} = 0}
- {\ displaystyle {\ frac {\ partial ^ {2}} {\ partial {\ boldsymbol {\ beta}} \ partial {\ boldsymbol {\ beta '}}}} {\ mathcal {l}} _ {probit} \ stânga ({\ boldsymbol {\ beta}}; \ mathbf {y} \ dreapta) <0}
De obicei, soluțiile acestor condiții nu sunt ușor de determinat sau nu pot fi găsite deloc, dar pentru a depăși această problemă puteți utiliza programe statistice de computer care, prin intermediul unor algoritmi , își găsesc aproximările. [5]
Notă
- ^ a b c d e f ( EN ) James H. Stock și Mark W. Watson, Regression with a Binary Dependent Variable , în Introduction to Econometrics , ediția a 3-a, Pearson, 2015, pp. 437-439, ISBN 978-1-292-07131-2 .
- ^ Chester I. Bliss , METODA PROBITELOR , în Știință , vol. 79, 12 ianuarie 1934, pp. 38-39, DOI : 10.1126 / science.79.2037.38 , PMID 17813446 . Adus la 20 noiembrie 2018 .
- ^ A b (EN) James H. Stock și Mark W. Watson, Regression with a Binary Dependent Variable, în Introduction to Econometrics, ediția a 3-a, Pearson, 2015, pp. 441-442, ISBN 978-1-292-07131-2 .
- ^ Întreaga derivare a funcției de probabilitate poate fi consultată pe paginile raportate aici. ( EN ) James H. Stock și Mark W. Watson, Regression with a Binary Dependent Variable , în Introduction to Econometrics , ediția a 3-a, Pearson, 2015, pp. 465-466, ISBN 978-1-292-07131-2 .
- ^ A b (EN) James H. Stock și Mark W. Watson, Regression with a Binary Dependent Variable, în Introduction to Econometrics, ediția a 3-a, Pearson, 2015, pp. 465-466, ISBN 978-1-292-07131-2 .
Bibliografie
- ( EN ) William H. Greene, capitolul 21 , în Analiza econometrică , ediția a IV-a, Prentice-Hall, 1993 [1990] , ISBN 0-13-013297-7 .
- ( EN ) James H. Stock și Mark W. Watson, Regression with a Binary Dependent Variable , în Introduction to Econometrics , ediția a 3-a, Pearson, 2015, ISBN 978-1-292-07131-2 .
Elemente conexe
Alte proiecte