Compararea probelor independente

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare

În statistici, comparația dintre două sau mai multe eșantioane independente are scopul de a verifica, în general, dacă un anumit număr de eșantioane statistice provine dintr-o singură populație , cu o distribuție unică , sau dacă fiecare eșantion provine dintr-o populație distinct distribuită. Diferite valori pot fi utilizate pentru a măsura discrepanța dintre distribuțiile observate între două eșantioane și pot fi efectuate teste diferite pentru a testa ipoteza apartenenței la o singură populație, cu o distribuție comună. Testele prezentate aici își asumă independența între probele studiate, astfel încât o asociere de un fel ar putea strica rezultatul sau reduce puterea testului .

Problema este analogă cu cea a verificării bunătății de potrivire (bunătății de potrivire), adică adeziunea unui eșantion la o distribuție teoretică cunoscut a priori. În schimb, în ​​cazul comparării eșantioanelor independente, este necunoscut și există doar sub ipoteza nulă că diferitele eșantioane aparțin aceleiași populații, prin urmare se estimează pornind de la unirea diferitelor eșantioane.

Metodele afișate pe această pagină se referă la toate distribuțiile univariate, cu toate acestea, pentru unele dintre ele, extensiile mai mult sau mai puțin eficiente ale cazului multivariat au fost propuse în literatura de specialitate.

Variabile categorice

În cazul variabilelor categorice, două teste utilizabile (și utilizate pe scară largă) pentru compararea a două sau mai multe probe sunt testul chi-pătrat al lui Pearson sau testul exact al lui Fisher . Între cele două, primul are o valoare asimptotică și, prin urmare, este recomandabil pentru eșantioane suficient de mari, în timp ce al doilea este exact, dar din punct de vedere al calculului, atunci când eșantioanele sunt multe și numeroase.

O alternativă comparabilă, dar recomandată, la testul chi-pătrat al lui Pearson este testul G , bazat pe raportul de probabilitate multinomial .

Statistica testului chi-pătrat este, de asemenea, utilizată ca măsură a distanței dintre distribuții diferite (pe aceleași categorii). O versiune normalizată a acestei valori este indexul Cramer V. Alte distanțe sunt enumerate mai jos

Variabile numerice

Dacă presupunem un anumit model de generare a datelor , este logic să optăm pentru o metodă parametrică pentru a compara cele două sau mai multe eșantioane; de exemplu, dacă doriți să comparați frecvențele care se presupune că sunt generate de unul sau mai multe procese Poisson , un model Poisson este cea mai bună alegere pentru măsurarea diferenței dintre eșantioane sau pentru testarea lor pe ipoteza omogenității. În caz contrar, este recomandabil să vă bazați pe o metodă non-parametrică .

Test de localizare

Cea mai frecventă serie de comparații între diferite eșantioane se învârte în jurul tendinței centrale a fiecărui eșantion și măsurând diferența dintre acestea. De fapt, atenția cercetătorului se concentrează adesea pe această statistică sintetică a populației. Acest tip de test nu poate detecta dacă două eșantioane diferă în ceea ce privește distribuția lor, atât timp cât media și / sau mediana lor coincid.

  • Test T : este un test parametric privind diferența dintre mijloacele a două probe. Testele t folosesc ipoteze foarte stricte: cele două eșantioane trebuie să aibă o distribuție normală cu varianță egală, altfel rezultatul testului ar putea fi, de asemenea, puternic distorsionat. Există, de asemenea, o extensie a testului care poate fi utilizată pentru a verifica diferența dintre mijloace evitând presupunerea unei varianțe egale. Extinderea testului t la un număr de probe mai mare de 2 este testul ANOVA .
  • Testul Mann-Whitney : este cea mai populară alternativă non-parametrică la testul t și se bazează pe ipoteze mai relaxate: distribuția este gratuit, dar diferența dintre poziția celor două eșantioane este detectată corect dacă ambele au aceeași distribuție, cu excepția poziției, adică dacă cele două eșantioane au distribuții care coincid între ele, dar se traduc reciproc. Testul Mann-Whitney se bazează pe rangurile de observații, deci sunt potrivite pentru orice variabilă ordinală . Extinderea acestui test la mai mult de 2 probe este testul Kruskal-Wallis .
  • Test median : după cum sugerează și numele, acest test este destinat să verifice dacă toate probele au aceeași mediană. Este un test non-parametric aplicabil atât variabilelor numerice cât și variabilelor ordinale, dar este o alternativă mai puțin puternică la testele anterioare.

Testul momentelor superioare

Există multe teste pentru a compara diferite eșantioane pe parametri diferiți de medie sau, în orice caz, de poziție, de exemplu testul F pentru raportul de varianțe sau echivalentul non-parametric al Ansari-Bradley , cu toate acestea utilizarea lor tipică este pe două eșantioane ale căror poziții egale nu sunt asumate, deci ipoteza nulă nu este aceea a distribuției egale. Același lucru este valabil și pentru testele din momentele superioare celui de-al doilea, care sunt de obicei utilizate pentru a verifica normalitatea .

Un alt tip de problemă, deși mult mai rar decât compararea pozițiilor a două eșantioane, necesită o comparație simultană a poziției și a scalei . Ei sugerează pentru acest studiu de caz să testeze rândurile lui Cucconi și Lepage .

Test pe întreaga distribuție

Două distribuții empirice cumulative (în albastru și roșu), statistica testului Kolmogorov-Smirnov este prezentată în negru

O comparație generică sensibilă la orice diferență în distribuții poate fi de interes, mai degrabă decât o comparație direcționată a tendințelor individuale în distribuțiile eșantionului. O soluție comună este clasificarea variabilei prin împărțirea eșantionului total în clase adiacente (ca într-o histogramă ) și utilizarea acelor clase pentru a construi un tabel de contingență pe care să efectuați un test chi-pătrat sau un test G. al medianei, introdus de mai sus, este un caz special al acestei metode.

O comparație mai naturală între variabilele numerice este cea dintre funcțiile de distribuție empirică (ECDF, funcția de distribuție empirică engleză cumulativă). Următoarele teste se bazează pe această idee:

  • Testul Kolmogorov-Smirnov : statistica testului este valoarea maximă a diferenței absolute dintre cele două ECDF. Deoarece se ia doar punctul maxim al acestei diferențe, testul Kolmogorov-Smirnov este deosebit de sensibil la diferențele de poziție dintre cele două probe, deși nu la fel de sensibile ca testele care măsoară în mod specific această diferență. Prin urmare, este un test deosebit de conservator [1] .
  • Testul Cramer-Von Mises : de data aceasta statistica testului este integrală pe întreaga gamă a funcțiilor de distribuție, a pătratului diferenței dintre cele două funcții. Comparativ cu precedentul, puterea este mai mare sau, în cele mai grave cazuri, similară [1] [2] .
  • Test Anderson-Darling : acesta este un test similar cu cel anterior, dar atribuie mai multă greutate cozilor de distribuție.

Aceste trei teste măsoară diferența dintre cele două funcții de distribuție empirică, integrându-l în raport cu (estimat pe ambele probe), în timp ce testul KS este limitat la măsurarea valorii maxime, prin urmare, în toate cele trei cazuri, rezultatul depinde doar de ordinea observațiilor, iar utilizarea lor este aplicabilă și variabilelor ordinale. Cu toate acestea, ar putea părea potrivit ca o variabilă numerică să păstreze informații despre distanța dintre observații în cele două eșantioane, care se pierde în testele anterioare. În acest scop, au fost propuse alte alternative, cum ar fi utilizarea distanței Vaseršteĭn între probe ca statistică de testare, a cărei distribuție trebuie estimată prin bootstrap [3] . Sau teste bazate pe metoda nucleului [4] , aceste opțiuni, spre deosebire de testele anterioare, sunt potrivite în mod natural pentru distribuții multivariate.

Alte distanțe

Există multe măsurători concepute pentru a măsura distanța dintre perechile de distribuții de probabilitate, cu toate acestea următoarele necesită, pentru variabilele continue, o estimare a funcției densității , cum ar fi o histogramă :

În schimb, acestea nu depind de funcția de densitate, ci doar de funcția de distribuție (înlocuibilă cu ECDF):

  • Distanța Vaseršteĭn , cunoscută și sub numele de distanța de mutare a pământului (EMD, din engleza "away earthmoving "), a devenit deosebit de populară în aplicațiile moderne datorită eficienței și intuitivității sale. Folosind algoritmi de calcul mai sofisticați, este generalizabil imediat pentru orice distribuție discretă sau continuă pe un spațiu metric (unde ECDF nu este definibil).
  • Distanța Lévy , a cărei utilizare este în general limitată la aplicații teoretice în teoria măsurătorilor .

Notă

  1. ^ a b ( EN ) Elena Landoni, Federico Ambrogi și Luigi Mariani, Parametric și nonparametric teste cu două eșantioane pentru screeningul caracteristicilor în compararea clasei: un studiu de simulare , în Epidemiologie, Biostatistică și Sănătate Publică , vol. 13, n. 2, 21 iunie 2016, DOI : 10.2427 / 11808 . Adus la 16 aprilie 2020 (Arhivat din original la 22 iulie 2020) .
  2. ^ Mike Steele și Janet Chaseling, O comparație a puterilor statisticii testului Chi-Square cu statisticile discrete ale testului Kolmogorov-Smirnov și Cramér-von Mises , Springer, 2006, pp. 615-621. Adus la 15 aprilie 2020 .
  3. ^ Connor Dowd, două eșantioane: permutare rapidă bazată pe două probe probe , 3 decembrie 2018. Accesat la 15 aprilie 2020 .
  4. ^ Arthur Gretton, Karsten M. Borgwardt și Malte J. Rasch, A Kernel Two-Sample Test , în Journal of Machine Learning Research , vol. 13, n. 25, 2012, pp. 723-773. Adus la 15 aprilie 2020 .
Statistici Portal de statistici : accesați intrările Wikipedia care se ocupă de statistici