Padure aleatorie

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare
Date de instruire formate din puncte cloud a doi gausi
O vizualizare aleatorie a spațiului modelului Forest după antrenamentul cu datele

O pădure aleatorie (în engleză : random forest) este un ansamblu clasificator obținut prin punerea în sac a agregării arborilor de decizie [1] [2] Algoritmul pentru crearea unei păduri aleatorii a fost inițial dezvoltat de Leo Breiman și Adele Cutler. [3] Pădurile aleatorii sunt o soluție care minimizează supra - echiparea setului de instruire în ceea ce privește arborii de decizie. [4]

Numele provine din pădurile de decizie aleatorii care au fost propuse pentru prima dată de Tin Kam Ho de la Bell Labs în 1995 . [5] [6] [7]

Metoda combină ideea de selecție a caracteristicilor aleatorii a lui Breiman, introdusă independent de Ho și Amit Geman pentru a construi o colecție de arbori de decizie cu variație controlată.

Selectarea unui subset de caracteristici este un exemplu al metodei subsetului aleatoriu care, în formularea lui Ho, este o modalitate de implementare a discriminării stochastice propusă de Eugene Kleinberg.

Aplicații

În combinație cu metoda numită Repetare incrementală și tăiere , este utilizată în clasificarea automată a faptelor și opiniilor, precum și în verificarea faptelor a propozițiilor unice. [8]

Notă

  1. ^(EN) Kam Tin Ho, The Random Subspace Method for Constructing Decests Forests (PDF), în IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 20, nr. 8, 1998, pp. 832–844, DOI : 10.1109 / 34.709601 . Adus la 8 februarie 2017 (arhivat din original la 4 martie 2016) .
  2. ^ De Mauro, Andrea., Analiza datelor mari: ghid pentru a începe clasificarea și interpretarea datelor cu învățarea automată , Apogeo, 2019, ISBN 978-88-503-3478-0 ,OCLC 1065010076 . Adus pe 10 noiembrie 2019 .
  3. ^(EN) Kam Tin Ho, Random Forests Decision (PDF), Proceedings of the 3rd Conference International on Document Analysis and Recognition, Montreal, QC, 14-16 august 1995, 1995, pp. 278–282 (arhivat din original la 17 aprilie 2016) .
  4. ^ Hastie, Trevor. și Friedman, JH (Jerome H.), Elementele învățării statistice: extragerea datelor, inferența și predicția: cu 200 de ilustrații color , Springer, 2001, ISBN 0-387-95284-5 ,OCLC 46809224 . Adus pe 13 martie 2020 .
  5. ^(EN) Eugene Kleinberg, O metodă de modelare stochastică rezistentă la suprasolicitare pentru recunoașterea modelelor (PDF), în Annals of Statistics , vol. 24, n. 6, 1996, pp. 2319-2349, DOI : 10.1214 / aos / 1032181157 , MR 1425956 (arhivat din original la 19 iulie 2011) .
  6. ^(EN) Eugene Kleinberg, Despre implementarea algoritmică a discriminării stochastice (PDF), în IEEE Transactions on PAMI, Vol. 22, n. 5, 2000. Adus la 8 februarie 2017 (arhivat din original la 19 august 2011) .
  7. ^(RO) Eugine Kleinberg, Stochastic Discrimination and its Implementation (depus de „Original url 26 noiembrie 2012).
  8. ^ Ankan Mullick, Surjodoy Ghosh D, Shivam Maheswari, Srotaswini Sahoo and Suman Maity, Identifying Opinion and Fact Subcategories from the Social Web , in GROUP '18: Proceedings of the 2018 ACM Conference on Supporting Groupwork Support , DOI : 10.1145 / 3148330.3154518 , ISBN 978 -1-4503-5562-9 ,OCLC 7279777466 . Adus pe 14 decembrie 2020 . Găzduit pe archive.is .

Elemente conexe