Geometria informației

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare

În matematică și în special în statisticile inferențiale , geometria informației este studiul probabilității și informației prin instrumentele geometriei diferențiale . În anii 1980 a crescut datorită muncii lui Shun-Ichi-Amari. Cartea sa Metode de informații Geometrie poate fi considerată textul de referință actual. De fapt, conține o expunere vastă a rezultatelor obținute (până în anul 2000) în alte discipline datorită instrumentelor geometriei informației.

Introducere

Principiul fundamental al geometriei informației constă în posibilitatea de a aborda prin geometrie diferențială multe structuri importante ale teoriei probabilităților, teoriei informației și statisticii. Acest lucru este posibil analizând spațiile distribuțiilor de probabilitate ca varietăți diferențiale Riemanniene cu o familie de conexiuni afine distincte de conexiunea afină canonică. Conexiunile e-afine și m-affine oferă o interpretare geometrică a așteptării și maximizării, ca în algoritmul de așteptare-maximizare.

De exemplu,

  • Matricea informațională a lui Fisher este o metrică riemanniană.
  • Divergența Kullback-Leibler este una dintre familiile de divergențe legate de conexiunile duale afine.
  • O familie exponențială este un submanifold plat sub o conexiune e-cognată.
  • Estimarea maximă a probabilității poate fi obținută printr-o proiecție pe un model statistic ales folosind o conexiune m-afină.
  • Existența și unicitatea estimării probabilității maxime asupra familiilor exponențiale este o consecință a dublei afinități dintre conexiunile e-afine și m-afine.
  • Algoritmul em („em” înseamnă e-proiecție și m-proiecție)
Matematica Portalul de matematică : accesați intrările Wikipedia care se ocupă de matematică