Geometria informației
Această intrare sau secțiune despre matematică nu citează sursele necesare sau cei prezenți sunt insuficienți . |
În matematică și în special în statisticile inferențiale , geometria informației este studiul probabilității și informației prin instrumentele geometriei diferențiale . În anii 1980 a crescut datorită muncii lui Shun-Ichi-Amari. Cartea sa Metode de informații Geometrie poate fi considerată textul de referință actual. De fapt, conține o expunere vastă a rezultatelor obținute (până în anul 2000) în alte discipline datorită instrumentelor geometriei informației.
Introducere
Principiul fundamental al geometriei informației constă în posibilitatea de a aborda prin geometrie diferențială multe structuri importante ale teoriei probabilităților, teoriei informației și statisticii. Acest lucru este posibil analizând spațiile distribuțiilor de probabilitate ca varietăți diferențiale Riemanniene cu o familie de conexiuni afine distincte de conexiunea afină canonică. Conexiunile e-afine și m-affine oferă o interpretare geometrică a așteptării și maximizării, ca în algoritmul de așteptare-maximizare.
De exemplu,
- Matricea informațională a lui Fisher este o metrică riemanniană.
- Divergența Kullback-Leibler este una dintre familiile de divergențe legate de conexiunile duale afine.
- O familie exponențială este un submanifold plat sub o conexiune e-cognată.
- Estimarea maximă a probabilității poate fi obținută printr-o proiecție pe un model statistic ales folosind o conexiune m-afină.
- Existența și unicitatea estimării probabilității maxime asupra familiilor exponențiale este o consecință a dublei afinități dintre conexiunile e-afine și m-afine.
- Algoritmul em („em” înseamnă e-proiecție și m-proiecție)