Entropie condiționată

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare

În teoria informației, entropia condițională este o măsură a cantității de informații necesare pentru a descrie valoarea unei variabile aleatorii a cunoscut valoarea unei alte variabile aleatorii . În transmisia pe un canal de comunicație, reprezintă cantitatea de incertitudine rămasă în valoarea la intrarea în canal după ce valoarea de ieșire a fost observată. Entropia de condiționat de este definit ca .

Definiție

De sine este entropia variabilei condiționat de variabilă care capătă o anumită valoare , asa de este rezultatul mediei ponderate a pe toate valorile posibile poate presupune.

Având în vedere un alfabet de simboluri , un alfabet de simboluri în ieșire cu probabilitate entropia condiționată este definită ca:

unde în ultima expresie s-a folosit relația dintre probabilitatea comună și condițională: .

Bibliografie