De la Wikipedia, enciclopedia liberă.
În teoria informației, entropia condițională este o măsură a cantității de informații necesare pentru a descrie valoarea unei variabile aleatorii {\ displaystyle \ mathrm {X}} a cunoscut valoarea unei alte variabile aleatorii {\ displaystyle Y} . În transmisia pe un canal de comunicație, reprezintă cantitatea de incertitudine rămasă în valoarea la intrarea în canal după ce valoarea de ieșire a fost observată. Entropia de {\ displaystyle X} condiționat de {\ displaystyle Y} este definit ca {\ displaystyle H (X | Y)} .
Definiție
De sine {\ displaystyle H (X | Y = y_ {k})} este entropia variabilei {\ displaystyle X} condiționat de variabilă {\ displaystyle Y} care capătă o anumită valoare {\ displaystyle y_ {k}} , asa de {\ displaystyle H (X | Y)} este rezultatul mediei ponderate a {\ displaystyle H (X | Y = y_ {k})} pe toate valorile posibile {\ displaystyle y_ {k}} că {\ displaystyle Y} poate presupune.
Având în vedere un alfabet de simboluri {\ displaystyle X = {\ {x_ {0}, x_ {1}, ..., x_ {J-1}} \}} , un alfabet de simboluri în ieșire {\ displaystyle Y = {\ {y_ {0}, y_ {1}, ... y_ {K-1}} \}} cu probabilitate {\ displaystyle p (y_ {0}), ..., p (y_ {K-1})} entropia condiționată este definită ca:
{\ displaystyle H (X | Y)} {\ displaystyle \ equiv} {\ displaystyle \ sum _ {k = 0} ^ {K-1} H (X | Y = y_ {k}) p (y_ {k})}
{\ displaystyle = \ sum _ {k = 0} ^ {K-1} \ sum _ {j = 0} ^ {J-1} p (x_ {j} | y_ {k}) p (y_ {k} ) log_ {2} \ left [{\ frac {1} {p (x_ {j} | y_ {k})}} \ right]}
{\ displaystyle = \ sum _ {k = 0} ^ {K-1} \ sum _ {j = 0} ^ {J-1} p (x_ {j}, y_ {k}) log_ {2} \ left [{\ frac {1} {p (x_ {j} | y_ {k})}} \ right]}
unde în ultima expresie s-a folosit relația dintre probabilitatea comună și condițională: {\ displaystyle p (x_ {j}, y_ {k}) = p (x_ {j} | y_ {k}) p (y_ {k})} .
Bibliografie