De la Wikipedia, enciclopedia liberă.
În teoria informației , Inegalitatea lui Fano raportează echivocarea unui canal zgomotos cu probabilitatea de eroare în decodarea unui simbol primit. A fost descoperit și dovedit de omul de știință Robert Fano .
Fano inegalitate
Dacă variabilele aleatorii {\ displaystyle X = x_ {i}} Și {\ displaystyle Y = y_ {j}} reprezintă simbolurile (extrase dintr-un alfabet de M simboluri posibile) la intrarea și ieșirea unui canal zgomotos și au o densitate de probabilitate comună {\ displaystyle P (x, y)} , canalul este afectat de o probabilitate de eroare
- {\ displaystyle P (e) = \ sum _ {i = 0} ^ {M-1} \ sum _ {j \ not = i} P (y_ {j}, x_ {i})}
iar inegalitatea lui Fano este apoi exprimată ca
- {\ displaystyle H (X | Y) \ leq H (e) + P (e) \ log (M-1),}
in care
- {\ displaystyle H \ left (X | Y \ right) = - \ sum _ {i, j} P (x_ {i}, y_ {j}) \ log P \ left (x_ {i} | y_ {j} \ dreapta)}
este entropia condițională, numită echivocare, deoarece reprezintă cantitatea medie de informații pierdute în canal; Și
- {\ displaystyle H \ left (e \ right) = - P (e) \ log P (e) - (1-P (e)) \ log (1-P (e))}
este entropia binară corespunzătoare unei surse binare staționare și fără memorie care emite simbolul 1 cu probabilitate {\ displaystyle P (e)} și simbolul 0 cu probabilitate {\ displaystyle 1-P (e)} .
Inegalitatea Fano oferă deci o limită inferioară a probabilității de eroare; de fapt, se arată că, dacă entropia lui X depășește capacitatea canalului, este imposibil ca informațiile transmise prin canal să fie primite cu o probabilitate de eroare arbitrar scăzută.
Demonstrație
Lasa-i sa fie {\ displaystyle X} Și {\ displaystyle Y} două variabile aleatorii e {\ displaystyle {\ tilde {X}} = f (Y)} un admirator al {\ displaystyle X} obținut din observarea {\ displaystyle Y} . Este {\ displaystyle P (e) = P [X \ neq {\ tilde {X}}]} probabilitatea de eroare.
Luați în considerare variabila aleatoare binară {\ displaystyle E} astfel încât:
- {\ displaystyle E = {\ begin {cases} 1 & {\ mbox {se}} X \ neq {\ tilde {X}} \\ 0 & {\ mbox {se}} X = {\ tilde {X}} \ end {cases}}}
care are deci o distribuție de tip {\ displaystyle p_ {E} = (1-P (e), P (e))} .
Acum ia în considerare entropia:
- {\ displaystyle H (X, E | Y) = H (X | Y) + H (E | X, Y) = H (E | Y) + H (X | E, Y)}
{\ displaystyle E} este o funcție a {\ displaystyle X} Și {\ displaystyle {\ tilde {X}}} și în consecință a {\ displaystyle X} Și {\ displaystyle Y} , de la care {\ displaystyle H (E | X, Y) = 0} .
Se obține astfel
- {\ displaystyle H (X | Y) = H (E | Y) + H (X | E, Y) \ leq H (e) + H (X | E, Y) \ \ \ \ {\ mbox {(1 )}}}
exploatarea inegalității {\ displaystyle H (E | Y) \ leq H (E) = H (e)} .
În acest moment este posibil să rescriem {\ displaystyle H (X | E, Y)} după cum urmează:
- {\ displaystyle H (X | E, Y) = p_ {E} (0) H (X | Y, E = 0) + p_ {E} (1) H (X | Y, E = 1) \ \ \ \ {\ mbox {(2)}}}
pentru care primul termen al membrului din dreapta este anulat deoarece este dat {\ displaystyle E = 0} incertitudine cu privire la cunoașterea {\ displaystyle X} este nul, în timp ce pentru al doilea, știind a priori că există o eroare, inegalitatea se menține
- {\ displaystyle H (X | Y, E = 1) \ leq \ log (| {\ mathcal {X}} | -1)}
unde este {\ displaystyle | {\ mathcal {X}} |} este numărul de valori posibile pe care variabila {\ displaystyle X} poate presupune. Prin înlocuire {\ displaystyle {\ mbox {(2)}}} în {\ displaystyle {\ mbox {(1)}}} primesti:
- {\ displaystyle H (X | Y) \ leq H (e) + p (e) \ log (| {\ mathcal {X}} | -1)}
dovedind astfel revendicarea.
Bibliografie
- R. Fano, Transmiterea informațiilor; o teorie statistică a comunicațiilor. Cambridge, Mass., MIT Press, 1961.
Elemente conexe