Capacitatea canalului

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare

Capacitatea canalului , în informatică și teoria informației , este „cea mai mică limită superioară” a cantității de informații care poate fi transmisă în mod fiabil pe un canal . Conform teoremei de codare a canalului, capacitatea canalului unui anumit canal este rata maximă de transfer de date pe care canalul o poate oferi pentru un raport semnal-zgomot dat, cu o rată de eroare cât mai mică dorită. [1] [2]

Teoria informației , dezvoltată de Claude Shannon în timpul celui de-al doilea război mondial , definește capacitatea canalului și oferă un model matematic pentru calcularea acestuia. Rezultatul principal stabilește că capacitatea canalului este dată de maximul de informații reciproce între intrarea și ieșirea unui canal, unde maximizarea se efectuează în ceea ce privește distribuția semnalului de intrare [3] .

Formule generale

  • Semnal ideal

Capacitatea canalului se obține cu următoarea formulă generică:

unde B este banda . Această formulă este valabilă numai în prezența unui semnal ideal lipsit de codare și zgomot .

  • Semnal cu codare

Atunci când un semnal este liber de zgomot, dar există o codificare în acesta, următoarea formulă este validă:

unde B este banda și M reprezintă numărul de nivele ale codificării.

  • Semnal cu codare și zgomot

Când există atât zgomot cât și codificare într-un canal, se aplică formula:

unde B este banda, S reprezintă semnalul și N zgomotul , deci S / N reprezintă raportul semnal / zgomot .

Definiție formală

Noisy channel.svg

Date X , care reprezintă spațiul semnalelor care pot fi transmise și Y , care reprezintă spațiul semnalelor primite în timpul unui bloc de timp în cadrul canalului. Este

funcția de probabilitate condiționată a lui Y dată X. Prin modelarea canalului ca un sistem statistic cunoscut, este o proprietate fixă ​​care depinde de canalul de comunicație (deoarece reprezintă natura zgomotului din interiorul său). De aici și probabilitatea comună

a lui X și Y este complet determinată de canal și de alegerea probabilității marginale a semnalelor la intrarea canalului

Probabilitatea comună poate fi derivată folosind identitatea

Sub aceste constrângeri, trebuie să maximizăm cantitatea de informații care pot fi comunicate prin intermediul canalului. Prin urmare, o măsură adecvată este informarea reciprocă ; maximul acestor informații reciproce se numește capacitate de canal și este dat de

Legătură cu teorema de codare a canalului

Conform teoremei de codare a canalului pentru orice ε> 0 și pentru orice rată R , mai mică decât capacitatea canalului C , există o schemă de codificare și decodificare care poate fi utilizată pentru a se asigura că probabilitatea de eroare pe bloc este mai mică decât ε pentru un cod suficient de lung. Mai mult, pentru fiecare rată mai mare decât capacitatea canalului, probabilitatea de eroare pe blocul primit tinde la una când lungimea blocului tinde spre infinit.

Legătură cu teorema Shannon-Hartley

O aplicare a conceptului de canal capacitate la B Hz banda de alb gaussian aditiv canal și S / N semnal-zgomot este teorema Shannon-Hartley :

C se măsoară în biți pe secundă dacă logaritmul este dus la baza 2 sau în Nat dacă se folosește logaritmul natural ; raportul semnal-zgomot este un raport de putere, nu în decibeli .

Notă

  1. ^ Saleem Bhatti, Capacitatea canalului , pe note de curs pentru M.Sc. Rețele de comunicații de date și sisteme distribuite D51 - Comunicații și rețele de bază (arhivat din original la 21 august 2007) .
  2. ^ Jim Lesurf, Semnalele arată ca un zgomot! , în Informații și măsurare, ediția a II-a. .
  3. ^ Thomas M. Cover, Joy A. Thomas,Elements of Information Theory , John Wiley & Sons, New York, 2006.

Bibliografie

Elemente conexe